手把手教你對(duì)文本文件進(jìn)行分詞、詞頻統(tǒng)計(jì)和可視化(附源碼)
回復(fù)“書籍”即可獲贈(zèng)Python從入門到進(jìn)階共10本電子書
?大家好!我是Python進(jìn)階者。
前言
??????前幾天一個(gè)在校大學(xué)生問(wèn)了一些關(guān)于詞頻、分詞和可視化方面的問(wèn)題,結(jié)合爬蟲,確實(shí)可以做點(diǎn)東西出來(lái),可以玩玩,還是蠻不錯(cuò)的,這里整理成一篇文章,分享給大家。
????本文主要涉及的庫(kù)有爬蟲庫(kù)requests、詞頻統(tǒng)計(jì)庫(kù)collections、數(shù)據(jù)處理庫(kù)numpy、結(jié)巴分詞庫(kù)jieba 、可視化庫(kù)pyecharts等等。
一、數(shù)據(jù)來(lái)源
????關(guān)于數(shù)據(jù)方面,這里直接是從新聞平臺(tái)上進(jìn)行獲取的文本信息,其實(shí)這個(gè)文本文件可以拓展開來(lái),你可以自定義文本,也可以是報(bào)告,商業(yè)報(bào)告,政治報(bào)告等,也可以是新聞平臺(tái),也可以是論文,也可以是微博熱評(píng),也可以是網(wǎng)易云音樂(lè)熱評(píng)等等,只要涉及到大量文本的,都可月引用本文的代碼,進(jìn)行詞頻分詞、統(tǒng)計(jì)、可視化等。
二、數(shù)據(jù)獲取
???數(shù)據(jù)獲取十分簡(jiǎn)單,一個(gè)簡(jiǎn)單的爬蟲和存儲(chǔ)就可以搞定,這里以一篇新聞為例進(jìn)行演示,代碼如下:
import reimport collections # 詞頻統(tǒng)計(jì)庫(kù)import numpy as np # numpy數(shù)據(jù)處理庫(kù)import jieba # 結(jié)巴分詞import requestsfrom bs4 import BeautifulSoupfrom pyecharts import options as optsfrom pyecharts.charts import WordCloudfrom pyecharts.globals import SymbolTypeimport warningswarnings.filterwarnings('ignore')r=requests.get("https://m.thepaper.cn/baijiahao_11694997",timeout=10)r.encoding="utf-8"s=BeautifulSoup(r.text,"html.parser")f=open("報(bào)告.txt","w",encoding="utf-8")L=s.find_all("p")for c in L:f.write("{}\n".format(c.text))f.close()
????代碼運(yùn)行之后,在本地會(huì)得到一個(gè)【報(bào)告.txt】文件,文件內(nèi)容就是網(wǎng)站上的文本信息。如果你想獲取其他網(wǎng)站上的文本,需要更改下鏈接和提取規(guī)則。

三、詞頻統(tǒng)計(jì)
????接下來(lái)就是詞頻統(tǒng)計(jì)了,代碼如下所示。
# 讀取文件fn = open("./報(bào)告.txt","r",encoding="utf-8")string_data = fn.read()fn.close()# 文本預(yù)處理# 定義正則表達(dá)式匹配模式pattern = re.compile(u'\t|,|/|。|\n|\.|-|:|;|\)|\(|\?|"')string_data = re.sub(pattern,'',string_data) # 將符合模式的字符去除# 文本分詞# 精確模式分詞seg_list_exact = jieba.cut(string_data,cut_all=False)object_list = []# 自定義去除詞庫(kù)remove_words = [u'的',u'要', u'“',u'”',u'和',u',',u'為',u'是','以' u'隨著', u'對(duì)于', u'對(duì)',u'等',u'能',u'都',u'。',u' ',u'、',u'中',u'在',u'了',u'通常',u'如果',u'我',u'她',u'(',u')',u'他',u'你',u'?',u'—',u'就',u'著',u'說(shuō)',u'上',u'這', u'那',u'有', u'也',u'什么', u'·', u'將', u'沒有', u'到', u'不', u'去']for word in seg_list_exact:if word not in remove_words:object_list.append(word)# 詞頻統(tǒng)計(jì)# 對(duì)分詞做詞頻統(tǒng)計(jì)word_counts = collections.Counter(object_list)# 獲取前30最高頻的詞word_counts_all = word_counts.most_common()word_counts_top30 = word_counts.most_common(30)print("2021年政府工作報(bào)告一共有%d個(gè)詞"%len(word_counts))print(word_counts_top30)
????首先讀取文本信息,之后對(duì)文本進(jìn)行預(yù)處理,提取文字信息,并且可以自定義詞庫(kù),作為停用詞,之后將獲取到的詞頻做詞頻統(tǒng)計(jì),獲取前30最高頻的詞,并進(jìn)行打印,輸出結(jié)果如下圖所示。

四、可視化
????接下來(lái)就是可視化部分了,這里直接上代碼,如下所示。
import pyechartsfrom pyecharts.charts import Linefrom pyecharts import options as opts# 示例數(shù)據(jù)cate = [i[0] for i in word_counts_top30]data1 = [i[1] for i in word_counts_top30]line = (Line().add_xaxis(cate).add_yaxis('詞頻', data1,markline_opts=opts.MarkLineOpts(data=[opts.MarkLineItem(type_="average")])).set_global_opts(title_opts=opts.TitleOpts(title="詞頻統(tǒng)計(jì)Top30", subtitle=""),xaxis_opts=opts.AxisOpts(name_rotate=60,axislabel_opts={"rotate":45})))line.render_notebook()
????輸出結(jié)果是一個(gè)線圖,看上去還不錯(cuò)。

五、總結(jié)
???本文基于Python網(wǎng)絡(luò)爬蟲獲取到的文本文件,通過(guò)詞頻、分詞和可視化等處理,完成一個(gè)較為簡(jiǎn)單的項(xiàng)目,歡迎大家積極嘗試。在代碼實(shí)現(xiàn)過(guò)程中,如果有遇到任何問(wèn)題,請(qǐng)加我好友,我?guī)椭鉀Q哦!
-------------------?End?-------------------
往期精彩文章推薦:

歡迎大家點(diǎn)贊,留言,轉(zhuǎn)發(fā),轉(zhuǎn)載,感謝大家的相伴與支持
想加入Python學(xué)習(xí)群請(qǐng)?jiān)诤笈_(tái)回復(fù)【入群】
萬(wàn)水千山總是情,點(diǎn)個(gè)【在看】行不行
/今日留言主題/
隨便說(shuō)一兩句吧~~
