<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          手把手教你用Pandas庫對淘寶原始數(shù)據(jù)進行數(shù)據(jù)處理和分詞處理

          共 6807字,需瀏覽 14分鐘

           ·

          2021-08-25 17:15

          點擊上方“Python爬蟲與數(shù)據(jù)挖掘”,進行關(guān)注

          回復(fù)“書籍”即可獲贈Python從入門到進階共10本電子書

          白頭搔更短,渾欲不勝簪。

          大家好,我是Python進階者。

          一、前言

              大家好,我是Python進階者,上個禮拜的時候,我的Python交流群里有個名叫程序的大佬,頭像是綠色菜狗的那位,在Python交流群里邊的人應(yīng)該都知道我說的是哪個大佬了,他提供了一份初始淘寶數(shù)據(jù),數(shù)據(jù)乍看上去非常雜亂無章,但是經(jīng)過小小明大佬的神化處理之后,一秒就變清晰了,真是太神了,然后就有了后續(xù)的數(shù)據(jù)分詞處理和可視化等內(nèi)容了,可能群里的人平時工作太忙,沒有來得及看群消息,作為熱心的群主,這里給大家整理成一篇文章,感興趣的小伙伴,可以去實操一下,還是可以學(xué)到很多東西的。言歸正傳,一起來學(xué)習(xí)下今天的數(shù)據(jù)分析內(nèi)容吧。


          二、原始數(shù)據(jù)預(yù)處理

          1、原始數(shù)據(jù)

              在未經(jīng)過處理之前的數(shù)據(jù),長這樣,大家可以看看,全部存儲在一個單元格里邊了,看得十分的讓人難受。如下圖所示。


              按照常規(guī)來說,針對上面的數(shù)據(jù),我們肯定會選擇Excel里邊的數(shù)據(jù)分列進行處理,然后依次的去根據(jù)空格、冒號去分割,這樣可以得到一份較為清晰的數(shù)據(jù)表,誠然,這種方法確實可行,但是小小明大佬另辟蹊徑,給大家用Python中的正則表達式來處理這個數(shù)據(jù),處理方法如下。

           2、原始數(shù)據(jù)預(yù)處理

              小小明大佬直接使用正則表達式re模塊和pandas模塊進行處理,方法可謂巧妙,一擊即中,數(shù)據(jù)處理代碼如下。

          import reimport pandas as pdresult = []with open(r"淘寶數(shù)據(jù).csv") as f:    for line in f:        row = dict(re.findall("([^:\t]+):([^:\t]+)", line))        if row:            result.append(row)df = pd.DataFrame(result)df.to_excel('new_data.xlsx', encoding='utf-8')print(df)

              之后我們可以看到效果圖,如下圖所示,這下是不是感覺到清爽了很多呢?

              至此,我們對原始的數(shù)據(jù)進行了預(yù)處理,但是這還不夠,我們今天主要的目標(biāo)是對上面數(shù)據(jù)中的兩列:配料表和保質(zhì)期進行數(shù)據(jù)分析,接下來繼續(xù)我們的數(shù)據(jù)處理和分析。


          三、對配料表和保質(zhì)期列進行處理

              一開始的時候,程序大佬對配料表和保質(zhì)期這兩列的數(shù)據(jù)進行處理,但是來回得到的分詞中總有一些特殊字符,如下圖所示,我們可以看到這些字符里邊有%、頓號、空格等內(nèi)容。

              我們都知道,這些是我們不需要的字符,當(dāng)時我們在群里討論的時候,我們就想到使用停用詞去針對這些擾人的字符進行處理,代碼如下。

          # 創(chuàng)建停用詞listdef stopwordslist(filepath):    stopwords = [line.strip() for line in open(filepath, 'r', encoding='gbk').readlines()]    return stopwords

          # 對句子進行分詞def seg_sentence(sentence): sentence_seged = jieba.cut(sentence.strip()) stopwords = stopwordslist('stop_word.txt') # 這里加載停用詞的路徑 outstr = '' for word in sentence_seged: if word not in stopwords: if word != '\t': outstr += word outstr += " " return outstr

              其中stop_word.txt是小編之前在網(wǎng)上找到的一個存放一些常用特殊字符的txt文件,這個文件內(nèi)容可以看看下圖。

              如上圖所示,大概有1894個詞左右,其實在做詞頻分析的時候,使用停用詞去除特殊字符是經(jīng)常會用到的,感興趣的小伙伴可以收藏下,也許后面你會用到呢?代碼和數(shù)據(jù)我統(tǒng)一放到文末了,記得去取就行。經(jīng)過這一輪的數(shù)據(jù)處理之后,我們得到的數(shù)據(jù)就基本上沒有太多雜亂的字符了,如下圖所示。

              得到這些數(shù)據(jù)之后,接下來我們需要對這些詞語做一些詞頻統(tǒng)計,并且對其進行可視化。如果還有想法的話,也可以直接套用詞云模板,生成漂亮的詞云圖,也未嘗不可。


          四、詞頻統(tǒng)計

              關(guān)于詞頻統(tǒng)計這塊,小編這里介紹兩種方法,兩個代碼都是可以用的,條條大路通羅馬,一起來看看吧!

          方法一:常規(guī)處理

              這里使用的是常規(guī)處理的方法,代碼親測可用,只需要將代碼中的1.txt進行替換成你自己的那個需要分詞統(tǒng)計的文檔即可,然后系統(tǒng)會自動給你生成一個Excel表格和一個TXT文件,內(nèi)容都是一樣的,只不過一個是表格,一個是文本。

          #!/usr/bin/env python3# -*- coding:utf-8 -*-
          import sysimport jiebaimport jieba.analyseimport xlwt # 寫入Excel表的庫
          # reload(sys)# sys.setdefaultencoding('utf-8')
          if __name__ == "__main__":
          wbk = xlwt.Workbook(encoding='ascii') sheet = wbk.add_sheet("wordCount") # Excel單元格名字 word_lst = [] key_list = [] for line in open('1.txt', encoding='utf-8'): # 1.txt是需要分詞統(tǒng)計的文檔
          item = line.strip('\n\r').split('\t') # 制表格切分 # print item tags = jieba.analyse.extract_tags(item[0]) # jieba分詞 for t in tags: word_lst.append(t)
          word_dict = {} with open("wordCount_all_lyrics.txt", 'w') as wf2: # 打開文件
          for item in word_lst: if item not in word_dict: # 統(tǒng)計數(shù)量 word_dict[item] = 1 else: word_dict[item] += 1
          orderList = list(word_dict.values()) orderList.sort(reverse=True) # print orderList for i in range(len(orderList)): for key in word_dict: if word_dict[key] == orderList[i]: wf2.write(key + ' ' + str(word_dict[key]) + '\n') # 寫入txt文檔 key_list.append(key) word_dict[key] = 0
          for i in range(len(key_list)): sheet.write(i, 1, label=orderList[i]) sheet.write(i, 0, label=key_list[i]) wbk.save('wordCount_all_lyrics.xls') # 保存為 wordCount.xls文件

          方法二:使用Pandas優(yōu)化處理

              這里使用Pandas方法進行處理,代碼如下,小編也是親測有效,小伙伴們也可以去嘗試下。

          def get_data(df):    # 將食品添加劑這一列空的數(shù)據(jù)設(shè)置為無    # print(df)    df.loc[:,'食品添加劑'] = df['食品添加劑'].fillna('無')    df.loc[:,'保質(zhì)期'] = df['保質(zhì)期'].fillna('無')    df.loc[:, '配料表'] = df['配料表'].fillna('無')
          #  分詞并擴展提取 names = df.配料表.apply(jieba.lcut).explode() #  過濾長度小于等于1的詞并去重 df1 = names[names.apply(len) > 1].value_counts()
          with pd.ExcelWriter("taobao.xlsx") as writer: df1.to_excel(writer, sheet_name='配料')
          df2 = pd.read_excel('taobao.xlsx', header=None, skiprows=1, names=['column1', 'column2']) print(df2)
              上面兩個代碼都是可以用的,最后得到的表格數(shù)據(jù),如下圖所示。

              從上圖我們可以看到配料表里邊的配料占比詳情,有了上述的數(shù)據(jù)之后,接下來我們就可以對其進行可視化操作了。關(guān)于可視化的內(nèi)容,小編也給大家已經(jīng)準(zhǔn)備好了,等待下一篇原創(chuàng)文章,給大家輸出,敬請期待。


          五、總結(jié)

              大家好,我是Python進階者。本文寫到這里,基本上就告一段落了。本文基于一份雜亂的淘寶原始數(shù)據(jù),利用正則表達式re庫和Pandas數(shù)據(jù)處理對數(shù)據(jù)進行清洗,然后通過stop_word停用詞對得到的文本進行分詞處理,得到較為”干凈“的數(shù)據(jù),之后利用傳統(tǒng)方法和Pandas優(yōu)化處理兩種方式對數(shù)據(jù)進行詞頻統(tǒng)計,針對得到的數(shù)據(jù),下一步將利用Pyecharts庫,進行多重可視化處理,包括但不限于餅圖、柱狀圖、Table表、漏斗圖、極化圖等,通過一系列的改進和優(yōu)化,一步步達到想要的效果,可以說是干貨滿滿,實操性強,親測有效。

              最后非常感謝程序大佬和小小明大佬在期間不斷提供的代碼,也感謝我自己花時間和心思把這些看似雜亂的消息整理成文,分享給大家學(xué)習(xí)。有需要本文中完整代碼文件的小伙伴,可以在后臺直接回復(fù)關(guān)鍵詞”程序和小小明大佬“即可獲取。

              我的這個Python交流群已經(jīng)300多人了,有需要加入該群的小伙伴可以加我好友,一起學(xué)習(xí),共同進步。

          ------------------- End -------------------

          往期精彩文章推薦:

          歡迎大家點贊,留言,轉(zhuǎn)發(fā),轉(zhuǎn)載,感謝大家的相伴與支持

          想加入Python學(xué)習(xí)群請在后臺回復(fù)【入群

          萬水千山總是情,點個【在看】行不行

          /今日留言主題/

          隨便說一兩句吧~~

          瀏覽 31
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  日韩欧美黄色 | 狂野欧美性猛交 | 簧片天堂 | 欧美日产在线 | 一级黄色性爱视频免费看 |