<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          手把手教你爬取美國疫情實時數(shù)據(jù)

          共 3545字,需瀏覽 8分鐘

           ·

          2020-04-02 23:25


          0a7ee5e9a9e3faa18e29159a76456f43.webp


          ? ???作者:劉早起早起


          ? ? ?來源:早起python


          大家好,最近一直有讀者在后臺留言說早起能不能寫一下怎么獲取國外的疫情數(shù)據(jù)、美國疫情數(shù)據(jù)怎么爬之類的。為了滿足各位,今天就說一下如何爬取美國疫情數(shù)據(jù)。


          ca75f2031eea01a5072d6ed67eb06716.webp


          廢話不多說,直接開始,只需一臺電腦,按照下面的順序一步一步執(zhí)行,爬不下來數(shù)據(jù)你打我,文末不提供源碼,源碼一字不少全在文中。首先感謝讀者@荷月十九提供的目標(biāo)網(wǎng)站(不然我肯定直接找個API1edc74a3daf9ad35818cf04b5c3b3ce7.webp)

          https://coronavirus.1point3acres.com/?code=001XKpTM0fAHk92cYwUM0iSrTM0XKpTF

          打開這個網(wǎng)站,會吧

          9c436d2c3c55e42b896d82c6a903bb7b.webp

          長這樣?但是我們需要拿的數(shù)據(jù)是?

          b9f6bf8d240f0fb4a443b68504821da5.webp

          現(xiàn)在目標(biāo)很明確,把上面這一堆數(shù)據(jù)取下來,下面有請Python出場


          ca75f2031eea01a5072d6ed67eb06716.webp

          打開Notebook,導(dǎo)入以下包

          import?requests
          import?json
          import?re
          import?pandas as?pd
          from?bs4 import?BeautifulSoup

          如果有人留言怎么打開,怎么導(dǎo)入我會直接當(dāng)場去世,接著設(shè)置下URL和headers,不用F12,URL就是上面的URL

          url?= 'https://coronavirus.1point3acres.com/?code=001XKpTM0fAHk92cYwUM0iSrTM0XKpTF'
          headers?= {'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36'}

          這兩句復(fù)制粘貼執(zhí)行謝謝,我們繼續(xù),下一步直接請求數(shù)據(jù)

          res?= requests.get(url,headers=headers)

          這一句就是使用Requests使用get方法向服務(wù)器請求數(shù)據(jù),我們來看一下返回的值

          1f188c17ad26552e01d79fc84502f2a9.webp

          哦豁,報錯了,從報錯代碼來看說明返回的并不能解析為json數(shù)據(jù),沒事不慌,bs4登場,我們用美麗的湯試試

          soup = BeautifulSoup(res.text)
          soup

          5c30ea5f6ba5dd355eee42f098bca11e.webp

          搞定?,接下來干嘛?我們想要的數(shù)據(jù)都在這湯(soup)里了,取出來不就完事了,這時候F12就不得不登場了,回到瀏覽器剛剛的頁面按下F12

          53edbe02442d127fc84a96ca60f0a8d8.webp

          為了再照顧下不熟悉的讀者,我已經(jīng)標(biāo)注了你F12之后要干嘛,先點擊位置1處的小箭頭,它就變成了藍色,再點擊頁面中美國確診的總?cè)藬?shù)的數(shù)字,你戳它一下,右邊的頁面就會自動定位到前端頁面中該數(shù)字的位置,從標(biāo)注3中可以看到這個數(shù)字被存儲在一個名為strong的標(biāo)簽中,并且class屬性為jsx-1831266853,OK請執(zhí)行下面代碼

          t = soup.find_all('strong', class_="jsx-1831266853")


          這段代碼具體是什么意思呢?就是從soup中找標(biāo)簽為'strong',class為"jsx-1831266853"的內(nèi)容?

          591183ac2b19903e6c953618e17c232f.webp

          返回了一個list,我們要的數(shù)據(jù)都在里面,拿總確診人數(shù)來說,怎么取出來?

          total_confirmed?= int(t[0].text)


          上面這行代碼不難看懂吧,首先取出t的第0個位置元素,.text函數(shù)取出中間的數(shù)字,再將這個數(shù)字轉(zhuǎn)換為int,這不就把美國確診總?cè)藬?shù)取出來了嗎。不過話說這有啥用啊,自己百度也能得到啊,別急,我們再把各個州的數(shù)據(jù)拿下

          982ae1ffa9f443ef1b2552e288bb6571.webp

          讓我們故技重施?,回到瀏覽器頁面中,F(xiàn)12定位到各個州的位置,戳一下看看數(shù)據(jù)存儲在哪些標(biāo)簽中,看不懂的話回去看上一張圖,結(jié)果我們發(fā)現(xiàn)好多div啊,點開一個就是一行數(shù)據(jù),再觀察觀察發(fā)現(xiàn)每一行的數(shù)據(jù)都被一個屬性是class="jsx-742282485 stat row"的標(biāo)簽包住?

          c02a94e1a4105d14195a78cf487c5df0.webp

          下面就好辦了,使用soup故技重施?

          s?= soup.find_all('div', class_="jsx-742282485 stat row")

          不難理解吧,將所有含屬性是class="jsx-742282485 stat row"的div標(biāo)簽取出來,來看下結(jié)果

          de92e2f6d610fef728ce474182b69928.webp

          有點亂,但是不用慌我們通過len(s)可以發(fā)現(xiàn)返回的list長度為57,而上面剛好有57行(不用數(shù)了,我已經(jīng)數(shù)過了),所以這57行的數(shù)據(jù)都在里面了,不用慌,一行一行取唄。

          我們先嘗試取出第一行的數(shù)據(jù),看看套路是什么,搞定了寫一個循環(huán)不就完事了。所以再回去瀏覽器看看第一行的數(shù)據(jù)怎么存儲的?

          702d795a7e3c610fb866ef6841654b7e.webp

          可以看到,我們剛剛?cè)〕隽?7個div標(biāo)簽,一個div標(biāo)簽里面有5個span,而前4個span中分別存儲了州名、確診、死亡、致死率,所以我們的思路就對每一個div取出這4個span中的內(nèi)容,先取第一行?

          name = s[0].find_all('span')[0].text
          k = s[0].find_all('span')[1].text
          confirmed = (int(re.findall(r"\d+\.?\d*",k)[0])*1000?+ int(re.findall(r"\d+\.?\d*",k)[1])) if?','?in?k else?int(k)
          deaths = int(s[0].find_all('span')[2].text)
          rate = s[0].find_all('span')[3].text


          等等,4個數(shù)據(jù)為什么要5行,有沒有注意到,確診數(shù)據(jù)由于比較大,比如紐約確診人數(shù)是46093,但是網(wǎng)頁里面是46,093,多了一個,這個,會導(dǎo)致我們之后可視化不方便。所以使用兩行代碼來解決這個問題?

          k = s[0].find_all('span')[1].text
          confirmed = (int(re.findall(r"\d+\.?\d*",k)[0])*1000?+ int(re.findall(r"\d+\.?\d*",k)[1])) if?','?in?k else?int(k)


          我稍微解釋下,第一行把數(shù)字取出來是這樣46,093,第二行先用正則表達式取出數(shù)字再拼接成正常的格式,如果看不懂也沒關(guān)系,這不是本期重點,總之這兩行就是把數(shù)字整理下


          好了,到這里基本就算結(jié)束了,接下來我們創(chuàng)建一個空dataframe

          df?= pd.DataFrame(columns= ['Location','Confirmed','Deaths','Fatality rate'])

          4db536427f5c807e2f9885e43de54da7.webp

          最后寫一個循環(huán)重復(fù)執(zhí)行剛剛的操作就搞定

          for?i in?range(len(s)):
          ????name = s[i].find_all('span')[0].text
          ????k = s[i].find_all('span')[1].text
          ????confirmed = (int(re.findall(r"\d+\.?\d*",k)[0])*1000?+ int(re.findall(r"\d+\.?\d*",k)[1])) if?','?in?k else?int(k)
          ????deaths = int(s[i].find_all('span')[2].text)
          ????rate = s[i].find_all('span')[3].text
          ????
          ????data = [name,confirmed,deaths,rate]
          ????df.loc[i] = data


          上面這個也不難看懂把,對每一行取出數(shù)據(jù)并存到dataframe中,如果看不懂那你一定沒做過Pandas120題系列,我們來看下最終取到的數(shù)據(jù)

          ef71f3931baf97276938c812aeb8d871.webp

          登登登登,美國各個州的疫情數(shù)據(jù)就成功取下來了,最后可以使用df.to_excel('filename.xlsx')存儲到本地。


          ca75f2031eea01a5072d6ed67eb06716.webp

          以上就是爬取美國疫情數(shù)據(jù)的全部過程,也不難吧!如果需要這個頁面中更多的數(shù)據(jù)完全可以重復(fù)上述步驟,并且這個網(wǎng)站實時更新數(shù)據(jù),如果定時執(zhí)行就能獲得時間序列數(shù)據(jù),這些就不再多說了。拿到數(shù)據(jù)之后就能做一些分析可視化?

          009d2b3cfb267621ee99114b90475570.webp

          ◆?◆?◆ ?◆?




          長按二維碼關(guān)注我們



          數(shù)據(jù)森麟公眾號的交流群已經(jīng)建立,許多小伙伴已經(jīng)加入其中,感謝大家的支持。大家可以在群里交流關(guān)于數(shù)據(jù)分析&數(shù)據(jù)挖掘的相關(guān)內(nèi)容,還沒有加入的小伙伴可以掃描下方管理員二維碼,進群前一定要關(guān)注公眾號奧,關(guān)注后讓管理員幫忙拉進群,期待大家的加入。


          管理員二維碼:



          猜你喜歡

          ?笑死人不償命的知乎沙雕問題排行榜

          ?用Python扒出B站那些“驚為天人”的阿婆主!

          ?全球股市跳水大戰(zhàn),誰最坑爹!

          ?上萬條數(shù)據(jù)撕開微博熱搜的真相!

          ?你相信逛B站也能學(xué)編程嗎?

          瀏覽 84
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  国产精品久久久免费 | 天天做天天爱 | 台湾成人久久综合网 | 狠操网| 操综合天天干 |