<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          Python 爬蟲批量爬取網(wǎng)頁圖片保存到本地的實現(xiàn)代碼

          共 2639字,需瀏覽 6分鐘

           ·

          2020-12-29 12:42

          這篇文章主要介紹了Python 爬蟲批量爬取網(wǎng)頁圖片保存到本地,本文通過實例代碼給大家介紹的非常詳細,對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下

          其實和爬取普通數(shù)據(jù)本質(zhì)一樣,不過我們直接爬取數(shù)據(jù)會直接返回,爬取圖片需要處理成二進制數(shù)據(jù)保存成圖片格式(.jpg,.png等)的數(shù)據(jù)文本。

          現(xiàn)在貼一個url=https://img.ivsky.com/img/tupian/t/201008/05/bianxingjingang-001.jpg
          請復(fù)制上面的url直接在某個瀏覽器打開,你會看到如下內(nèi)容:

          這就是通過網(wǎng)頁訪問到的該網(wǎng)站的該圖片,于是我們可以直接利用requests模塊,進行這個圖片的請求,于是這個網(wǎng)站便會返回給我們該圖片的數(shù)據(jù),我們再把數(shù)據(jù)寫入本地文件就行,比較簡單。

          1. import?requests

          2. headers={

          3. 'user-agent':?'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3861.400 QQBrowser/10.7.4313.400'}

          4. url='https://img.ivsky.com/img/tupian/t/201008/05/bianxingjingang-001.jpg'

          5. re=requests.get(url,headers=headers)

          6. print(re.status_code)#查看請求狀態(tài),返回200說明正常

          7. path='test.jpg'#文件儲存地址

          8. with?open(path,?'wb')?as?f:#把圖片數(shù)據(jù)寫入本地,wb表示二進制儲存

          9. for?chunk?in?re.iter_content(chunk_size=128):

          10. f.write(chunk)

          然后得到test.jpg圖片,如下

          點擊打開查看如下:

          便是下載成功辣,很簡單吧。

          現(xiàn)在分析下批量下載,我們將上面的代碼打包成一個函數(shù),于是針對每張圖片,單獨一個名字,單獨一個圖片文件請求,于是有如下代碼:

          1. import?requests

          2. def?get_pictures(url,path):

          3. headers={

          4. 'user-agent':?'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3861.400 QQBrowser/10.7.4313.400'}

          5. re=requests.get(url,headers=headers)

          6. print(re.status_code)#查看請求狀態(tài),返回200說明正常

          7. with?open(path,?'wb')?as?f:#把圖片數(shù)據(jù)寫入本地,wb表示二進制儲存

          8. for?chunk?in?re.iter_content(chunk_size=128):

          9. f.write(chunk)

          10. url='https://img.ivsky.com/img/tupian/t/201008/05/bianxingjingang-001.jpg'

          11. path='test.jpg'#文件儲存地址

          12. get_pictures(url,path)

          現(xiàn)在要實現(xiàn)批量下載圖片,也就是批量獲得圖片的url,那么我們就得分析網(wǎng)頁的代碼結(jié)構(gòu),打開原始網(wǎng)站https://www.ivsky.com/tupian/bianxingjingang_v622/,會看到如下的圖片:

          于是我們需要分別得到該頁面中顯示的所有圖片的url,于是我們再次用requests模塊返回當前該頁面的內(nèi)容,如下:

          1. import?requests

          2. headers={

          3. 'user-agent':?'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3861.400 QQBrowser/10.7.4313.400'}

          4. url='https://www.ivsky.com/tupian/bianxingjingang_v622/'

          5. re=requests.get(url,headers=headers)

          6. print(re.text)

          運行會返回當前該頁面的網(wǎng)頁結(jié)構(gòu)內(nèi)容,于是我們找到和圖片相關(guān)的也就是.jpg或者.png等圖片格式的字條,如下:

          上面圈出來的**//img.ivsky.com/img/tupian/t/201008/05/bianxingjingang-017.jpg**便是我們的圖片url,不過還需要前面加上https:,于是完成的url就是https://img.ivsky.com/img/tupian/t/201008/05/bianxingjingang-017.jpg。

          我們知道了這個結(jié)構(gòu),現(xiàn)在就是把這個提取出來,寫個簡單的解析式:

          1. import?requests

          2. headers={

          3. 'user-agent':?'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3861.400 QQBrowser/10.7.4313.400'}

          4. url='https://www.ivsky.com/tupian/bianxingjingang_v622/'

          5. re=requests.get(url,headers=headers)

          6. def?get_pictures_urls(text):

          7. st='img src="'

          8. m=len(st)

          9. i=0

          10. n=len(text)

          11. urls=[]#儲存url

          12. while?i<n:

          13. if?text[i:i+m]==st:

          14. url=''

          15. for?j?in?range(i+m,n):

          16. if?text[j]=='"':

          17. i=j

          18. urls.append(url)

          19. break

          20. url+=text[j]

          21. i+=1

          22. return?urls

          23. urls=get_pictures_urls(re.text)

          24. for?url?in?urls:

          25. print(url)

          打印結(jié)果如下:

          得到了url,現(xiàn)在就直接放入一開始的get_pictures函數(shù)中,爬取圖片辣。

          1. import?requests

          2. def?get_pictures(url,path):

          3. headers={

          4. 'user-agent':?'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3861.400 QQBrowser/10.7.4313.400'}

          5. re=requests.get(url,headers=headers)

          6. print(re.status_code)#查看請求狀態(tài),返回200說明正常

          7. with?open(path,?'wb')?as?f:#把圖片數(shù)據(jù)寫入本地,wb表示二進制儲存

          8. for?chunk?in?re.iter_content(chunk_size=128):

          9. f.write(chunk)

          10. def?get_pictures_urls(text):

          11. st='img src="'

          12. m=len(st)

          13. i=0

          14. n=len(text)

          15. urls=[]#儲存url

          16. while?i<n:

          17. if?text[i:i+m]==st:

          18. url=''

          19. for?j?in?range(i+m,n):

          20. if?text[j]=='"':

          21. i=j

          22. urls.append(url)

          23. break

          24. url+=text[j]

          25. i+=1

          26. return?urls

          27. ?

          28. headers={

          29. 'user-agent':?'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3861.400 QQBrowser/10.7.4313.400'}

          30. url='https://www.ivsky.com/tupian/bianxingjingang_v622/'

          31. re=requests.get(url,headers=headers)

          32. urls=get_pictures_urls(re.text)#獲取當前頁面所有圖片的url

          33. for?i?in?range(len(urls)):#批量爬取圖片

          34. url='https:'+urls[i]

          35. path='變形金剛'+str(i)+'.jpg'

          36. get_pictures(url,path)

          結(jié)果如下:

          然后就完成辣,這里只是簡單介紹下批量爬取圖片的過程,具體的網(wǎng)站需要具體分析,所以本文盡可能詳細的展示了批量爬取圖片的過程分析,希望對你的學(xué)習(xí)有所幫助,如有問題請及時指出,謝謝~

          到此這篇關(guān)于Python 爬蟲批量爬取網(wǎng)頁圖片保存到本地的文章就介紹到這了

          歡迎大家點贊,留言,轉(zhuǎn)發(fā),轉(zhuǎn)載,感謝大家的相伴與支持

          萬水千山總是情,點個【在看】行不行

          *聲明:本文于網(wǎng)絡(luò)整理,版權(quán)歸原作者所有,如來源信息有誤或侵犯權(quán)益,請聯(lián)系我們刪除或授權(quán)事宜

          瀏覽 60
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  91偷拍与自偷拍精品无码 | 无毛无码| 国产内射免费在线观看 | 国产亲妺妺乱A片、 | 9r6视频在线观看 |