Python爬取筆趣閣小說,有趣又實(shí)用
點(diǎn)擊上方Python知識圈,設(shè)為星標(biāo)
回復(fù)100獲取100題PDF
閱讀文本大概需要 5 分鐘
1. 首先導(dǎo)入相關(guān)的模塊
import osimport requestsfrom bs4 import BeautifulSoup
2. 向網(wǎng)站發(fā)送請求并獲取網(wǎng)站數(shù)據(jù)
# 聲明請求頭headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.182 Safari/537.36'}# 創(chuàng)建保存小說文本的文件夾if not os.path.exists('./小說'):os.mkdir('./小說/')# 訪問網(wǎng)站并獲取頁面數(shù)據(jù)response = requests.get('http://www.biquw.com/book/1/').textprint(response)
這是因?yàn)轫撁鎕tml的編碼格式與我們python訪問并拿到數(shù)據(jù)的解碼格式不一致導(dǎo)致的,python默認(rèn)的解碼方式為utf-8,但是頁面編碼可能是GBK或者是GB2312等,所以我們需要讓python代碼很具頁面的解碼方式自動變化
#### 重新編寫訪問代碼```pythonresponse = requests.get('http://www.biquw.com/book/1/')response.encoding = response.apparent_encodingprint(response.text)'''這種方式返回的中文數(shù)據(jù)才是正確的'''
3. 拿到頁面數(shù)據(jù)之后對數(shù)據(jù)進(jìn)行提取

'''根據(jù)上圖所示,數(shù)據(jù)是保存在a標(biāo)簽當(dāng)中的。a的父標(biāo)簽為li,li的父標(biāo)簽為ul標(biāo)簽,ul標(biāo)簽之上為div標(biāo)簽。所以如果想要獲取整個(gè)頁面的小說章節(jié)數(shù)據(jù),那么需要先獲取div標(biāo)簽。并且div標(biāo)簽中包含了class屬性,我們可以通過class屬性獲取指定的div標(biāo)簽,詳情看代碼~'''# lxml: html解析庫 將html代碼轉(zhuǎn)成python對象,python可以對html代碼進(jìn)行控制soup = BeautifulSoup(response.text, 'lxml')book_list = soup.find('div', class_='book_list').find_all('a')# soup對象獲取批量數(shù)據(jù)后返回的是一個(gè)列表,我們可以對列表進(jìn)行迭代提取for book in book_list:book_name = book.text# 獲取到列表數(shù)據(jù)之后,需要獲取文章詳情頁的鏈接,鏈接在a標(biāo)簽的href屬性中book_url = book['href']
4. 獲取到小說詳情頁鏈接之后進(jìn)行詳情頁二次訪問并獲取文章數(shù)據(jù)
book_info_html = requests.get('http://www.biquw.com/book/1/' + book_url, headers=headers)book_info_html.encoding = book_info_html.apparent_encodingsoup = BeautifulSoup(book_info_html.text, 'lxml')
5. 對小說詳情頁進(jìn)行靜態(tài)頁面分析
info = soup.find('div', id='htmlContent')print(info.text)
6. 數(shù)據(jù)下載
with open('./小說/' + book_name + '.txt', 'a', encoding='utf-8') as f:f.write(info.text)
最后讓我們看一下代碼效果吧~
抓取的數(shù)據(jù)
往期推薦 01 02 03
↓點(diǎn)擊閱讀原文查看pk哥原創(chuàng)視頻
我就知道你“在看”
評論
圖片
表情





