利用 Python 自動抓取微博熱搜,并定時發(fā)送至郵箱
回復“書籍”即可獲贈Python從入門到進階共10本電子書
最近微博的瓜一個接一個,本文就將介紹如何用 Python 自動抓取微博熱搜,并定時發(fā)送到QQ郵箱。主要分為三部分:
爬取微博熱搜 整理數(shù)據(jù)與發(fā)送郵箱 定時執(zhí)行
一、抓取熱搜數(shù)據(jù)
進入微博熱搜榜https://s.weibo.com/top/summary后,整體頁面如下:
可以看到,我們需要的熱搜榜單信息在頁面的正中央(總共50條熱搜),這里我們需要爬取的信息有熱搜標題、話題搜索量、以及話題指數(shù)。按F12進入網(wǎng)頁源代碼頁面,點擊element內(nèi)容如下:
選中鼠標選項,點擊你要爬取的信息,就可以看到對應的html源碼。這里我們爬取的分為三個部分:標題、數(shù)量、指數(shù)、網(wǎng)址四個信息,而我們可以從網(wǎng)頁源代碼發(fā)現(xiàn)如下規(guī)律:
| 信息 | 源代碼規(guī)律 |
|---|---|
| 標題 | <a href="……" target="_blank">標題</a> |
| 數(shù)量 | <span>數(shù)量</span> |
| 指數(shù) | <td class="td-03">指數(shù)</td> |
| 指數(shù)1 | <i class="……">(.*?)</i> |
| 連接 | <a href="連接" target="_blank">標題</a> |
注意:這里之所以有指數(shù)和指數(shù)1源代碼是因為前者獲取到的數(shù)據(jù)是有雜音的,所以需要再次用到指數(shù)1獲得最終的信息。
之后我們運用requests包爬取網(wǎng)頁源代碼并通過re模塊對爬取內(nèi)容進行正則提取,因為每天僅執(zhí)行一次,也就不用考慮請求頭什么的,Python代碼如下:
import requests
import re
url = 'https://s.weibo.com/top/summary?cate=realtimehot' #微博網(wǎng)址
ret = requests.get(url)
test = ret.text
u_href = '<a href="(.*?)" target="_blank">.*?</a>'
u_title = '<a href=".*?" target="_blank">(.*?)</a>'
u_amount = '<span>(.*?)</span>'
u_category = '<td class="td-03">(.*?)</td>'
u_href = '<a href="(.*?)" target="_blank">.*?</a>'
title = re.findall(u_title,test)
amount = re.findall(u_amount,test)
category = re.findall(u_category,test)
href = re.findall(u_href,test)
二、數(shù)據(jù)清洗
上面獲取到的title、amount、category、href四個指標是未經(jīng)處理的話題、話題搜索量、話題指數(shù)、話題連接。接下來我們對其進行處理,先上代碼
import pandas as pd
title = title[:-2]
title = title[1:]
href = href[:-2]
href = href[1:]
for j in range(len(href)):
href[j] = 'https://s.weibo.com/' + href[j]
while '' in amount:
amount.remove('')
for i in range(len(category)):
if category[i] != '':
category[i] = re.findall('<i class=".*?">(.*?)</i>',category[i])[0]
if category[i] == '':
category[i] = '空'
category = category[1:]
while '薦' in category:
category.remove('薦')
df = pd.DataFrame()
df['關鍵詞'] = title
df['amount'] = amount
df['category'] = category
df['href'] = href
df = df.sort_values('amount')
df2 = df[df['category']=='爆']
df3 = df[df['category']=='沸']
df4 = df[df['category'] == '熱']
df5 = df[df['category'] == '新']
df6 = df[df['category'] == '空']
df = pd.concat([df2,df3,df4,df5,df6],ignore_index = True)
df.to_csv('微博熱搜.csv',encoding = 'gbk')#輸出為csv文本格式
下面對title進行處理,第一節(jié)爬取到的title是這樣的,
總共只有50條熱搜,怎么多出來3條?可以看到最后的兩條是不需要的,所以用列表提取的方法提取前50行。還有一個元素多出來?就是我們的第一個元素,即是title[0],title[0]是沒有序號與熱搜搜索量的,如圖:
“天問一號成功著陸”這一話題有指數(shù)無搜索量,是屬于缺失數(shù)據(jù),這里我們刪除它,同樣用到列表提取元素方法。
對href連接的處理與title的處理相同。
接著對搜索量做處理,采用了刪除空格的語句。原因是熱搜榜中會出現(xiàn)推薦的話題,而推薦的話題是沒有搜索量的,故我們刪除它。
最后輪到指數(shù)處理,先看未處理前的指數(shù),
上面顯而易見我們要提取的指數(shù)信息就在每個元素里面,同樣利用re模塊正則提取,提取出來后做三件事:
去除第一個元素(原因已在title處理上講解) 空字符串部分以中文空子代替 去除推薦的話題
上面三步的代碼已附上。代碼里最后的步驟就是運用pandas模塊對數(shù)據(jù)進行整理得到美觀的數(shù)據(jù)框形式。效果如下:
三、發(fā)郵箱與設置定時
用Python可以模擬許多大廠的郵箱發(fā)送,本文選擇常用的騰訊QQ郵箱。在此之前需要做一個準備(獲取SMTP授權碼):
登錄QQ郵箱并單擊設置按鈕,然后進入賬戶這個頁面
進入之后向下拖動來到POP3/IMAP/SMTP/Exchange/CardDAV/CalDAV服務這欄,這里單擊POP3/SMTP服務右側的開啟,單擊后會有一個驗證密保的過程,按照提示即可。最終會彈出一個框,里面包含SMTP授權碼,這里可以找個地方記錄起來,Python代碼就可以用到。
先上發(fā)送QQ郵箱的代碼模板:
import smtplib
from email.mime.text import MIMEText
from email.mime.multipart import MIMEMultipart
number = '你的QQ郵箱號碼'
smtp = '郵箱對應的STMP授權碼'
to = '需要發(fā)送到的QQ郵箱號碼' # 可以是非QQ的郵箱
mer = MIMEMultipart()
# 設置郵件正文內(nèi)容
head = '''
<p>微博熱搜榜信息</p>
<p>最熱門詞條為</p>
<p><a href="{}">{}</a></p>
<p>排名前五的熱搜</p>
<p><a href="{}">{}</a></p>
<p><a href="{}">{}</a></p>
<p><a href="{}">{}</a></p>
<p><a href="{}">{}</a></p>
<p><a href="{}">{}</a></p>
'''.format(df.iloc[0,:]['href'],df.iloc[0,:]['關鍵詞'],
df.iloc[1,:]['href'],df.iloc[1,:]['關鍵詞'],
df.iloc[2,:]['href'],df.iloc[2,:]['關鍵詞'],
df.iloc[3,:]['href'],df.iloc[3,:]['關鍵詞'],
df.iloc[4,:]['href'],df.iloc[4,:]['關鍵詞'],
df.iloc[5,:]['href'],df.iloc[5,:]['關鍵詞'])
mer.attach(MIMEText(head, 'html', 'utf-8'))
fujian = MIMEText(open('微博熱搜.csv', 'rb').read(), 'base64', 'utf-8')
fujian["Content-Type"] = 'application/octet-stream' #附件內(nèi)容
fujian.add_header('Content-Disposition', 'file', filename=('utf-8', '', '微博熱搜.csv'))
mer.attach(fujian)
mer['Subject'] = '每日微博熱搜榜單' #郵件主題
mer['From'] = number #發(fā)送人
mer['To'] = to #接收人
# 5.發(fā)送郵件
s = smtplib.SMTP_SSL('smtp.qq.com', 465)
s.login(number, smtp)
s.send_message(mer) # 發(fā)送郵件
s.quit()
print('成功發(fā)送')
代碼框架基本如此,你需要更改的地方有如下,其余的內(nèi)容可以不改:
郵件主題 發(fā)送人 接收人 SMTP授權碼 附件內(nèi)容
運行成功后,輸出框會有“成功發(fā)送”打印,如果你的微信綁定了你的發(fā)送QQ郵箱,那么你就可以點擊其中的附件,也就是csv文件。
按照我們設置的格式,把最熱門的詞條和排名前五的詞條放入head正文內(nèi)容中,效果如下:
(這里存在延時,所以熱搜榜和上面不一)
最后就是設置定時執(zhí)行這個代碼也即是發(fā)送微博熱搜榜信息,利用Schedule庫可以實現(xiàn)。
schedule模塊設置定時的模板只需改2個地方,一個是schedule.every().day.at("18:00").do(email)中的時間,一個是def函數(shù)里面運行的內(nèi)容。While True的作用就是讓程序不停止。
我們定每晚6點進行自動發(fā)送,代碼如下:
import schedule
import time
def email():
number = '你的QQ郵箱號碼'
smtp = '郵箱對應的STMP授權碼'
to = '需要發(fā)送到的QQ郵箱號碼' # 可以是非QQ的郵箱
mer = MIMEMultipart()
# 設置郵件正文內(nèi)容
head = '''
<p>微博熱搜榜信息</p>
<p>最熱門詞條為</p>
<p><a href="{}">{}</a></p>
<p>排名前五的熱搜</p>
<p><a href="{}">{}</a></p>
<p><a href="{}">{}</a></p>
<p><a href="{}">{}</a></p>
<p><a href="{}">{}</a></p>
<p><a href="{}">{}</a></p>
'''.format(df.iloc[0,:]['href'],df.iloc[0,:]['關鍵詞'],
df.iloc[1,:]['href'],df.iloc[1,:]['關鍵詞'],
df.iloc[2,:]['href'],df.iloc[2,:]['關鍵詞'],
df.iloc[3,:]['href'],df.iloc[3,:]['關鍵詞'],
df.iloc[4,:]['href'],df.iloc[4,:]['關鍵詞'],
df.iloc[5,:]['href'],df.iloc[5,:]['關鍵詞'])
mer.attach(MIMEText(head, 'html', 'utf-8'))
fujian = MIMEText(open('微博熱搜.csv', 'rb').read(), 'base64', 'utf-8')
fujian["Content-Type"] = 'application/octet-stream' #附件內(nèi)容
fujian.add_header('Content-Disposition', 'file', filename=('utf-8', '', '微博熱搜.csv'))
mer.attach(fujian)
mer['Subject'] = '每日微博熱搜榜單' #郵件主題
mer['From'] = number #發(fā)送人
mer['To'] = to #接收人
# 5.發(fā)送郵件
s = smtplib.SMTP_SSL('smtp.qq.com', 465)
s.login(number, smtp)
s.send_message(mer) # 發(fā)送郵件
s.quit()
print('成功發(fā)送')
schedule.every().day.at("18:00").do(email)
while True:
schedule.run_pending()
time.sleep(5)
這樣,我們就完成了利用 Python 自動爬取微博熱搜,并在每天指定時間自動發(fā)送整理后的結果至郵箱。當然你也可以自已更改邏輯,例如 當出現(xiàn)指定關鍵詞、指定tag時發(fā)送郵箱,感興趣的讀者可以來一波三連~
------------------- End -------------------
往期精彩文章推薦:

歡迎大家點贊,留言,轉發(fā),轉載,感謝大家的相伴與支持
想加入Python學習群請在后臺回復【入群】
萬水千山總是情,點個【在看】行不行
/今日留言主題/
隨便說一兩句吧~~
