本文将详细阐述如何使用Python爬取微博评论。
一、准备工作
在爬取微博评论之前,需要先获取一个微博开发者账号,并且成功接入微博开放平台。
接下来,需要使用Python的requests和beautifulsoup模块,分别用于发送http请求和解析html文档。
import requests
from bs4 import BeautifulSoup
def get_html(url):
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
response = requests.get(url, headers=headers)
if response.status_code == 200:
response.encoding = 'utf-8'
html = response.text
return html
else:
return None
二、获取微博评论
在获取微博评论之前,需要先获取微博的mid和oid参数。
mid是微博的id号,可以在微博网页的url中找到,如”https://weibo.com/1234567890/ABCDEFGHI?type=comment”,其中1234567890就是mid。
oid一般会在html文档中的javascript代码中找到。具体方法是,使用beautifulsoup解析html文档后,查找class为”WB_feed_detail”的div标签,然后在其中查找script标签,找到以”oid”开头的字符串即可。代码如下:
def get_mid_and_oid(url):
html = get_html(url)
soup = BeautifulSoup(html, 'html.parser')
mid = soup.find(attrs={"name": "mid"})["content"]
oid = None
scripts = soup.find_all('script')
for script in scripts:
text = script.string
if text:
index = text.find('oid')
if index != -1:
oid = text[index+5:index+15]
return mid, oid
获取mid和oid之后,可以通过组合url来获取评论。由于微博的评论需要进行分页,因此需要使用另一个参数page进行控制。
def get_comment(url, page):
mid, oid = get_mid_and_oid(url)
if not oid:
return None
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
params = {
'ajwvr': 6,
'mid': mid,
'id': oid,
'page': page,
'filter': 'all',
'filter_tips': '1'}
url = 'https://weibo.com/aj/v6/comment/big?ajwvr=6&id={}&page={}&filter=all∑_comment_number=9223372036854775807&filter_tips_before={}&from=singleWeiBo'.format(
oid, page, page-1)
response = requests.get(url, headers=headers, cookies={})
if response.status_code == 200:
result = response.json()
return result['data']['html']
else:
return None
三、保存微博评论
获取到微博评论后,可以将其保存到文件或数据库中。以下代码示例将评论保存到txt文件中:
def save_comment(url, filename):
with open(filename, 'w', encoding='utf-8') as f:
page = 1
while True:
html = get_comment(url, page)
if html:
soup = BeautifulSoup(html, 'html.parser')
comments = soup.find_all(attrs={"node-type": "replywrap"})
if not comments:
break
for comment in comments:
f.write(comment.get_text().replace('\n', '').strip())
f.write('\n')
page += 1
else:
break
在调用save_comment函数时,需要传入微博页面的url和保存的文件名。
四、反爬机制
由于微博有反爬机制,当访问频率过高时,会自动封禁ip。因此在爬取微博评论时,需要对访问频率进行控制。
以下代码展示了如何进行访问控制:
import time
def sleep(seconds):
print('Sleeping for {} seconds...'.format(seconds))
time.sleep(seconds)
def get_comment(url, page):
# ...
sleep(5) # 控制访问频率,每次爬取间隔5秒
在get_comment函数中加入sleep函数,控制每次爬取间隔5秒。这样可以有效降低访问频率,避免被封禁。
原创文章,作者:EWZLX,如若转载,请注明出处:https://www.506064.com/n/373514.html
微信扫一扫
支付宝扫一扫