1. 程式人生 > 程式設計 >Python爬蟲爬取Bilibili彈幕過程解析

Python爬蟲爬取Bilibili彈幕過程解析

先來思考一個問題,B站一個視訊的彈幕最多會有多少?

比較多的會有2000條吧,這麼多資料,B站肯定是不會直接把彈幕和這個視訊綁在一起的。

也就是說,有一個視訊地址為https://www.bilibili.com/video/av67946325,你如果直接去requests.get這個地址,裡面是不會有彈幕的,回想第一篇說到的攜程非同步載入資料的方式,B站的彈幕也一定是先載入當前視訊的介面,然後再非同步填充彈幕的。

接下來我們就可以開啟火狐瀏覽器(平常可以火狐谷歌控制檯都使用,因為谷歌裡面因為外掛被攔截下來的包在火狐可以抓到,同理谷歌也是)的控制檯來觀察網路請求了。

經過仔細排查之後,我找到了一個請求xml的,它後面跟了一個oid,檢視它的響應內容之後可以發現它就是彈幕檔案。

它的響應時間98毫秒,遠超其它幾個響應,所以說如果把彈幕直接放在視訊頁面,使用者體驗一定會很差。

找到彈幕了,爬取它很容易,但是我們想要是爬取固定av號視訊的彈幕,而不是說隨意去找一個oid來爬取彈幕,這樣我們都不知道爬下來的彈幕是哪個視訊的。

接下來我們就可以複製oid的117784982值,去視訊頁面搜尋看看了,通過視訊來獲得它的oid再來爬xml彈幕就很方便了。

這次用了谷歌瀏覽器,在裡面通過搜尋oid果然搜尋到相關的資料了。

其中cid是彈幕對應的id,aid對應視訊av號。

先把這個頁面爬取下來。

# encoding: utf-8

import requests

headers = {
  'User-Agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML,like Gecko) Chrome/69.0.3497.100 Safari/537.36','Accept': 'text/html','Cookie': "_uuid=1DBA4F96-2E63-8488-DC25-B8623EFF40E773841infoc; buvid3=FE0D3174-E871-4A3E-877C-A4ED86E20523155831infoc; LIVE_BUVID=AUTO8515670521735348; sid=l765gx48; DedeUserID=33717177; DedeUserID__ckMd5=be4de02fd64f0e56; SESSDATA=cf65a5e0%2C1569644183%2Cc4de7381; bili_jct=1e8cdbb5755b4ecd0346761a121650f5; CURRENT_FNVAL=16; stardustvideo=1; rpdid=|(umY))|ukl~0J'ulY~uJm)kJ; UM_distinctid=16ce0e51cf0abc-02da63c2df0b4b-5373e62-1fa400-16ce0e51cf18d8; stardustpgcv=0606; im_notify_type_33717177=0; finger=b3372c5f; CURRENT_QUALITY=112; bp_t_offset_33717177=300203628285382610"

}
resp = requests.get('https://www.bilibili.com/video/av67946325',headers=headers)
print(resp.text)

拿到了內容我們就要從中解析彈幕id了,對於這種規則紊亂的網頁,我們就不能用上一篇中Bs4解析了,而是使用正則表示式。

正則表示式最簡單的使用方式其實就是直接match。

re.search(匹配規則,文字).group()

觀察這裡的內容,我們大致的匹配規則就有了。

cid={目標}&aid=av號

117784982就是我們的目標。

av_id = '67946325'
resp = requests.get('https://www.bilibili.com/video/av'+av_id,headers=headers)
match_rule = r'cid=(.*?)&aid'
oid = re.search(match_rule,resp.text).group().replace('cid=','').replace('&aid','')
print('oid='+oid)

先根據av號拿到視訊頁面,然後解析視訊頁面拿到oid,最後用oid去請求xml彈幕檔案。

xml_url = 'https://api.bilibili.com/x/v1/dm/list.so?oid='+oid
resp = requests.get(xml_url,headers=headers)
print(resp)

這樣我們就完成B站彈幕爬蟲了。

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支援我們。