python爬取b站弹幕分析_【爬虫】简单爬取b站的弹幕列表

最近有朋友在群上面说做个b站某视频的弹幕统计列表,筛选出弹幕最多的那条!那么如何解决这个问题呢?首先肯定是要获取弹幕的列表吧,然后再进行分析吧。筛选出弹幕最多的那条,这个好办用collections可以解决,那么关键的问题应该就在怎么获取b站的弹幕列表了吧。

开发环境:

window7+chrome

idea+python插件

requests+json+beautifulsoup+collections

那解决步骤如下:

解析视频播放页面链接

查找弹幕资源所在地

数据分析 (collections.Counter)

数据存储(file)

导出exe

解析视频播放页资源,查找弹幕资源所在

查看下html网页源文件是否包含着弹幕的资源快捷键ctrl+u,选择其中的弹幕内容,发现不存在

按f12+选择network这个tab查看页面加载的时候的js链接处理

我们发现弹幕的内容包括在一个xml文件里面,对,而且还没有分页的处理

那么下一步就是找到这个数字所对应的链接了

https://api.bilibili.com/x/player/pagelist?aid={}&jsonp=jsonp.format("av号")

定代码架构:

def get_movie_url(av):pass #获取cid

def get_barrage_list(url):pass #获取列表

def get_barrage_count(list):pass #获取筛选数值

def write_text(content):pass #写进文本

写py代码

l_list = []

def get_movie_url(av):

response = requests.get(url_get_comment_cid.format(str(av)))

content = response.content.decode(response.encoding)

content = json.loads(content)

for d in content.get('data'):

cid = d.get('cid')

get_content(cid)

print("共有{}条弹幕".format(len(l_list)))

count = collections.Counter(l_list).most_common()

writetest(av, l_list)

writetest(str(av) + "count", count)

def get_barrage_list(cid):

response = requests.get(url_get_comment.format(str(cid)))

content = response.content.decode(response.encoding)

b = bs(content, 'xml')

for i in b.findChildren('d'):

l_list.append(i.text)

def write_text(av, l):

with open(str(av) + '.txt', 'w+', encoding='utf-8') as f:

for i in l:

f.write(str(i)+"\n")

使用pyInstanller导出exe

安装pyInstaller ,pip install pyinstaller 最新版本是3.3.1

pyinstaller -F py文件路径

生成exe文件,打开运行,至于下一步想导入excel

好的,就这样写完了。。。

你可能感兴趣的:(python爬取b站弹幕分析)