大家应该都知道密室逃脱吧,最近有个综艺节目叫《大侦探》,是一个解密找线索类得综艺节目,那可谓是刻刻激动人心,非常的nice呀。借此,我爬取了《大侦探之蔷薇下得罪恶》这篇得90000条弹幕,来分析大家弹幕都说了啥!
芒果TV的的弹幕是动态加载的,所以它的表面网站并不能提取出来弹幕,我们可以右键网页检查源代码,
查看network中的XHR选项找到真实的url(https://bullet-ws.hitv.com/bullet/2022/04/22/154401/15873099/{i}.json)
,是json字典格式数据,从这里可以观察到网页变化(页码.json),因此我们可以直接利用json()函数进行提取数据。
而最大的页码是由视频的时常得来,《大侦探蔷薇下的罪恶》的时常为91.21分,向上取整92,最大页码为92页。具体爬取方法如下:
import requests
import pandas as pd
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.45 Safari/537.36"
}
df = pd.DataFrame()
for i in range(0, 92):
url = 'https://bullet-ws.hitv.com/bullet/2022/04/22/154401/15873099/{}.json'
respose = requests.get(url.format(i), headers=headers)
# json格式 直接用json提取数据
for j in respose.json()['data']['items']:
ids = j['ids'] # 用户id
content = j['content'] # 弹幕内容
time = j['time'] # 弹幕发生时间
text = pd.DataFrame({'ids': [ids], '弹幕': [content], '发生时间': [time]})
df = pd.concat([df, text])
df.to_csv('大侦探蔷薇下的罪恶弹幕_上.csv', encoding='utf-8-sig', index=False)
# 读取数据并处理
danmu1 = pd.read_csv('大侦探蔷薇下的罪恶弹幕_中.csv',encoding='utf-8-sig',sep=',')
danmu2 = pd.read_csv('大侦探蔷薇下的罪恶弹幕_下.csv',encoding='utf-8-sig',sep=',')
danmu3 = pd.read_csv('大侦探蔷薇下的罪恶弹幕_上.csv',encoding='utf-8-sig',sep=',')
danmu = pd.concat([danmu1,danmu2,danmu3],axis=0).reset_index().drop(['index','ids'],axis=1)
danmu
结果如下:
弹幕 发生时间
0 是不是通过自己自杀 来让其他人陪葬 0
1 甄是自杀的吧 邮件是鸥发的 让他们忏悔他们的堆+ 0
2 甄是自杀的吧 邮件是鸥发的 让他们忏悔他们的堆+ 0
3 爱了爱了 0
4 噗噗诶~柚子的维尼也叫噗噗 0
... ... ...
82650 白白去拍剧去了吗?没空来了? 5449000
82651 第一版《无罪说》yyds 5450565
82652 我的无罪说啊啊啊 5456990
82653 爱死明侦啦 5475235
82654 考研上岸呀 5480295
82655 rows × 2 columns
import jieba # 分词 库
from wordcloud import WordCloud # 词云图库
import collections # 对分词计数用
# 读取停用词数据 停用词从网上下载的百度停词库
stopwords = pd.read_csv('D:/搜狗高速下载/stopwords-master/baidu_stopwords.txt', encoding='utf8', names=['stopword'], index_col=False)
# 停用词转为列表
stop_list = stopwords['stopword'].tolist()
# 弹幕转为字符串
str1 = ''.join(danmu['弹幕'])
# 将弹幕分割成词
text = jieba.cut(str1)
result_list= []
for word in text: # 对每个分割后的词语进行遍历筛选:词长度>1 且不在停用词中
if word not in stop_list and len(word) > 1:
result_list.append(word)
result_list
# 分割后的词长这样:
['自杀',
'其他人',
'陪葬',
'甄是',
'自杀',
'邮件',
'忏悔',
'甄是',
'自杀',
# 筛选后统计
word_counts = collections.Counter(result_list)
# 获取前100最高频的词
word_counts_top100 = word_counts.most_common(100)
print(word_counts_top100)
# 最火的100个词语
[('哈哈哈', 6663), ('老师', 4373), ('真的', 3121), ('侦探', 2859), ('哈哈哈哈', 2821),
('一个', 2322), ('女人', 1831), ('这期', 1735), ('凶手', 1548), ('阿蒲', 1520),
('张若昀', 1456), ('感觉', 1429), ('女生', 1275), ('病娇', 1160), ('现实', 1115),
('恶人', 978), ('女性', 947), ('一期', 943), ('自杀', 913), ('人设', 898), ('全员', 877),
('保护', 759), ('妈宝', 740), ('理解', 740), ('妈妈', 738), ('喜欢', 717), ('角色', 694),
('故事', 688), ('雨衣', 665), ('啊啊啊', 621), ('好像', 614), ('可爱', 591), ('别人', 573),
('封神', 569), ('凤凰', 567), ('好人', 565), ('好帅', 561), ('有人', 560), ('仪式', 547),
('希望', 539), ('死者', 538), ('蔷薇', 533), ('上位', 528), ('世界', 505), ('朋友', 504),
('完美', 487), ('发现', 473), ('控制', 472), ('好看', 471), ('受害者', 458),
('救命', 435), ('肯定', 434), ('蒲鱼', 430), ('兔子', 429), ('变态', 426), ('剧本', 413),
('身份', 413), ('小蒲', 410), ('终于', 395), ('三个', 388), ('第一次', 385), ('伤害', 382),
('无辜', 378), ('女孩子', 378), ('剧情', 375), ('所有人', 375), ('浑浊', 375),
('呜呜', 362), ('打卡', 358), ('想到', 354), ('回来', 353), ('甄是', 352), ('两个', 348),
('同歌', 344), ('网络', 342), ('高能', 341), ('嫌疑人', 339), ('戚薇', 334),
('未知', 332), ('男性', 328), ('确实', 326), ('担心', 324), ('真人', 323), ('情商', 323),
('报仇', 318), ('吴昕', 317), ('好好看', 309), ('镜头', 308), ('一案', 304),
('可怕', 303), ('大案', 299), ('厉害', 296), ('时间', 294), ('这是', 294), ('事情', 289),
('合同', 289), ('雪花', 286), ('有没有', 285), ('人类', 285), ('弹幕', 283)]
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif'] =['Microsoft YaHei']
plt.rcParams['axes.unicode_minus'] = False
my_cloud = WordCloud(
background_color='black', # 设置背景颜色 默认是black
width=600, height=600,
max_words=200, # 词云显示的最大词语数量
font_path='simhei.ttf', # 设置字体 显示中文
max_font_size=99, # 设置字体最大值
min_font_size=16, # 设置子图最小值
random_state=50 # 设置随机生成状态,即多少种配色方案
).generate_from_frequencies(word_counts)
# 显示生成的词云图片
plt.figure(figsize=(20,6))
plt.imshow(my_cloud, interpolation='bilinear')
# 显示设置词云图中无坐标轴
plt.axis('off')
plt.show()
word_counts_top30 = word_counts.most_common(30)
df = pd.DataFrame(word_counts_top30,columns=['word','num'])
fig = plt.figure(figsize=(20,8))
ax = fig.add_subplot(111)
ax.spines['top'].set_visible(False)
ax.spines['right'].set_visible(False)
plt.bar(range(30),df['num'],color='blue')
plt.xticks(range(30),df['word'],rotation=60,size=15)
plt.title('出现次数最多的前30个词',size=15)
plt.savefig("出现次数最多的前30个词.jpg")
plt.show()