1、jieba库概述
jieba是优秀的中文分词第三方库
- 中文文本需要通过分词获得单个的词语
- jieba是优秀的中文分词第三方库,需要额外安装
- jieba库提供三种分词模式,最简单只需掌握一个函数
想要数据的可以留言。。
下面是爬取的数据,用云图展示的代码
import csv
import jieba
from pyecharts import WordCloud
nameva = {}
name =[] # name 代表热词 ,value对应的是数量
all_name = ''
value = []
#读取csv文件,将文件中的数据绘制出来
with open("衣服_data.csv",encoding='utf8') as f:
reader = csv.reader(f)
header = next(reader) #使读取CSV文件中不包含表头
for i in reader:
all_name += i[0]
all_list = jieba.lcut(all_name)
for j in all_list:
if j in name:
nameva[j]+=1
else:
name.append(j)
nameva[j]=1
for na in name:
va = nameva[na]
value.append(va)
wordcloud = WordCloud(width=1300, height=620)
wordcloud.add("", name, value, word_size_range=[20, 100])
wordcloud.show_config()
wordcloud.render()