python 将爬取的淘宝数据,用云图展示(利用jieba分词库提取数据)

一、jieba库基本介绍

  1、jieba库概述 

         jieba是优秀的中文分词第三方库 

         - 中文文本需要通过分词获得单个的词语
         - jieba是优秀的中文分词第三方库,需要额外安装

         - jieba库提供三种分词模式,最简单只需掌握一个函数

 

想要数据的可以留言。。

 

下面是爬取的数据,用云图展示的代码

import csv

import jieba
from pyecharts import WordCloud

nameva = {}
name =[]      # name 代表热词 ,value对应的是数量
all_name = ''
value = []
#读取csv文件,将文件中的数据绘制出来
with open("衣服_data.csv",encoding='utf8') as f:
    reader = csv.reader(f)
    header = next(reader)   #使读取CSV文件中不包含表头

    for i in reader:
        all_name += i[0]

    all_list = jieba.lcut(all_name)
    for j in all_list:
        if j in name:
            nameva[j]+=1
        else:
            name.append(j)
            nameva[j]=1

    for na in name:
        va = nameva[na]
        value.append(va)



wordcloud = WordCloud(width=1300, height=620)
wordcloud.add("", name, value, word_size_range=[20, 100])
wordcloud.show_config()
wordcloud.render()

 

你可能感兴趣的:(数据可视化pyecharts,python)