安装:
pip install wordcloud(有时会有VC++ 14缺失的问题)
解决方案:
在github下载wordcloud的包(https://github.com/amueller/word_cloud/), 解压缩后,在对应目录下用python setup.py install安装。
使用:
import pandas as pd
import jieba
from langconv import * #汉字繁简体转换,需下载langconv.py和zh_wiki.py文件,并将其放在与代码同一目录下
from tongyici import * #引用自定义同义词字典,tongyici.py需与代码在同一目录下
import re
from collections import Counter #collections模块提供了一些有用的集合类,Counter是一个简单的计数器
#以上用于分词、以下用于词云可视化
import matplotlib.pyplot as plt
from wordcloud import WordCloud
import imageio
#分词
# 转换繁体到简体
def fan_to_jian(line):
line = Converter('zh-hans').convert(line)
line.encode('utf-8')
return line
# 添加自定义分词
def add_word(list):
for i in list:
jieba.add_word(i)
# 删除自定义分词
def del_word(list):
for i in list:
jieba.del_word(i)
# 用jieba对商品名称进行文本分析
add_ci = ['3d max', 'altium designer', 'mac os', 'spring boot', 'android studio', 'deep learning ai', 'machine learning', 'visual c++', 'visual studio', 'cloud docker', 'atey ghalian', 'john park']
del_ci = ['视频教程', '自学教材']
add_word(add_ci)
del_word(del_ci) #或jieba.add_word('视频教程', 0)动态修改词典,使之分成视频和教程2个词
jieba.re_han_default = re.compile('(.+)', re.U) #用于解决中间带空格或其他特殊符号的单词分成多个词的问题
jieba.load_userdict('c:/ProgramData/Anaconda3/Lib/site-packages/jieba/mydict.txt') #导入自定义字典
file = pd.read_excel(r'c:\users\administrator\desktop\商品信息v2.0版.xlsx') #读取本地文件
title = list(file['商品名称']) #商品名称转化成list
title_s = [] #商品名称分词list
for line in title:
text = fan_to_jian(line).lower()#将繁体字转换成简体字并将大写字母转换成小写
title_cut = jieba.lcut(text) #分词成list,lcut()函数返回list
#替换同义词
new_cut = [] #替换同义词后的新数据
for fenci in title_cut: #替换同义词
if fenci in dian: #判断是否在字典中
val = dian[fenci] #获取同义词的统一词
new_cut.append(val)
else:
new_cut.append(fenci)
title_s.append(new_cut)
# print(title_s)
#导入停用词
stopwords = ['教程'] #停用词list,可将停用词表中没有的先加入进去
for line in open(r'e:/Python/mypy/stopwords/中英文.txt', 'r+', encoding='utf-8'):
stopwords.append(line.strip())#将停用词字典内容写入停用词list中备用
#剔除商品名称分词中的停用词
title_clear = [] #剔除停用词后的商品名称分词
for line in title_s:
line_clear = [] #每个商品剔除停用词后的商品名称分词
for word in line:
if word not in stopwords and word.strip(): #判断分词不在停用词字典中,并且不为空
line_clear.append(word.strip()) #去除词两侧的空格
title_clear.append(line_clear)
# print(title_clear)
#去除每个商品名称中的重复分词,提高准确率
title_clear2 = []
for line in title_clear:
line_clear2 = []
for word in line:
if word not in line_clear2:
line_clear2.append(word.strip())
title_clear2.append(line_clear2)
# print(title_clear2)
# 去除标点符号后将所有商品名称分词放入同一个list中
allwords = []
r = "[^0-9A-Za-z\u4e00-\u9fa5]" #非数字、字母和汉字
for line in title_clear2:
for word in line:
ci = re.sub(r, '', word).strip() #去除标点符号
if ci: #ci若为空则原word为标点符号,如果ci不为空,则进行下步
allwords.append(ci)
# print(allwords)
#把allwords列表转为DataFrame数据,类似表格
df_allwords = pd.DataFrame({'allwords':allwords}) #前面一个allwords为columns列的名称
# print(df_allwords)
#对过滤去重的词汇进行分类汇总
#value_counts()的作用是统计表格某列有多少不同值,并计算每个不同值在该列中有多少重复值,需要指定对哪一列或行使用。
#reset_index()的作用是重新设置DataFrame的连续行索引index。
word_count = df_allwords.allwords.value_counts().reset_index()
# print(word_count)
word_count.columns = ['word', 'count'] #重命名列的名称
print(word_count)
# 获取所有分词及出现次数(按出现次数降序排列),需引用from collections import Counter
c = Counter(allwords).most_common() #most_common(200)获取出现频率前200的分词及出现次数
# print(c)
#词云可视化
pic = imageio.imread('white.bmp') #读取图片,作为词云形状,white.bmp透明背景图
stopwords = set('') #设置停用词,适用于停用词较少时
stopwords.update(['教程']) #添加新停用词
wc = WordCloud(font_path='ygyxsziti2.0.ttf', max_words=2000, stopwords='教程', background_color='black', mask=pic, max_font_size=60) #WordCloud()用于生成和绘制词云对象,background_color默认为黑色,此处设置为白色,stopwords使用jieba分词器时此处似乎无效,原因应该是下面的word_count中没有去除上面添加的停用词。
wc2 = wc.fit_words({x[0]:x[1] for x in word_count.head(200).values}) #fit_words()根据分词和词频创建一个词云,head(100)取前100个词进行可视化
plt.imshow(wc2, interpolation='bilinear')#imshow()在轴上显示图像,interpolation='bilinear'图优化,bilinear双线性
plt.axis('off') #axis()获取或设置轴属性,off为关闭轴线及标签(去边框)
# plt.savefig('e:/Python/mypy/数据分析/词云.jpg', dpi=200) #savefig()保存
wc2.to_file('e:/Python/mypy/数据分析/词云.jpg') #to_file()保存
plt.show() #显示图像
参数说明:
font_path : string #字体路径,如:font_path = '黑体.ttf',不指定字体中文会乱码,繁体字需使用对应字体(下载:正体(繁)中文点阵字Zfull-BIG5.ttf,使用时文件名必须去掉中文部分,且会将简体字也转化成繁体字输出)
width : int (default=400) #输出的画布宽度,默认为400像素
height : int (default=200) #输出的画布高度,默认为200像素
prefer_horizontal : float (default=0.90) #词语水平方向排版出现的频率,默认 0.9 (所以词语垂直方向排版出现频率为 0.1 )
mask : nd-array or None (default=None) #如果参数为空,则使用二维遮罩绘制词云。如果 mask 非空,设置的宽高值将被忽略,遮罩形状被 mask 取代。
除全白(#FFFFFF)的部分将不会绘制,其余部分会用于绘制词云。如:bg_pic = imageio.imread('读取一张图片.png'),背景图片的画布一定要设置为白色(#FFFFFF),然后显示的形状为不是白色的其他颜色。可以用ps工具将自己要显示的形状复制到一个纯白色的画布上再保存。
scale : float (default=1) #按照比例进行放大画布,如设置为1.5,则长和宽都是原来画布的1.5倍。
min_font_size : int (default=4) #显示的最小的字体大小
font_step : int (default=1) #字体步长,如果步长大于1,会加快运算但是可能导致结果出现较大的误差。
max_words : number (default=200) #要显示的词的最大个数
stopwords : set of strings or None #设置需要屏蔽的词,如果为空,则使用内置的STOPWORDS
background_color : color value (default=”black”) #背景颜色,如background_color='white',背景颜色为白色。
max_font_size : int or None (default=None) #显示的最大的字体大小
mode : string (default=”RGB”) #当参数为“RGBA”并且background_color不为空时,背景为透明。
relative_scaling : float (default=.5) #词频和字体大小的关联性
color_func : callable, default=None #生成新颜色的函数,如果为空,则使用 self.color_func
regexp : string or None (optional) #使用正则表达式分隔输入的文本
collocations : bool, default=True #是否包括两个词的搭配
colormap : string or matplotlib colormap, default=”viridis” #给每个单词随机分配颜色,若指定color_func,则忽略该方法。
random_state : int or None #为每个词返回一个PIL颜色,设置有多少种随机生成状态,即有多少种配色方案
margin:int (default=2) #设置页面边距
ranks_only:default=None #是否只用词频排序而不是实际词频统计值(不确定是否是此作用)
normalize_plurals:bool, default=True #移除单词末尾的's'
contour_width: float (default=0) #如果mask(蒙版、遮罩)不是None且contour_width >0,则绘制蒙版轮廓。
contour_color:color value (default="black")#蒙版轮廓的颜色。
repeat:bool, default=False #是否重复单词和短语,直到达到max_words或min_font_size。
fit_words(frequencies) #根据词频生成词云【frequencies,为字典类型】
generate(text) #根据文本生成词云
generate_from_frequencies(frequencies[, ...]) #根据词频生成词云
generate_from_text(text) #根据文本生成词云
process_text(text) #将长文本分词并去除屏蔽词(此处指英语,中文分词还是需要自己用别的库先行实现,使用上面的 fit_words(frequencies) )
recolor([random_state, color_func, colormap])#对现有输出重新着色。重新上色会比重新生成整个词云快很多。
to_array() #转化为 numpy array
to_file(filename) #输出到文件
问题:
1、图片没有正常显示:
a、用plt.savefig(“此处是生成图片的路径”)来存储生成的云词图:
将plt.savefig放在plt.show之后,结果只生成了空白图。实际上在plt.show() 后已经创建了一个新的空白图片(坐标轴),这时再用plt.savefig() 就会保存这个新生成的空白图片。所以,只要把plt.savefig放在plt.show之前即可解决这个问题。
代码如下:plt.savefig(‘e:/Python/mypy/数据分析/词云.jpg’, dpi=200)
b、另一种输出图像的方式 .to_file:
在WordCloud中,自带.to_file可以将云词图输出到文件。
具体方法:将代码中plt.savefig一行替换为my.to_file(“e:/Python/mypy/数据分析/词云.jpg”)即可。
c、两种输出方式的区别:
2、生成图像清晰度的调节(此部分为转载):
a、图片大小和精度的影响:
用plt.savefig默认生成的图感觉不是很清晰,尺寸不够大,所以在plt.savefig中加上参数dpi调整精度。当然,同样一张图,精度越高,自然尺寸也是越大的。不过,精度调整成多少合适要看情况而定。虽然理论上精度越大就越清晰,但是在遮罩图、词数量等因素确定的情况下,有时候更大的精度只是把图的尺寸放大,但肉眼可见的清晰程度并不会真的就提高。
如果图太小太密集,那么可能是默认精度的局限导致不清晰。需要调整精度参数dpi放大图片。
但如果图片足够大,字看起来也不小,但是仍然不清晰,或者布局不自然,那么有可能是云词图生成时本身的参数设置问题。可见下面的描述。
b、WordCloud参数的调节:
my=WordCloud(background_color="white",max_words=2000,mask=coloring,max_font_size=60,random_state=42,scale=8,font_path="C:\Windows\Fonts\msyhbd.ttf").generate(word_space_split) #这里word_space_split是前面生成的以空格分割的需要生成云词的词库字符串(str)
这里简要讲下几个影响图像清晰问题的WordCloud参数:
mask:遮罩图,字的大小布局和颜色都会依据遮罩图生成。理论上对字大小和清晰程度的影响不大,但是遮罩图色和背景色background_color如果易混淆,则可能是一个导致看起来不清晰的因素;另外遮罩图自身各个颜色之间的对比不强烈,也可能使图看起来层次感不够。比如,一些图明度比较高,再加上背景白色,有可能导致字色太浅(背景色background_color又是白色)于是看起来不够清晰。
background_color:背景色,默认黑色。其实这个本来也不怎么影响清晰度,但是,就像之前在mask中提到的,如果遮罩图像颜色过浅、背景设置白色,可能导致字看起来不清晰。实际上,对一个浅色遮罩图分别用白、黑两种背景色后发现,黑色背景的强烈对比之下会有若干很浅也很小的词浮现出来,而之前因背景色、字色过于相近而几乎无法用肉眼看出这些词。
mode:默认“RGB”。根据说明文档,如果想设置透明底色的云词图,可以设置background_color=None, mode=“RGBA”,但是!!!实际中尝试设置透明背景色并没有成功过! 当选取的遮罩图是白色底时,如果background_color设置为"white"或"black"时,生成的云词确实是对应的“白色”“黑色”;但按照上述参数设置透明色时,结果出来依然是白色。当选取的遮罩图是透明底时,不管background_color设置为"white"或"black",还是None加上mode=“RGBA”,结果都是把背景部分当做黑色图块,自动匹配黑色的字!也就是并没有实现透明底的云词(用“.to_file”输出即可实现透明底)。
底图1(白底,640×435):