《我不是药神》短评关键词提取及词云制作

环境:Windows 10、 java version "1.8.0_144" 、 Python 3.6.3、 jieba 0.39

方法一:jieba分词+词云工具(WordArt.com)

一、获取短评数据

对获取到的短评进行数据的清洗与整理,将数据放入名为review.txt文件里:


《我不是药神》短评关键词提取及词云制作_第1张图片
整理后的短评文件示图

二、利用jieba进行分词

分词主代码(review.py)

from __future__ import print_function, unicode_literals
import jieba
jieba.load_userdict("userdict.txt")    #自定义词典
path = 'review.txt'             #存放短评数据的文件
file_in = open(path, 'r',encoding='UTF-8')      #打开review.txt文件,对文件进行读操作
content = file_in.read()

import jieba.analyse
try:
    jieba.analyse.set_stop_words('stop.txt')  #停用词词典
    tags = jieba.analyse.extract_tags(content, topK=50, withWeight=True)   #选择前50个关键词,并计算对应权重
    for v, n in tags:
        print (v + '\t' + str(int(n * 10000)))      #权重是小数,为了凑整,乘以10000,也可以直接输出,但数据看起来会复杂点
finally:
    file_in.close()        # 关闭文件

停用词词典(stop.txt):
经过多次分词,将分词结果中常常出现的且意义不大的词加入到停用词词典,提高分词的结果的高效和有效性,(注:一个词一行,并且保存文件时需要以utf-8形式保存)下面是部分停用词举例:

一部
片子
真的
这部
还是
这样
不是
非常
最后
看到
这个
呜呜
就是
什么
但是
可以
觉得
有点
每个
很多
一种
所有
其实
有些
已经
观众
上映
值得
后半段
人物
意义
韩国
这种
问题
剧本
自己
配角
……

自定义词典(userdict.txt):
短评中出现了两部相关电影的名字,但是jieba分词没有分出来因此在自定义词典中进行定义如下:

达拉斯买家俱乐部
辛德勒名单

三、关键词提取结果

通过命令行进入到在对应的目录下输入:

python review.py

结果如下:

徐峥    817
煽情    722
题材    672
现实    576
王传君  481
药神    468
故事    404
达拉斯买家俱乐部        347
国产电影        301
真实    299
黄毛    276
穷病    267
周一围  267
社会    266
现实主义        259
希望    256
好看    229
程勇    214
改编    213
商业片  209
牧野    206
难得    189
泪点    160
过审    160
角色    149
宁浩    147
人性    146
不错    145
活着    142
感动    135
医保    134
原型    131
最佳    128
喜欢    121
四星    121
国产    120
良心    119
救世主  111
生命    109
法律    107
点映    107
感人    103
水准    103
审查    100
票房    100
药厂    96
批判    94
进步    94
2018    93
谭卓    93

四、词云制作

1.打开WordArt.com,选择import,将上面的结果粘贴到对应的地方

《我不是药神》短评关键词提取及词云制作_第2张图片

《我不是药神》短评关键词提取及词云制作_第3张图片

2.选择词云的形状,可以点击Add image自己添加:
《我不是药神》短评关键词提取及词云制作_第4张图片
image.png

3.选择字体,这个工具是没有中文字体的,所以需要添加,在网上下载一种字体,点击Add font添加
《我不是药神》短评关键词提取及词云制作_第5张图片

4.点击VIsualize,完成词云制作,
《我不是药神》短评关键词提取及词云制作_第6张图片

方法二:Python+jieba+WordCloud

一、安装wordcloud、scipy、matplotlib等库

eg:

pip install wordcloud

二、利用python第三方库+jieba进行词云制作

from os import path
from wordcloud import WordCloud, ImageColorGenerator
import jieba.analyse
import matplotlib.pyplot as plt
from scipy.misc import imread

class cloud:
    def __init__(self, filename, image_filename, font_filename):
        self.d = path.dirname(__name__)
        jieba.load_userdict("userdict.txt")  # 自定义词典
        content = open(path.join(self.d, filename), 'r',encoding='UTF-8').read()   
        jieba.analyse.set_stop_words('stop.txt')  # 停用词词典
        tags = jieba.analyse.extract_tags(content, topK=50, withWeight=False)

        self.text = " ".join(tags)
        # 需要显示的背景图片
        self.img = imread(path.join(self.d, image_filename))
        self.wc = WordCloud(font_path=font_filename, background_color='white',
                        max_words=300, mask=self.img, max_font_size=40,
                        random_state=42)
        self.wc.generate(self.text)


    def show_wc(self):
        #显示生成词云图
        # 让词的颜色和图片的颜色一样
        img_color = ImageColorGenerator(self.img)
        plt.imshow(self.wc.recolor(color_func=img_color))
        plt.axis("off")
        plt.show()

    def save_wc(self, out_filename):
        self.wc.to_file(path.join(self.d, out_filename))   #保存到当前目录下

if __name__ == '__main__':
    wc = cloud("review.txt", "m.png", "msyh.ttf")
    wc.show_wc()
    wc.save_wc('output.jpg')

词云制作结果:


《我不是药神》短评关键词提取及词云制作_第7张图片

你可能感兴趣的:(《我不是药神》短评关键词提取及词云制作)