利用R制作词云图

      制作词云图本不是难事,利用R或者tableau可以轻松制作出花式词云图,但是词源的获取就不是那么容易了,今天我们就利用R语言中的jiebaR包来对北大校长林建华在北大120周年校庆的致辞做分词,并制作词云图。

      致辞内容保存在‘beida120.txt'中,分词以及绘制词云图代码如下:

> library(jiebaRD)
> library(jiebaR)
> engine <- worker()
> segment("beida120.txt",engine)
[1] "beida120.segment.2018-05-30_14_20_00.txt"
> word <- scan('beida120.segment.2018-05-30_14_20_00.txt',sep='\n',what='',encoding="UTF-8")
Read 1 item
> word <- qseg[word]
> word <- freq(word)
> wordcloud2(word,shape = 'star')

      得到的词云图如下:

利用R制作词云图_第1张图片

      由上图可知,我们分词的内容里由较多的停用词,影响了我们对原文内容的了解,故而我们要将它们清除掉,可通过worker()函数里的stop_word参数进行清除,我们将需要删除的停用词放在stopwords.txt文件中,stopwords.txt文件内容概览如下:

利用R制作词云图_第2张图片

      接下来我们进行第二次操作:

> engine <- worker(stop_word = 'stopwords.txt')
> segment("beida120.txt",engine)
[1] "beida120.segment.2018-05-30_14_40_27.txt"
> word <- scan('beida120.segment.2018-05-30_14_40_27.txt',sep='\n',what='',encoding="UTF-8")
Read 1 item
> word <- qseg[word]
> word <- freq(word)
> wordcloud2(word,shape = 'star')

      此次我们得到的词云图如下:

利用R制作词云图_第3张图片

      你可以进一步丰富你的stopword.txt,以便你更好的掌握文章的内容。

      以上就是此篇博客的全部,如有不当之处还请各位看官不吝赐教~

链接:beida120.txt 密码:np15

链接:stopwords.txt 密码:xhmn

本文参考:jiebaR,从入门到喜欢

                jiebaR中文分词,并做词云(R语言)

               

你可能感兴趣的:(R语言实践)