搜集了网上一些论坛的玩家反馈信息,需要进行正负面分析,刚开始是用jieba分词然后关键词匹配的做法去实现的,但是发现这样子做比较不合情理,因为不带情感、简单的分词会对真实意思产生偏差
比如:
我不喜欢今天的电影
分词之后的效果是
我,不,喜欢,今天,的,电影
所以我的做法是
1、适用nltk的NaiveBayesClassifier包进行关键词训练进行
2、WordPunctTokenizer进行带情感的分词
3、classifier.classify+SnowNLP进行正负面分析
接下来分步讲解实现方式
1、数据准备、特征提取
我自有一批正面关键词和负面关键词,需要注入到nltk里面,这样可以使它在进行分析的时候,把我的词库也加到影响因子里面
def word_feats(words):
return dict([(word, True) for word in words])
# 训练将特征提取之后的对象适用NaiveBayesClassifier进行训练
classifier = NaiveBayesClassifier.train(train_set)
2、分词
分词需要用到nltk的stopwords去过滤一些噪音,以免对分析结果产生太多影响
fromnltk.corpusimportstopwords
word_lst = WordPunctTokenizer().tokenize(text)
word_lst =[wforwinword_lstif(wnot instopwords.words('stop_word'))]
使用stopwords.words的时候可能会出现如下图的提醒,是因为我们本地还没有下载停顿词
命令行输入如下图,会弹出一个弹窗
在里面选择Corpora标签,里面找到stopword,选择好路径,点击下载
下载好时候会在目录下自动创建这么多文件,文件名就是stopwords.words('xxxxxx')里面的xxxxx,我是对中文进行去噪音,里面没有我需要的,所以我把这些文件都删了,创建了一个我自己的文件stop_word
stop_word里面的内容如下图,都是一些无关精要的符号、助词、连接词之类的,是在github上面找的一个比较全的,这个文件可以自己填充,训练属于自己的分析器
https://github.com/fwwdn/sensitive-stop-words/blob/master/stopword.dic
下图是做了一个比较,分别是用jieba分词、nltk不带去stop_word的分词效果、带stop_word的分词效果(具体实现看这一篇源码)
print(word_lst)
word_lst = WordPunctTokenizer().tokenize(text)
print(word_lst)
word_lst =[wforwinword_lstif(wnot instopwords.words('stop_word'))]
print(word_lst)
可以看到
第一行jieba分词把所有的单词都做了拆分,分词效果较好,但是不带情感
第二行是nltk分词,比较能体现一句话的大概意思,但是里面有“,”这样影响结果的噪音存在
第三行是去噪音之后的效果
classResult = classifier.classify(word_feats(word))之后,会返回pos|neg
score = pos/(pos+neg)
就可以得出一个正面的分值
还有一种是直接使用SnowNLP对句子进行分析,我也会在下一篇里面贴出源码