机器学习——影评倾向分析(一)

最终选择了kaggle上的Bag of Words Meets Bags of Popcorn

链接:


第一课

1、代码连接:https://github.com/wendykan/DeepLearningMovies/blob/master/BagOfWords.py

数据集:① 5000个有标签的IMDB影评

评级<5,记为0,positive;评级>7,记为1,negative

2500个作为训练集,2500个作为测试集,训练集与测试集不含同样电影。

② 5000个无标签的影评

③ tsv跟csv差不多,csv用的分隔符是逗号,tsv用的分隔符是制表符

2、读取文件

pandas包提供了read_csv函数

安装pandas:pip install pandas

使用:

import pandas as pd

train = pd.read_csv("labeledTrainData.tsv", header=0, \delimiter="\t", quoting=3)

print(train.shape)

print(train.columns.values)

“header = 0”表示文件的第一行包含列名,“delimiter = \ t”表示字段由制表符分隔,quoting = 3表示Python忽略双引号,否则可能会遇到错误试图读取文件。

3、数据清洗和文本处理

(1)读取文件后,要删除HTML标签,例如

用BeautifulSoup库

 pip install BeautifulSoup4

example1 = BeautifulSoup(train["review"][0])

print example1.get_text()

get_text得到的结果就不含HTML标签了

(2)处理标点符号、数字和停用词——NLTK和正则表达式

①标点符号是可以反映情绪的,但是这个教程中为了简单,过滤掉所有标点。

教程中删除数字,如果想处理,可以视为单词,或者使用placeholder string占位符字符串替换他们。

删除数字和标点符号时,用re包来处理正则表达式

import re

letters_only= re.sub("[^a-zA-Z]"," ",example1.get_text())

re.sub():要查找的内容(非小写字母和大写字母),要替换的(空格),查找的文本(删除HTML的review)

②标记化:全部转换成小写,并分成词

lower_case= letters_only.lower()

words= lower_case.split()

③处理停用词,python中有stopword list,用nltk包处理

import nltk

from nltk.corpusimport stopwords

nltk.download()

print(stopwords.words("english"))

words= [w for w in words if not w in stopwords.words("english")]

找出在文本中,  但是不在停用词列表中的单词

机器学习——影评倾向分析(一)_第1张图片

u代表unicode字符串

4、上述为处理一条评论,现封装成函数来处理25000条评论

def review_to_words(raw_review):

        #输入一条原始评论,输出一条处理后的评论

        #删除HTML

        review_text= BeautifulSoup(raw_review).get_text()

        #删除非字母

        letters_only= re.sub("[^a-zA-Z]"," ",review_text)

        #标记化

        words= letters_only.lower().split()

        #删除停用词

        stops= set(stopwords.words("english"))  #转为set速度更快

        meaningful_words= [wfor win wordsif not win stops]

        #将单词组成字符串,用空格分开

        return(" ".join(meaningful_words))

调用函数,处理25000条评论

num_reviews= train["review"].size

#处理后的评论数组

clean_train_reviews= []

print("Cleaning and parsing the training set movie reviews...\n")

for i in range(0, num_reviews):

        if((i+1)%1000 == 0):

                print("Review %d of %d\n" % (i+1, num_reviews))

clean_train_reviews.append(review_to_words(train["review"][i]))

5、从词袋中创造特征

①计数

Sentence 1: "The cat sat on the hat"

Sentence 2: "The dog ate the cat and the hat"

{ the, cat, sat, on, hat, dog, ate, and }

Sentence 1: { 2, 1, 1, 1, 1, 0, 0, 0 }

Sentence 2: { 3, 1, 0, 0, 1, 1, 1, 1}

②取前5000个频率最高的词来做特征向量

使用scikit-learn中的feature_extraction模块来创建词袋功能

vectorizer= CountVectorizer(analyzer = "word",tokenizer = None,preprocessor = None, stop_words = None,max_features = 5000)

train_data_features= vectorizer.fit_transform(clean_train_reviews)

#转换为数组

train_data_features= train_data_features.toarray()

print(train_data_features.shape)

fit_transform()有两个功能:首先,它适合模型并学习词汇; 第二,它将训练数据转换为特征向量。输入应该是字符串列表。

词袋模型已经建立好了,词表中的词为:

vocab = vectorizer.get_feature_names()

打印词表中每个词的计数

dist= np.sum(train_data_features,axis=0)

for tag, countin zip(vocab, dist):

    print(count, tag)

6、随机森林

随机森林分类器。 随机森林算法包含在scikit-learn中,将树的数量设置为100。

print("Training the random forest...")

#初始化100个树的随机森林分类器

forest= RandomForestClassifier(n_estimators = 100)

#词袋作为特征,情绪标签作为响应变量

forest= forest.fit(train_data_features,train["sentiment"])

测试集中使用“transform”,而不是像训练集那样调用“fit_transform”。测试集不用于fit,否则会过拟合。

你可能感兴趣的:(机器学习——影评倾向分析(一))