机器学习实战

数据集地址:https://ai.stanford.edu/~amaas/data/sentiment/aclImdb_v1.tar.gz

1.下载数据集

2.执行代码

代码如下:


# coding=utf-8

import pyprind  

import pandas as pd  

import os  

import numpy as np  

import re  

from nltk.stem.porter import PorterStemmer  

import nltk  

from nltk.corpus import stopwords  

from sklearn.grid_search import GridSearchCV  

from sklearn.pipeline import Pipeline  

from sklearn.linear_model import LogisticRegression  

from sklearn.feature_extraction.text import TfidfVectorizer  

import time  


start = time.clock()  


homedir = os.getcwd()#获取当前文件的路径  

#第一步:导入数据并输出到moive_data.csv  

'''''

pbar=pyprind.ProgBar(50000)

labels={'pos':1,'neg':0}#正面和负面评论标签

df = pd.DataFrame()

for s in ('test','train'):

    for l in ('pos','neg'):

        path=homedir+'/aclImdb/%s/%s' %(s,l)

        for file in os.listdir(path):

            with open(os.path.join(path,file),'r') as infile:

                txt =infile.read()

            df =df.append([[txt,labels[l]]],ignore_index=True)

            pbar.update()

df.columns=['review','sentiment']

np.random.seed(0)

df=df.reindex(np.random.permutation(df.index))#重排数据集,打散正负样本数据

df.to_csv(homedir+'/movie_data.csv',index=False)

'''  

#第二步:文本数据清洗和特征向量化  

df=pd.read_csv(homedir+'/movie_data.csv')  

def preprocessor(text):  

text=re.sub('<[^>]*>','',text)#移除HTML标记,#把<>里面的东西删掉包括内容  

emotions=re.findall('(?::|;|=)(?:-)?(?:\)|\(|D|P)',text)  

text=re.sub('[\W]+',' ',text.lower())+''.join(emotions).replace('-','')  

return text  

#print (preprocessor(df.loc[0,'review'][-50:]))#数据集第一行review字段的最后50个字符  

#print (preprocessor("This :) is :( a test :-)!"))  

df['review']=df['review'].apply(preprocessor)  

def tokenizer(text):#提取词汇  

return text.split()  

porter=PorterStemmer()  

def tokenizer_porter(text):#文本分词并提取词干  

return [porter.stem(word) for word in text.split()]  

nltk.download('stopwords')#停用词移除(stop-word removal),停用词是文本中常见单不能有效判别信息的词汇  

stop = stopwords.words('english')#获得英文停用词集  

#print ([w for w in tokenizer_porter('a runner likes running and runs a lot') if w not in stop])  

#第三步:模型训练  

X_train=df.loc[:25000,'review'].values  

y_train=df.loc[:25000,'sentiment'].values  

X_test=df.loc[25000:,'review'].values  

y_test=df.loc[25000:,'sentiment'].values  

tfidf=TfidfVectorizer(strip_accents=None,lowercase=False,preprocessor=None)  

param_grid = [{'vect__ngram_range':[(1,1)],'vect__stop_words':[stop,None],'vect__tokenizer':[tokenizer,tokenizer_porter],'clf__penalty':['l1','l2'],'clf__C':[1.0,10.1,100.0]},\  

{'vect__ngram_range':[(1,1)],'vect__stop_words':[stop,None],'vect__tokenizer':[tokenizer,tokenizer_porter],'vect__use_idf':[False],'vect__norm':[None],'clf__penalty':['l1','l2'],'clf__C':[1.0,10.1,100.0]} ]  

lr_tfidf =Pipeline([('vect',tfidf),('clf',LogisticRegression(random_state=0))])  

gs_lr_tfidf=GridSearchCV(lr_tfidf,param_grid,scoring='accuracy',cv=5,verbose=1,n_jobs=-1)  

gs_lr_tfidf.fit(X_train,y_train)  

print ('Best parameter set :%s' % gs_lr_tfidf.best_params_)  

print ('CV Accuracy:%.3f'%gs_lr_tfidf.best_score_)  

clf=gs_lr_tfidf.best_estimator_  

print ('Test Accuracy:%.3f'%clf.score(X_test,y_test))  

end = time.clock()      

print('finish all in %s' % str(end - start))


执行完成的结果如下:


代码运行结果

3.执行代码时遇到的问题:

(1)No module named pyprind,在服务器的python3 下执行.py文件时出现没有对应的包,需要安装,下面的指令表示在root权限下,在python3 下安装pyprind,之后遇到的相同的问题,关于别的包,解决方法类似,替换不同的包即可

sudo python -3 -m pip install pyprind

(2)'encoding' is an invalid keyword argument for this function

解决方法,将open 改成io.open :

import io

data_file = io.open("F:\\MyPro\\data.yaml", "r", encoding=‘utf-8‘)

(3)'ascii' codec can't encode character u'\x96' in position 1448: ordinal not in range(128)

解决方案,加上如下代码:

import sys

reload(sys)

sys.setdefaultencoding("utf-8")

你可能感兴趣的:(机器学习实战)