决策树模型调优

在上一篇用决策树判断广告的文章中,我们对数据做了简单的处理,过滤掉特征存在nan值的样本,利用决策树分类,得到了93.3%的准确率。

现在我们来用一些方法进一步提高准确率。


from sklearn.pipeline import Pipeline
from sklearn.decomposition import PCA
from sklearn.grid_search import GridSearchCV

#利用主成分分析尝试提高准确率
#n_components为最终的特征维度
pca = PCA(n_components=15)
clf = DecisionTreeClassifier(random_state=14)
X_pca = pca.fit_transform(X)
scores = cross_val_score(clf,X_pca,y,scoring='accuracy')
print("Accuracy:{0:.1f}%".format(np.mean(scores)*100))   #Accuracy:93.6%
利用主成分分析,我们将准确率提高了0.3个百分点。这里我们认为设定n_components=15。并不一定是较好的参数。接下来我们继续优化。

#利用网格搜索来调整参数
pca = PCA()
clf = DecisionTreeClassifier(random_state=14)
pipe = Pipeline([
    ('pca',pca),
    ('clf',clf)
])
grid_param={
    'pca__n_components':list(range(1,20))
}
grid = GridSearchCV(pipe,grid_param)
grid.fit(X,y)
print(grid.best_params_)
print("Accuracy:{0:.1f}%".format(grid.best_score_*100))  #best_params_:{'pca__n_components': 16},Accuracy:94.9%
利用网格搜索,我们得到了最优参数n_components=16,准确率提高到94.9%,较优化前提高了1.6个百分点。
试试继续优化模型。

#尝试简单的特征工程来提高准确率
from sklearn.pipeline import FeatureUnion
from sklearn.feature_selection import SelectKBest,chi2
pca = PCA()
selection = SelectKBest(score_func=chi2)
combined_features = FeatureUnion([
    ('pca',pca),
    ('univ_select',selection)
])
clf = DecisionTreeClassifier(random_state=14)
pipe = Pipeline([
    ('feature',combined_features),
    ('clf',clf)
])
grid_param = {
    'feature__pca__n_components':list(range(1,20)),
    'feature__univ_select__k':list(range(1,10))
}
grid = GridSearchCV(pipe,grid_param)
grid.fit(X,y)
print(grid.best_params_)
print("Accuracy:{0:.1f}%".format(100*grid.best_score_))
这里我们采用两种方法来处理原始数据:PCA和SelectKBest。SelectKBest可以从原始数据中选择K个重要特征,评估分数为chi2,即卡方检验。
然后用FeatureUnion合并特征。
    最终我们得到了95.6%的准确率。
{'feature__univ_select__k': 9, 'feature__pca__n_components': 13}
Accuracy:95.6%

通过优化,单棵树的准确率达到了95.6%,已经相当不错。后续我们将利用集成模型来进一步提高准确率。


 
 

你可能感兴趣的:(数据挖掘,决策树,调优,特征工程,PCA,GridSearch)