机器学习框架sklearn之模型选择与调优

交叉验证

将拿到的训练数据,分为训练和验证集。

eg:将数据分成4份,其中一份作为验证集,然后经过4次(组)的测试,每次都更换不同的验证集,即得到4组模型的结果,取平均值作为最终结果,又称4折交叉验证。

目的:为了让被评估的模型更加准确可信

超参数搜索-网格搜索(Grid Search)

通常情况下,有很多参数是需要手动指定的(如K-近邻算法中的K值),这种叫超参数,但是手动过程繁杂,所以需要对模型预设几种超参数组合。每种超参数都采用交叉验证来进行评估。最后选出最优参数组合建立模型。

API

sklearn.model_selection.GridSearchCV(estimator,param_grid=None,cv=None)

-对估计器的指定参数进行详尽搜索
-estimator:估计器对象
-param_grid:估计器参数(dict格式) {“n_neighbors”:[1,3,5]}
-cv:指定几折交叉验证
-fit():训练数据
-score():准确率
-结果分析:
	最佳参数:best_params_
	最佳结果:best_score_
	最佳估计器:best_estimator_
	交叉验证结果:cv_results_	

使用演示

from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.neighbors import KNeighborsClassifier
from sklearn.model_selection import GridSearchCV
def gscv_knn_demo():
    #1.获取数据
    iris=load_iris()
    #2.划分数据集
    x_train,x_test,y_train,y_test=train_test_split(iris.data,iris.target,random_state=6)
    #3.特征工程:标准化
    transfer=StandardScaler()
    x_train=transfer.fit_transform(x_train)
    x_test=transfer.transform(x_test)
    #4.KNN算法预估器
    estimator=KNeighborsClassifier()
    #加入网格搜索与交叉验证
    #参数准备
    param_dict={"n_neighbors":[1,3,5,7,9,11]}
    estimator=GridSearchCV(estimator,param_grid=param_dict,cv=10)
    estimator.fit(x_train,y_train)
    # 5.评估模型
    #方法一
    y_predict=estimator.predict(x_test)
    print("直接比对真实值和预测值:\n",y_test==y_predict)
    # 方法二
    score=estimator.score(x_test,y_test)
    print("准确率为:\n",score)
    # 最佳参数:best_params_
    print("最佳参数:\n",estimator.best_params_)
    # 最佳结果:best_score_
    print("最佳结果:\n",estimator.best_score_)
    # 最佳估计器:best_estimator_
    print("最佳估计器:\n",estimator.best_estimator_)
    # 交叉验证结果:cv_results_
    print("交叉验证结果:\n",estimator.cv_results_)
    return None

你可能感兴趣的:(sklearn,机器学习,sklearn,python,网格搜索,模型选择与调优)