机器学习-回归模型评估及参数调优

目录

  • 1.参数与超参数
  • 2.调参
    • 2.1 网格搜索GridSearchCV()
    • 2.2 随机搜索

对模型超参数进行调优

1.参数与超参数

参数:最小二乘法或者梯度下降法等最优化算法优化出来的数。
超参数:无法用最小二乘法或者梯度下降法等最优化算法优化出来的数。

简单来说,模型参数就是模型内部的配置变量,可以用数据估计它的值。

模型参数一般具有以下特征:

  • 进行预测时需要参数。

  • 它参数定义了可使用的模型。

  • 参数是从数据估计或获悉的。

  • 参数通常不由编程者手动设置。

  • 参数通常被保存为学习模型的一部分。

  • 参数是机器学习算法的关键,它们通常由过去的训练数据中总结得出 。

    模型超参数是模型外部的配置,其值无法从数据中估计。

    模型超参数特征:

  • 超参数通常用于帮助估计模型参数。

  • 超参数通常由人工指定。

  • 超参数通常可以使用启发式设置。

  • 超参数经常被调整为给定的预测建模问题。

2.调参

调参简单来说就是取不同的超参数的值对于模型的性能有不同的影响。

先对未调参的SVR进行评价:

from sklearn.svm import SVR     # 引入SVR类
from sklearn.pipeline import make_pipeline   # 引入管道简化学习流程
from sklearn.preprocessing import StandardScaler # 由于SVR基于距离计算,引入对数据进行标准化的类
from sklearn.model_selection import GridSearchCV  # 引入网格搜索调优
from sklearn.model_selection import cross_val_score # 引入K折交叉验证
from sklearn import datasets


boston = datasets.load_boston()     # 返回一个类似于字典的类
X = boston.data
y = boston.target
features = boston.feature_names
pipe_SVR = make_pipeline(StandardScaler(),
                                                         SVR())
score1 = cross_val_score(estimator=pipe_SVR,
                                                     X = X,
                                                     y = y,
                                                     scoring = 'r2',
                                                      cv = 10)       # 10折交叉验证
print("CV accuracy: %.3f +/- %.3f" % ((np.mean(score1)),np.std(score1)))

机器学习-回归模型评估及参数调优_第1张图片

2.1 网格搜索GridSearchCV()

是指定参数值的一种穷举搜索方法,通过将估计函数的参数通过交叉验证的方法进行优化来得到最优的学习算法。

将各个参数可能的取值进行排列组合,列出所有可能的组合结果生成“网格”。然后将各组合用于SVM训练,并使用交叉验证对表现进行评估。在拟合函数尝试了所有的参数组合后,返回一个合适的分类器,自动调整至最佳参数组合,可以通过clf.best_params_获得参数值。

from sklearn.pipeline import Pipeline
pipe_svr = Pipeline([("StandardScaler",StandardScaler()),
                                                         ("svr",SVR())])
param_range = [0.0001,0.001,0.01,0.1,1.0,10.0,100.0,1000.0]
param_grid = [{"svr__C":param_range,"svr__kernel":["linear"]},  # 注意__是指两个下划线,一个下划线会报错的
                            {"svr__C":param_range,"svr__gamma":param_range,"svr__kernel":["rbf"]}]
gs = GridSearchCV(estimator=pipe_svr,
                                                     param_grid = param_grid,
                                                     scoring = 'r2',
                                                      cv = 10)       # 10折交叉验证
gs = gs.fit(X,y)
print("网格搜索最优得分:",gs.best_score_)
print("网格搜索最优参数组合:\n",gs.best_params_)

2.2 随机搜索

与网格搜索相比,参数的随机搜索中的每个参数都是从可能的参数值的分布中采样的。

随机搜索优点:

  • 可以独立于参数数量和可能的值来选择计算成本。
  • 添加不影响性能的参数不会降低效率。
from sklearn.model_selection import RandomizedSearchCV
from scipy.stats import uniform  # 引入均匀分布设置参数
pipe_svr = Pipeline([("StandardScaler",StandardScaler()),
                                                         ("svr",SVR())])
distributions = dict(svr__C=uniform(loc=1.0, scale=4),    # 构建连续参数的分布
                     svr__kernel=["linear","rbf"],                                   # 离散参数的集合
                    svr__gamma=uniform(loc=0, scale=4))

rs = RandomizedSearchCV(estimator=pipe_svr,
                                                     param_distributions = distributions,
                                                     scoring = 'r2',
                                                      cv = 10)       # 10折交叉验证
rs = rs.fit(X,y)
print("随机搜索最优得分:",rs.best_score_)
print("随机搜索最优参数组合:\n",rs.best_params_)

在这里插入图片描述

你可能感兴趣的:(机器学习,python,机器学习)