调参神器贝叶斯优化(bayesian-optimization)实战篇

今天笔者来介绍一下和调参有关的一些事情,作为算法工程师,调参是不可避免的一个工作。在坊间算法工程师有时候也被称为:调参侠。但是一个合格的算法工程师,调参这部分工作不能花费太多的气力,因为还有很多艰深的问题等着你去克服,怎么能在调参这块花大力气呢。所以自动调参的学习是一项必须学会的技能。这里笔者就介绍一个调参神器——贝叶斯调参

贝叶斯调参简介

说到自动调参大家首先会想到的就是网格搜索(网格搜索:“遍历所以的参数组合,从而选出最优的参数组合”)。笔者之前也经常会用到这个方法,但是后来搜索空间变大之后,发现网格搜索的速度太慢,所以转而投靠贝叶斯调参。接下来笔者简要介绍一下贝叶斯调参相对于网格搜索的优势:

  • 贝叶斯调参采用高斯过程,会考虑到之前的参数信息,不断地更新先验;网格搜索则不会考虑先验信息。
  • 贝叶斯调参迭代次数少,速度快;网格搜索会遍历所有的可能的参数组合,所以速度慢,参数多时易导致维度爆炸
  • 贝叶斯调参针对非凸问题依然稳健;网格搜索针对非凸问题易得到局部最优。

当然贝叶斯调参背后涉及的高斯过程等一些数学知识,这里笔者水平有限,之后理解后再和大家详说,但是贝叶斯调参的思想就是:利用已有的先验信息去找到使目标函数达到全局最大的参数。

笔者通过实战也确实发现,贝叶斯调参确实能够很快的帮助我们发现一组还不错的参数。

实战部分

数据准备,随机产生一千个2分类的数据,每条数据的特征维度为10。

from sklearn.datasets import make_classification
from sklearn.ensemble import GradientBoostingClassifier
from sklearn.model_selection import cross_val_score
from bayes_opt import BayesianOptimization
x, y = make_classification(n_samples=1000,n_features=10,n_classes=2)

采用GBDT默认的参数在二分类的数据上训练一遍,然后评估出模型的ROC-AUC得分,这里GBDT默认参数训练得到的模型的得分为0.952。

gbdt = GradientBoostingClassifier()
cross_val_score(gbdt, x, y, cv=20, scoring='roc_auc').mean()
### 结果是:0.952

python用户可以采用下方命令行可以快速的安装贝叶斯调试利器—— bayesian-optimization

pip install -i https://mirrors.aliyun.com/pypi/simple bayesian-optimization

这里需要定义好贝叶斯调参的目标函数,以及参数空间的范围。运行gbdt_op.maximize(),就可以开始用贝叶斯优化去搜索最优参数空间了。

from bayes_opt import BayesianOptimization
def gbdt_cv(n_estimators, min_samples_split, max_features, max_depth):
    res = cross_val_score( 
        GradientBoostingClassifier(n_estimators=int(n_estimators),
                                                        min_samples_split=int(min_samples_split),
                                                        max_features=min(max_features, 0.999), # float
                                                        max_depth=int(max_depth),
                                                        random_state=2
        ),
        x, y, scoring='roc_auc', cv=20
    ).mean()
    return res

gbdt_op = BayesianOptimization(
        gbdt_cv,
        {'n_estimators': (10, 250),
        'min_samples_split': (2, 25),
        'max_features': (0.1, 0.999),
        'max_depth': (5, 15)}
    )

gbdt_op.maximize()

下方是调参过程,我们可以看到,各参数空间所对应的得分,以及每个参数空间的具体数值情况。


调参神器贝叶斯优化(bayesian-optimization)实战篇_第1张图片
贝叶斯调参过程

输出最优参数组合:

print(gbdt_op.max)
输出:
{'target': 0.9600151282051282,
 'params': {'max_depth': 14.862826451133763,
  'max_features': 0.12474933898472207,
  'min_samples_split': 2.594293568638591,
  'n_estimators': 227.79962861886497}}

用最优的参数组合定义一个新的GBDT,在和之前同样的数据上做训练,并生成评估得分。一旦出现更好的参数空间,会有通过不同颜色来区别。

gbdt1 = GradientBoostingClassifier(n_estimators=228,
                                    max_depth=15,
                                    min_samples_split=3,
                                    max_features=0.12)

结果如下图所示:参数经贝叶斯优化的后GBDT 比之前默认参数的GBDT的ROC-AUC得分要高0.002。做个模型的朋友应该知道千分之二的算是一个不错的提升。

参数经贝叶斯优化的后GBDT
随机参数的GBDT

结语

其实贝叶斯调参最主要的优势,是节约了算法工程师的时间和精力,这样他们就可以把更多的时间和精力用来设计出精度更高,泛化能力更强的模型,去帮助业务的提升,这也是自动调参的意义所在。所以,还等什么,快把这样一个调参神器用起来吧。

参考

https://www.cnblogs.com/yangruiGB2312/p/9374377.html

你可能感兴趣的:(调参神器贝叶斯优化(bayesian-optimization)实战篇)