机器学习调参-模型选择

本文主要介绍机器学习模型中超级参数(hyperparameter)的调优问题(下文简称为调参问题),主要的方法有手动调优、网格搜索、随机搜索以及基于贝叶斯的参数调优方法。因为模型通常由它的超级参数确定,所以从更高的角度看调参问题就转化为模型选择问题。

手动调优

需要较多专业背景知识。

网格搜索

先固定一个超参,然后对其他各个超参依次进行穷举搜索,超参集合为
H={h1,h2,...,hN} ,则需要的计算次数为 i=Ni=1|hi|,(i=1,2,...,N),|hi| 表示超参 hi 的取值个数。

随机搜索

在N维参数空间按某种分布(如正态分布)随机取值,因为参数空间的各个维度的重要性是不等的,随机搜索方法可以在不重要的维度上取巧。如下图所示,按网格搜索的方式进行搜索时,由于在非重要维度上取值无效,因此相当于只取了3个有效点。随机取值相同的参数空间,则可能达到9个有效搜索点。

机器学习调参-模型选择_第1张图片

贝叶斯方法

从模型选择的角度来,通过计算在已知数据的情况下,哪种模型的后验概率大即选择哪种模型,公式如下,这种方法偏向于选择简单的模型,详见MLAPP

这里写图片描述

通用的分析方法

如果训练误差和验证误差都停滞在一个很大的值上,那么可能的原因和可以尝试的解决方案:

  • 欠拟合,采取增加模型容量的方法,如将weight decay 设为0
  • 模型有bug,将训练数据集减小,再次训练看训练误差是否能减小

    不能很好解释的问题
    对于非凸优化问题模型,当学习率较小时,随着迭代次数增加,损失函数停滞在较大的值上。

参考

1.Bengio etc.2015,deep learning
贝叶斯模型选择
1.Robert C P. Machine Learning, a Probabilistic Perspective[J]. Chance, 2014.

你可能感兴趣的:(机器学习理论)