机器学习算法:GBDT之二

GDBT的概论

  • Gradient Boosting
    基本的结构:Gradient Boosting + 决策树 = GBDT
    • Gradient Boosting是一种实现Boosting的方法,它的主要思想是,每一次建立模型,是在之前建立模型损失函数的梯度下降方向。
      损失函数描述的是模型的不靠谱程度,损失函数越大,说明模型越容易出错。如果我们的模型能够让损失函数持续的下降,说明我们的模型在不停的改进,而最好的方式就是让损失函数在其梯度的方向下降。

    • 一般的梯度下降是以一个样本点(xi,yi)作为处理的粒度,w是参数,f(w;x)是目标函数,即减小损失函数L(yi,f(xi;w)),优化过程就是不断处理参数w(这里用到梯度下降),使得损失函数L最小;GB是以一个函数作为处理粒度,对上一代的到的函数或者模型F(X)求梯度式,即求导,决定下降方向。

  • GBDT的流程图
    机器学习算法:GBDT之二_第1张图片
    GBDT流程图.jpg

GBDT算法中,用初始化的X0,y0 训练弱分类器1(即基模型1)后,将y0(真实值) - y^(预测值)=e0(残差)作为y1去训练弱分类器2(即基模型2),依次类推,直到残差拟合到最小。

Adaboost算法中,通过调整权重W(w1,w2,...,wn)来训练弱分类器,直到损失函数达到最小。

Gradient Boosting Decision Tree

GBDT的决策树有两种回归树和分类树,具体的决策树可以是CART或者C4.5生成。

  • 回归
    (1) GBDT是通过梯度下降学习学习得到一个强学习器f(x),预测的数值是连续的;
    (2) GBDT也可以预测一个实数值,例如:10岁,20岁,5岁等,这样的数值是离散的;
    以上两种可以称为是回归时的功能。

  • 分类
    分类树是用于分类标签值,如晴天/阴天/雾/雨、用户性别、网页是否是垃圾页面。

  • 总结
    不管是预测数值还是分类,在GBDT中都是学习残差的过程。

    • GBDT也是集成学习Boosting家族的成员,但是却和传统的Adaboost有很大的不同。它是利用前一轮迭代弱学习器的误差率来更新训练集的权重,这样一轮轮的迭代下去。GBDT也是迭代,使用了前向分布算法,但是弱学习器限定了只能使用CART回归树模型,同时迭代思路和Adaboost也有所不同。

    • CART决策树既可以用于分类也可以用于回归,决策树分为分类树和回归树,分类树的衡量标准是最大熵,回归树的衡量标准是最小化均方差,所以GBDT中的树都是回归树,不是分类树,这点对理解GBDT相当重要(尽管GBDT调整后也可用于分类但不代表GBDT的树是分类树)。

    • GBDT的思想可以用一个通俗的例子解释,假如有个人30岁,我们首先用20岁去拟合,发现损失有10岁,这时我们用6岁去拟合剩下的损失,发现差距还有4岁,第三轮我们用3岁拟合剩下的差距,差距就只有一岁了。如果我们的迭代轮数还没有完,可以继续迭代下面,每一轮迭代,拟合的岁数误差都会减小。

GBDT的损失函数

  • 对于分类算法,其损失函数一般有对数损失函数和指数损失函数两种:
    • 如果是指数损失函数,则损失函数表达式为:


    • 如果是对数损失函数,则损失函数表达式为:


  • 对于回归算法,常用损失函数有如下4种:
    • 均方差


    • 绝对损失:



      对应负梯度误差为


    • Huber损失:它是均方差和绝对损失的折衷产物,对于远离中心的异常点,采用绝对损失,而中心附近的点采用均方差。这个界限一般用分位数点度量。损失函数如下:



      对应的负梯度误差为:


    • 分位数损失:它对应的是分位数回归的损失函数,表达式为:



      其中θ为分位数,需要我们在回归前指定。对应的负梯度误差为:



      对于Huber损失和分位数损失,主要用于健壮回归,也就是减少异常点对损失函数的影响。

GBDT的正则化

和Adaboost一样,我们也需要对GBDT进行正则化,防止过拟合。GBDT的正则化主要有三种方式。

  • 第一种:是和Adaboost类似的正则化项,即步长(learning rate)。定义为ν,对于前面的弱学习器的迭代

    如果我们加上了正则化项,则有:
  • 第二种:正则化的方式是通过子采样比例(subsample),取值为(0,1]。

这里的子采样和随机森林不一样,随机森林使用的是放回抽样,而这里是不放回抽样。如果取值为1,则全部样本都使用,等于没有使用子采样。如果取值小于1,则只有一部分样本会去做GBDT的决策树拟合。选择小于1的比例可以减少方差,即防止过拟合,但是会增加样本拟合的偏差,因此取值不能太低。推荐在[0.5, 0.8]之间。

使用了子采样的GBDT有时也称作随机梯度提升树(Stochastic Gradient Boosting Tree, SGBT)。由于使用了子采样,程序可以通过采样分发到不同的任务去做boosting的迭代过程,最后形成新树,从而减少弱学习器难以并行学习的弱点。

  • 第三种:是对于弱学习器即CART回归树进行正则化剪枝。

GBDT的优缺点

  • GBDT主要的优点
    • 可以灵活处理各种类型的数据,包括连续值和离散值。
    • 在相对少的调参时间情况下,相对SVM来说,预测的准确率也可以比较高。
    • 使用一些健壮的损失函数,对异常值的鲁棒性非常强。比如 Huber损失函数和Quantile(分位数)损失函数。
  • GBDT的主要缺点
    由于弱学习器之间存在依赖关系,难以并行训练数据。不过可以通过自采样的SGBT来达到部分并行。

GBDT的参数

  • scikit-learn GBDT类库概述
    在scikit-learn中,GradientBoostingClassifier为GBDT的分类类, 而GradientBoostingRegressor为GBDT的回归类。
    两者的参数类型完全相同,当然有些参数比如损失函数loss的可选择项并不相同。这些参数中,类似于Adaboost,我们把重要参数分为两类,第一类是Boosting框架的重要参数,第二类是弱学习器即CART回归树的重要参数。
  • GBDT类库boosting框架参数
    GradientBoostingClassif和GradientBoostingRegressor的参数绝大部分相同,boosting框架相关的重要参数如下:
    • n_estimators:弱学习器的最大迭代次数,或者说最大的弱学习器的个数。一般来说n_estimators太小,容易欠拟合,n_estimators太大,又容易过拟合,一般选择一个适中的数值。默认是100。在实际调参的过程中,我们常常将n_estimators和下面介绍的参数learning_rate一起考虑。
    • learning_rate: 即每个弱学习器的权重缩减系数ν,也称作步长,在原理篇的正则化章节我们也讲到了,加上了正则化项,我们的强学习器的迭代公式为fk(x)=fk−1(x)+νhk(x)fk(x)=fk−1(x)+νhk(x)。ν的取值范围为0<ν≤10<ν≤1。对于同样的训练集拟合效果,较小的νν意味着我们需要更多的弱学习器的迭代次数。通常我们用步长和迭代最大次数一起来决定算法的拟合效果。所以这两个参数n_estimators和learning_rate要一起调参。一般来说,可以从一个小一点的νν开始调参,默认是1。
    • subsample: 即我们在原理篇的正则化章节讲到的子采样,取值为(0,1]。注意这里的子采样和随机森林不一样,随机森林使用的是放回抽样,而这里是不放回抽样。如果取值为1,则全部样本都使用,等于没有使用子采样。如果取值小于1,则只有一部分样本会去做GBDT的决策树拟合。选择小于1的比例可以减少方差,即防止过拟合,但是会增加样本拟合的偏差,因此取值不能太低。推荐在[0.5, 0.8]之间,默认是1.0,即不使用子采样。
    • init: 即我们的初始化的时候的弱学习器,拟合f0(x),如果不输入,则用训练集样本来做样本集的初始化分类回归预测。否则用init参数提供的学习器做初始化分类回归预测。一般用在我们对数据有先验知识,或者之前做过一些拟合的时候,如果没有的话就不用管这个参数了。
    • loss: 即我们GBDT算法中的损失函数。分类模型和回归模型的损失函数是不一样的。
      对于分类模型,有对数似然损失函数"deviance"和指数损失函数"exponential"两者输入选择。默认是对数似然损失函数"deviance"。
      一般来说,推荐使用默认的"deviance"。它对二元分离和多元分类各自都有比较好的优化。而指数损失函数等于把我们带到了Adaboost算法。
      对于回归模型,有均方差"ls", 绝对损失"lad", Huber损失"huber"和分位数损失“quantile”。默认是均方差"ls"。
      一般来说,如果数据的噪音点不多,用默认的均方差"ls"比较好。如果是噪音点较多,则推荐用抗噪音的损失函数"huber"。而如果我们需要对训练集进行分段预测的时候,则采用“quantile”。
    • alpha:这个参数只有GradientBoostingRegressor有,当我们使用Huber损失"huber"和分位数损失“quantile”时,需要指定分位数的值。默认是0.9,如果噪音点较多,可以适当降低这个分位数的值。
  • GBDT类库弱学习器参数
     由于GBDT使用了CART回归决策树,因此它的参数基本来源于决策树类,这里对GBDT的类库弱学习器的重要参数进行说明。
    • 划分时考虑的最大特征数max_features
      可以使用很多种类型的值,默认是"None",意味着划分时考虑所有的特征数;如果是"log2"意味着划分时最多考虑log2Nlog2N个特征;如果是"sqrt"或者"auto"意味着划分时最多考虑N−−√N个特征。如果是整数,代表考虑的特征绝对数。如果是浮点数,代表考虑特征百分比,即考虑(百分比xN)取整后的特征数。其中N为样本总特征数。一般来说,如果样本特征数不多,比如小于50,我们用默认的"None"就可以了,如果特征数非常多,我们可以灵活使用刚才描述的其他取值来控制划分时考虑的最大特征数,以控制决策树的生成时间。
    • 决策树最大深度max_depth
      默认可以不输入,如果不输入的话,默认值是3。一般来说,数据少或者特征少的时候可以不管这个值。如果模型样本量多,特征也多的情况下,推荐限制这个最大深度,具体的取值取决于数据的分布。常用的可以取值10-100之间。
    • 内部节点再划分所需最小样本数min_samples_split
      这个值限制了子树继续划分的条件,如果某节点的样本数少于min_samples_split,则不会继续再尝试选择最优特征来进行划分。 默认是2.如果样本量不大,不需要管这个值。如果样本量数量级非常大,则推荐增大这个值。
    • 叶子节点最少样本数min_samples_leaf
      这个值限制了叶子节点最少的样本数,如果某叶子节点数目小于样本数,则会和兄弟节点一起被剪枝。 默认是1,可以输入最少的样本数的整数,或者最少样本数占样本总数的百分比。如果样本量不大,不需要管这个值。如果样本量数量级非常大,则推荐增大这个值。
    • 叶子节点最小的样本权重和min_weight_fraction_leaf 这个值限制了叶子节点所有样本权重和的最小值,如果小于这个值,则会和兄弟节点一起被剪枝。 默认是0,就是不考虑权重问题。一般来说,如果我们有较多样本有缺失值,或者分类树样本的分布类别偏差很大,就会引入样本权重,这时我们就要注意这个值了。
    • 最大叶子节点数max_leaf_nodes
      通过限制最大叶子节点数,可以防止过拟合,默认是"None”,即不限制最大的叶子节点数。如果加了限制,算法会建立在最大叶子节点数内最优的决策树。如果特征不多,可以不考虑这个值,但是如果特征分成多的话,可以加以限制,具体的值可以通过交叉验证得到。
    • 节点划分最小不纯度min_impurity_split
      这个值限制了决策树的增长,如果某节点的不纯度(基于基尼系数,均方差)小于这个阈值,则该节点不再生成子节点。即为叶子节点 。一般不推荐改动默认值1e-7。

你可能感兴趣的:(机器学习算法:GBDT之二)