机器学习之集成算法----Adaboost算法

目录

  • Boosting 算法基本原理
    • 对应问题
  • Adaboost 算法
    • 算法流程
      • 个人描述
      • 指示函数
    • 学习器权重和样本权重 公式推导
    • Adaboost算法的正则化
  • 小结
  • 传送门
    • 视频

Boosting 算法基本原理

机器学习之集成算法----Adaboost算法_第1张图片
Boosting算法的工作机制首先从训练集用初始权重训练出一个弱学习器1,根据弱学习的学习误差率表现来更新训练样本的权重,使得之前弱学习器1学习误差率高的训练样本点的权重变高,使得这些误差率高的点在后面的弱学习器2中得到更多的重视。然后基于调整权重后的训练集来训练弱学习器2.,如此重复进行,直到弱学习器数达到事先指定的数目T,最终将这T个弱学习器通过集合策略进行整合,得到最终的强学习器。

对应问题

  • 1 如何计算弱学习器的学习误差率e
  • 2 如何得到弱学习器的权重系数α
  • 3 如何更新训练样本权重D
  • 4 使用何种结合策略

Adaboost 算法

在boosting系列算法中, Adaboost是最著名的算法之一。Adaboost既可以用作分类,也可以用作回归

算法流程

标准AdaBoost算法只适用于二分类任务
机器学习之集成算法----Adaboost算法_第2张图片
机器学习之集成算法----Adaboost算法_第3张图片

个人描述

指示函数

学习器权重和样本权重 公式推导

机器学习之集成算法----Adaboost算法_第4张图片
机器学习之集成算法----Adaboost算法_第5张图片

机器学习之集成算法----Adaboost算法_第6张图片
权重之和为1
机器学习之集成算法----Adaboost算法_第7张图片

Adaboost算法的正则化

机器学习之集成算法----Adaboost算法_第8张图片

小结

理论上任何学习器都可以用于Adaboost.但一般来说,使用最广泛的Adaboost弱学习器是决策树和神经网络。对于决策树,Adaboost分类用了CART分类树,而Adaboost回归用了CART回归树

这里对 Adaboost算法的优缺点 做一个总结。

Adaboost的主要优点有:

1)Adaboost作为分类器时,分类精度很高

2)在Adaboost的框架下,可以使用各种回归分类模型来构建弱学习器,非常灵活。

3)作为简单的二元分类器时,构造简单,结果可理解。

4)不容易发生过拟合

Adaboost的主要缺点有:

1)对异常样本敏感,异常样本在迭代中可能会获得较高的权重,影响最终的强学习器的预测准确性

传送门

集成学习之Adaboost算法原理小结
AdaBoost算法详解以及代码实现
AdaBoost算法详解与python实现
数据挖掘领域十大经典算法之—AdaBoost算法(超详细附代码)

视频

集成学习:XGBoost, lightGBM

你可能感兴趣的:(机器学习)