数据分析 | Boosting与Bagging的区别

Boosting与Bagging的区别

        Bagging思想专注于降低方差,操作起来较为简单,而Boosting思想专注于降低整体偏差来降低泛化误差,在模型效果方面的突出表现制霸整个弱分类器集成的领域。具体区别体现在如下五点:

  • 弱评估器:Bagging相互独立、并行构建;Boosting相互关联,按照顺序依次构建,先建弱分类器的效果影响后续模型的建立

  • 建树前的抽样方式:Bagging和Boosting都是样本有放回抽样和特征无放回抽样;但Boosting先建弱分类器的预测效果可能影响抽样细节

  • 集成的结果:Bagging对回归进行平均,对分类取众数,即少数服从多数;Boosting每个算法都有自己独特的规则,一般表现为某种分数的加权平均和使用输出函数进行分类,如sigmoid和softmax函数

  • 目标:Bagging降低方差来提高模型整体的稳定性来提高泛化能力;Boosting降低偏差提高模型整体的精度来提高泛化能力,众多弱分类器叠加后可以等同于强学习器

  • 单个评估器效力较弱时:Bagging可能失效,需要单个评估器准确率大于50%;Boosting则大概率会提升模型表现

        如果说Bagging不同算法之间的核心区别在于靠以不同方式实现随机性,那Bosting的不同算法之间的核心区别就在于上一个弱评估器的评估结果具体如何影响下一个弱评估器的建立过程。

你可能感兴趣的:(数据分析,boosting,集成学习,机器学习,数据分析,算法)