【机器学习】三种主要集成学习思想简介

集成学习

集成学习通过训练多个分类器,然后将其组合起来,从而达到更好的预测性能,提高分类器的泛化能力。

目前集成学习有3个主要框架:bagging、boosting、stacking。

bagging套袋法

bagging是并行集成学习方法的最著名代表,其算法过程如下:

  1. 从原始样本集中抽取训练集。每轮从原始样本集中使用Bootstraping的方法抽取n个训练样本(在训练集中,有些样本可能被多次抽取到,而有些样本可能一次都没有被抽中)。共进行k轮抽取,得到k个训练集。(k个训练集之间是相互独立的)
  2. 每次使用一个训练集得到一个模型,k个训练集共得到k个模型。(注:这里并没有具体的分类算法或回归方法,我们可以根据具体问题采用不同的分类或回归方法,如决策树、感知器等)
  3. 对分类问题:将上步得到的k个模型采用投票的方式得到分类结果;对回归问题,计算上述模型的均值作为最后的结果。(所有模型的重要性相同)

【机器学习】三种主要集成学习思想简介_第1张图片

boosting(提升方法)

俗话说“三个臭皮匠顶个诸葛亮”,对于一个复杂任务来说,将多个专家的判断进行适当的综合所得出的判断,要比其中任何一个专家单独的判断好。

Leslie Valiant首先提出了“强可学习ÿ

你可能感兴趣的:(图像处理,机器学习,计算机视觉,集成学习,算法)