《机器学习》周志华(西瓜书)学习笔记 第八章 集成学习

机器学习 学习笔记4

总目录

第八章 集成学习

8.1 个体与集成

集成学习 (ensemble learning) 通过构建并结合多个学习器来完成学习任务,有时也被称为多分类器系统(multi-classifier system) 、基于委员会的学习(committee-based learning) 等.

集成学习的一般结构:先产生一组"个体学习 器" (individual learner),再用某种策略将它们结合起来。
《机器学习》周志华(西瓜书)学习笔记 第八章 集成学习_第1张图片

  • 同质集成:只包含同种类型的个体学习器,例如"决策树集成" 中全是决策树,“神经网络集成"中全是神经网络。

同质集成中的个体学习器亦称基学习器 .

相应的学习算法称为基学习算法。

  • 异质集成:包含不同类型的个体学习器,例如同时包含决策树和神经网络,异质集成中的个体学习器由不同的学习算法生成。个体学习器一般不称为基学习器,常称为"组件学习器” 。

集成学习通过将多个学习器进行结合,常可获得比单一学习器显著优越的泛化性能。这对弱学习器尤为明显。(弱学习器:泛化性能略优于随机猜想的学习器。)

虽然从理论上来说使用弱学习器集成足以获得好的性能,但在实践中出于种种考虑,例如希望使用较少的个体学习器,或是重用关于常见学习器的一些经验等,人们往往会使用比较强的学习器。要获得好的集成, 个体学习器应"好而不同”,即个体学习器要有一定的准确性。并且要有"多样性" ,即学习器间具有差异。

考虑二分类问题 y   ϵ   { − 1. + 1 } y\ \epsilon \ \{-1.+1\} y ϵ {1.+1},和真实函数 f f f, 假定基分类器的错误率为 ε ε ε,即对每个基分类器 h i h_i hi,有:
P ( h i ( x ) = ̸ f ( x ) ) = ϵ P(h_i(\bm{x}) =\not f(\bm{x}))=\epsilon P(hi(x)≠f(x))=ϵ

假设集成通过简单投票法结合 T 个基分类器,若有超过半数的基分类器正确, 则集成分类就正确:

H ( x ) = s i g n ( ∑ i = 1 T h i ( x ) ) H(\bm{x})=sign(\sum_{i=1}^Th_i(\bm{x})) H(x)=sign(i=1Thi(x))

假设基分类器的错误率相互独立,则由 Hoeffding 不等式可知,集成的错误率为:
P ( H ( x ) = ̸ f ( x ) ) = ∑ k = 0 ⌊ T / 2 ⌋ ( T k ) ( 1 − ϵ ) k ϵ T − k ≤ exp ⁡ ( − 1 2 T ( 1 − 2 ϵ ) 2 ) P(H(\bm{x})=\not f(\bm{x}))=\sum_{k=0}^{\lfloor T/2 \rfloor} \left (\begin{matrix}T\\ k \end{matrix}\right)(1-\epsilon)^k\epsilon^{T-k}\\ \leq \exp(-\frac{1}{2}T(1-2\epsilon)^2) P(H(x)≠f(x))=k=0T/2(Tk)(1ϵ)kϵTkexp(21T(12ϵ)2)
上式显示出:随着集成中个体分类器数目 T 的增大,集成的错误率将指数级下降,最终趋向于零。

目前的集成学习方法大致可分为两大类。即个体学习器间存在强依赖关系、必须串行生成的序列化方法。以及个体学习器间不存在强依赖关系、可同时生成的并行化方法;前者的代表是 Boosting,后者的代表是 Bagging 和"随机森林" (Random Forest)。

8.3 Boosting

Boosting 是一族可将弱学习器提升为强学习器的算法,这族算法的工作机制类似:先从初始训练集训练出一个基学习器,再根据基学习器的表现对训练样本分布进行调整,使得先前基学习器做错的训练样本在后续受到更多关注, 然后基于调整后的样本分布来训练下一个基学习器;如此重复进行,直至基学习器数目达到事先指定的值 T, 最终将这 T 个基学习器进行加权结合。Boosting 族算法最著名的代表是 AdaBoost 。
AdaBoost 算法有多种推导方式,比较容易理解的是基于"加性模型" (additive model),即基学习器的线性组合:
H ( x ) = ∑ t = 1 T α t h t ( x ) H(\bm{x})=\sum_{t=1}^T\alpha_th_t(\bm{x}) H(x)=t=1Tαtht(x)

最小化指数损失函数:
ℓ e x p ( H ∣ D ) = E x ∼ D [ e − f ( x ) H ( x ) ] \ell_{exp}(H | D)=E_{x\sim D}[e^{-f(\bm{x})H(\bm{x})}] exp(HD)=ExD[ef(x)H(x)]
《机器学习》周志华(西瓜书)学习笔记 第八章 集成学习_第2张图片
《机器学习》周志华(西瓜书)学习笔记 第八章 集成学习_第3张图片
这意味着 sign (H(x)) 达到了贝叶斯最优错误率.换言之,若指数损失函数最小化,则分类错误率也将最小化;这说明指数损失函数是分类任务原本 0/1 损失函数的一致的替代损失函数.由于这个替代函数有更好的数学性质,例如它是连续可微函数,因此我们用它替代 0/1 损失函数作为优化目标.

从偏差一方差分解的角度看, Boosting 主要关住降低偏差,因此 Boosting 能基于泛化性能相当弱的学习器构建出很强的集成.

8.3 Bagging与随机森林

欲得到泛化性能强的集成,集成中的个体学习器应尽可能相互独立;虽然"独立"在现实任务中无法做到,但可以设法使基学习器尽可能具有较大的差异。给定一个训练数据集,一种可能的做法是对训练样本进行采样,产生出若干个不同的子集,再从每个数据子集中训练出一个基学习器.这 样,由于训练数据不同,我们获得的基学习器可能具有比较大的差异。然而,为获得好的集成,我们同时还希望个体学习器不能太差。如果采样出的每个子集都完全不同,则每个基学习器只用到了一小部分训练数据,甚至不足以进行有效学习,这显然无法确保产生出比较好的基学习器。为解决这个问题,我们可考 虑使用相互有交叠的采样子集。

8.3.1 Bagging

Bagging是并行式集成学习方法,基于自助来样法 (bootstrap sampling)。给定包含 m 个样本的数据集,我们先随机取出一个样本放入采样集中,再把该样本放回初始数集,使得下次采样时该样本仍有可能被选中,这样,经过 m 次随机采样操作,我们得到含 m 个样本的采样集,初始训练集中有的样本在采样集里多次出现,有的则从未出现。由式(2.1)可知,初始训练集中约有 63.2% 的样本出现在来样集中。
照这样,我们可采样出 T 个含 m 个训练样本的采样集,然后基于每个采样集训练出一个基学习器,再将这些基学习器进行结合。这就是 Bagging 的基本流程。《机器学习》周志华(西瓜书)学习笔记 第八章 集成学习_第4张图片
在对预测输出进行结合时, Bagging 通常对分类任务使用简单投票法,对回归任务使用简单平均法。若分类预测时出现两个类收到同样票数的情形,则最简单的做法是随机选择一个,也可进一步考察学习器投票的置信度来确定最终胜者。
假定基学习器的计算复杂度为 O ( m ) O(m) O(m), 则 Bagging的复杂度大致为 T ( O ( m ) + O ( s ) ) T(O (m) + O(s)) T(O(m)+O(s)),考虑到采样与投票/平均过程的复杂度O(s)很小,而 T 通常是一个不太大的常数,因此,训练一个 Bagging 集成与直接使用基学习器的复杂度同阶,这说明 Bagging 是一个很高效的集成学习算法。与标准 AdaBoost 只适用于二分类任务不间, Bagging 能不经修改地用于多分类、回归等任务。
由于每个 基学习器只使用了初始训练集中约 63.2% 的样本,剩下约 36.8% 的样本可用作验证集来对泛化性能进行包外估计。包外样本还有许多其他用途。例如当基学习器是决策树时,可使用包外样本来辅助剪枝。或用于估计决策树中各结点的后验概率以辅助对零训练样本结点的处理;当基学习器是神经网络时,可使用包外样本来辅助早期停止以减小过拟合风险。
从偏差方差分解的角度看, Bagging 主要关注降低方差,因此它在不剪枝决策树、神经网络等易受样本扰动的学习器上效用更为明显。

8.3.2 随机森林

随机森林(Random Forest,简称 RF)是Bagging 的一个 扩展变体。RF在以决策树为基学习器构建 Bagging 集成的基础上,进一步在决策树的训练过程中引入了随机属性选择.具体来说,传统决策树在选择划分属性时是在当前结点的属性集合中选择一个最优属性;而在 RF 中,对基决策树的每个结点,先从该结点的属性集合中随机选择一个包含 k个属性的子集,然后再从这个子集中选择一个最优属性用于划分。这里的参数 k 控制了随机性的引入程度;若令 k = d, 则基决策树的构建与传统决策树相同;若令 k = 1, 则是随机选择一个属性用于划分; 一般情况下,推荐值 k = log2 d
值得一提的是,随机森林的训练效率常优于 Bagging,因为在个体决策树的构建过程中 Bagging使用 的是 确定型" 决策树?在选择划分属性时要对结点的所有属性进行 考察而随机森林使用的" 随机型"决策树则只需考察一个属性子集。

8.4 结合策略

《机器学习》周志华(西瓜书)学习笔记 第八章 集成学习_第5张图片

8.4.1 平均法

  • 简单平均法 H ( x ) = 1 T ∑ i = 1 T h i ( x ) H(\bm{x})=\frac{1}{T}\sum_{i=1}^Th_i(\bm{x}) H(x)=T1i=1Thi(x)
  • 加权平均法 H ( x ) = 1 T ∑ i = 1 T w i h i ( x ) H(\bm{x})=\frac{1}{T}\sum_{i=1}^Tw_ih_i(\bm{x}) H(x)=T1i=1Twihi(x)

其中 w i w_i wi是个体学习器 h i h_i hi的权重,通常要求 w i ≥ 0 w_i \geq 0 wi0 ∑ i = 1 T w i = 1 \sum_{i=1}^Tw_i=1 i=1Twi=1

8.4.2 投票法

h i h_i hi 在样本 x x x上的预测输出表示为一个 N N N 维向量
绝对多数投票法(majority voting)
即若某标记得票过半数,则预测为该标记;否则拒绝预测。
相对多数投票法(plurality voting)
即预测为得票最多的标记,若同时有多个标记获最高票,则从中随机选取一个。
加权投票法(weighted yoting)
与加权平均法类似, w i w_i wi x i x_i xi的权重。

8.4.3 学习法

Stacking是学习法的典型代表。这里我们把个体学习器称为初级学习器,用于结合的学习器称为次级学习器或元学习器。
Stacking 的核心步骤。

  • 在训练数据上训练并使用多个模型进行预测,得到多组预测结果,也就是我们所说的超特征(Meta Features);同时我们也对测试数据使用这些模型进行预测,得到测试数据的超特征。
  • 使用一个新的模型,对这些超特征再进行训练,训练一个从超特征到真实值(ground-truth)的模型;再将测试数据的超特征输入这些模型,得到最后的结果。

8.5 多样性

你可能感兴趣的:(机器学习,西瓜书学习笔记,机器学习,学习笔记,集成学习,周志华)