xgboost等集成学习原理推导

机器学习的一般模型

obj(θ)=L(θ)+Ω(θ) o b j ( θ ) = L ( θ ) + Ω ( θ )

目标函数等于损失函数加正则项。在boost中,为弱学习器的级联。约定训练集为X,个数为N,维度为M, xi x i 为第i个样本, yi y i 为第i个样本的标签,
y^(0)i=0y^(1)i=y^(0)i+f1(xi)y^(2)i=y^(1)i+f2(xi)y^(3)i=y^(2)i+f3(xi)......y^(t)i=y^(t1)i+ft(xi) y ^ i ( 0 ) = 0 y ^ i ( 1 ) = y ^ i ( 0 ) + f 1 ( x i ) y ^ i ( 2 ) = y ^ i ( 1 ) + f 2 ( x i ) y ^ i ( 3 ) = y ^ i ( 2 ) + f 3 ( x i ) . . . . . . y ^ i ( t ) = y ^ i ( t − 1 ) + f t ( x i )

其中 y^(t)i y ^ i ( t ) 为第i个数据的第t级输出, ft(xi) f t ( x i ) 为第i个样本被第t级学习器拟合的残差。

有:

objti(ft,xi)=L[yi,y^(t)i]+Ω(ft)+constant o b j i t ( f t , x i ) = L [ y i , y ^ i ( t ) ] + Ω ( f t ) + c o n s t a n t

将L在 y^(t1)i y ^ i ( t − 1 ) 处taylor展开,得:
L[yi,y^(t)i]=L[yi,y^(t1)i]+gift(xi)+12hif2i(xi)gi=L[yi,y^(t1)i]y^(t1)ihi=2L[yi,y^(t1)i](y^(t1)i)2 L [ y i , y ^ i ( t ) ] = L [ y i , y ^ i ( t − 1 ) ] + g i f t ( x i ) + 1 2 h i f i 2 ( x i ) g i = ∂ L [ y i , y ^ i ( t − 1 ) ] ∂ y ^ i ( t − 1 ) h i = ∂ 2 L [ y i , y ^ i ( t − 1 ) ] ∂ ( y ^ i ( t − 1 ) ) 2

定义 ft(xi)=wq(xi) f t ( x i ) = w q ( x i ) ,其中 wq(xi) w q ( x i ) xi x i 落入的叶子节点的值(score),编号为q,值就是 wq w q 。对于落入相同叶子结点的, wq(xi) w q ( x i ) 的值相等。

对于所有的样本,有:

objt(ft)=i=0N1(L[yi,y^(t)i])+Ω(ft)+constantΩ=γT+λq=0T1w2q o b j t ( f t ) = ∑ i = 0 N − 1 ( L [ y i , y ^ i ( t ) ] ) + Ω ( f t ) + c o n s t a n t Ω = γ T + λ ∑ q = 0 T − 1 w q 2

则有:
L[yi,y^(t)i]=L[yi,y^(t1)i]+gift(xi)+12hif2i(xi)objt(ft)=i=0N1{gift(xi)+12hif2(xi)}+γT+λ12q=0T1w2q+constantobjt(ft)=q=0T1{iIqgiwq+12iIqhiw2q+12λw2q}+γT+constantobjt(ft)=q=0T1{Gqwq+12(Hq+λ)w2q}+γT L [ y i , y ^ i ( t ) ] = L [ y i , y ^ i ( t − 1 ) ] + g i f t ( x i ) + 1 2 h i f i 2 ( x i ) o b j t ( f t ) = ∑ i = 0 N − 1 { g i f t ( x i ) + 1 2 h i f 2 ( x i ) } + γ T + λ 1 2 ∑ q = 0 T − 1 w q 2 + c o n s t a n t o b j t ( f t ) = ∑ q = 0 T − 1 { ∑ i ∈ I q g i w q + 1 2 ∑ i ∈ I q h i w q 2 + 1 2 λ w q 2 } + γ T + c o n s t a n t o b j t ( f t ) = ∑ q = 0 T − 1 { G q w q + 1 2 ( H q + λ ) w q 2 } + γ T

当树生成了之后,最优的 wq=GqHq+λ w q ∗ = − G q H q + λ ,此时 obj(ft)=G2q2(Hq+λ)+γT o b j ( f t ) = − G q 2 2 ( H q + λ ) + γ T 。对于不同的树有不同的损失,去最优,为了避免对所有的可能得树都进行生成后的比较,对分裂的叶子节点采用贪心算法:
Gain=G2LHL+λ+G2RHR+λ(GL+GR)2HL+HR+λγ G a i n = G L 2 H L + λ + G R 2 H R + λ − ( G L + G R ) 2 H L + H R + λ − γ

遍历所有节点,选择增益最大值和属性作为分裂点。

即拟合残差时使用模型

y^(t)i=y^(t1)i+ft(xi) y ^ i ( t ) = y ^ i ( t − 1 ) + f t ( x i )

而加入使用的时候,在实际应用中,引入学习率,有模型:
y^(t)i=y^(t1)i+ηft(xi) y ^ i ( t ) = y ^ i ( t − 1 ) + η f t ( x i )

每次都不完全拟合残差,以防止过拟合。

例如,用 Li=12(yiy^i)2 L i = 1 2 ( y i − y ^ i ) 2 作为损失函数,假设已经建立好了t-1颗树,则第t颗树

有:

gi=L[yi,y^(t1)i]y^(t1)i=yi^(t1)yihi=2L[yi,y^(t1)i](y^(t1)i)2=1 g i = ∂ L [ y i , y ^ i ( t − 1 ) ] ∂ y ^ i ( t − 1 ) = y i ^ ( t − 1 ) − y i h i = ∂ 2 L [ y i , y ^ i ( t − 1 ) ] ∂ ( y ^ i ( t − 1 ) ) 2 = 1

但是前面的t-1颗树,都有 y^(t1)i=y^(t2)i+ηft1(xi) y ^ i ( t − 1 ) = y ^ i ( t − 2 ) + η f t − 1 ( x i ) ,由此计算 y^(t1)i y ^ i ( t − 1 )

然后,通过最大增益生成树 ft f t

你可能感兴趣的:(算法)