[11-1] adaboost DTree

        main idea:用与$u_t$成正比的概率sampling生成的数据集$\widetilde{D}$训练DTree;用整个数据集$D$计算weighted$\epsilon_n$,计算$g_t$的权重$\alpha_t =ln\blacklozenge t$,其中$\blacklozenge t = \sqrt{\frac{1-\epsilon}{\epsilon}}$

 

sampling模拟权重,adaboost:

原始的adaboost需要在每笔资料的err上加上权重u

image

由于使用这种方法,需要修改原DTree的算法过程,所以使用sampling代替

方法如下---

数据i的权重为ui,则抽到的概率pi=ui/sum(ui) 正比于ui

image

 

训练生成每个小g的权重计算

image

由于DTree在所有数据都被sample到的情况下完全生长,其Ein=0,使at无限大,会消除adaboost的效果

所以需要对DTree进行限制,通常可以采用   1 剪枝   2 限制树高度  的方法

(adaboost decision stump是 height=1的adaboost DTree)

 

总结:image

你可能感兴趣的:(dtree)