用bias/variance角度解释GDBT与RF的区别

首先,GBDT和RF都是集成方法中的经典模型,我们需要弄清楚下面几个问题:
1、GBDT是采用boosing方法,RF采用的是baggging方法
2、bias和variance是解释模型泛化性能的,其实还有噪声

然后,理解GBDT和RF执行原理,其中GBDT中的核心是通过用分类器(如CART、RF)拟合损失函数梯度,而损失函数的定义就决定了在子区域内各个步长,其中就是期望输出与分类器预测输出的查,即bias;而RF的核心就是自采样(样本随机)和属性随机(所有样本中随机选择K个子样本选择最优属性来划分),样本数相同下的不同训练集产生的各个分类器,即数据的扰动导致模型学习性能的变化,即variance。

最后,虽然从bias/variance角度理解了区别,估计能应付面试,但真正需要针对业务场景灵活调整模型还只能去看paper。

你可能感兴趣的:(机器学习)