机器学习进阶(5):决策树的一些Tips

前言

一些决策树相关的笔记,有兴趣的同学可以看看。

Tips

  1. 决策树是弱分类器,而SVM和LR是强分类器,Bagging 更适合弱分类器。

  2. 参与决策树生成的数据叫做bag,其他叫做 Out of Bag(OBB),OBB数据可以用于取代测试集用于误差估计,精度和同规模的测试集精度相同。这样得到的参数模型是无偏估计。

  3. 随机森林的里DT1和DT2的训练样本都是不同的。在样本和特征的角度都加入随机性,特征也是起始随机选取。

  4. 随机森林/Bagging和决策树的关系:基础分类器除了选择决策树也可以选择例如Logistic回归等分类器,仍然可以认为是“Random Forest”。

  5. 随机森林的里DT1和DT2的训练样本都是不同的。在样本和特征的角度都加入随机性,特征也是起始随机选取。

  6. 样本不均衡的常用处理方法:A. 降采样:随机降采样;将多的样分为若干子类,再分别进入ML模型;基于聚类的分割。B. 过采样:将过少的样本重复采样。C. 数据合成:将过少的样本随机插值合成;D. 代价敏感学习:调整类的权重。

  7. 决策树做回归的方法:本质是求均值,在决策树左右两端的数据都归为这一端的均值。用这张图可以显示出来,红色的线为树深度为2时的回归曲线,那么其叶子结点为4,可以观察到拟合的数据被切割了4次。

机器学习进阶(5):决策树的一些Tips_第1张图片

你可能感兴趣的:(机器学习基础课笔记,决策树,机器学习)