DataWhale-西瓜书+南瓜书-第4章决策树学习总结-Task03-202110

4.1 决策树的基本流程

DataWhale-西瓜书+南瓜书-第4章决策树学习总结-Task03-202110_第1张图片

 4.2  划分选择

4.2.1 信息增益

“信息熵”是度量样本集合纯度最常用的一种指标。

                                     Ent(D)=-\sum_{k=1}^{|\mathbf{y}|}p_k\;log_2 p_k

信息增益定义为:

                        Gain(D,a)=Ent(D)-\sum_{v=1}^{V}\frac{|D^v|}{|D|}Ent(D^v)

一般而言,信息增益越大,则意味着使用某属性进行划分所获得的纯度提升越大。

4.2.2 增益率

   信息增益偏好可取数目较多的属性,所以要使用“增益率”。

                                    Gain\_ratio(D,a)=\frac{Gain(D,a)}{IV(a)}

                                     IV(a)=-\sum_{v=1}^{V}\frac{|D^v|}{|D|}\log_2\frac{|D^v|}{|D|}

IV(a)称为属性a的固有值,属性a的可能取值数目越多,IV(a)越大。

4.2.3 基尼系数

  CART决策树算法使用“基尼系数”来选择划分属性。

                               Gini(D)=1-\sum_{k=1}^{|\mathbf{y}|}p_k^2

属性a的基尼指数定义为

                           Gini\_index(D,a)=\sum_{v=1}^{V}\frac{|D^v|}{|D|}Gini(D^v)

4.3 剪枝处理

剪枝是决策树学习算法对付过拟合的主要手段。分为“预剪枝”和“后剪枝”

4.3.1 预剪枝

    预剪枝是指在决策树生成过程中,对每个节点在划分前先进行估计,若当前节点的划分不能带来决策树泛化性能的提升,则停止划分并将当前节点标记为叶节点。

4.3.2 后剪枝

     后剪枝则是先从训练集生成一棵完整的决策树,然后自底向上地对非叶节点进行考察,若将该节点对应的子树替换为叶节点能带来决策树泛化性能的提升,则将该子树替换成叶结点。

4.4  连续与缺失值

4.4.1 连续值处理

    连续值可以采用二分法,如C4.5决策树算法中的机制。

4.4.2  缺失值的处理

    

 

你可能感兴趣的:(决策树,机器学习)