信息熵(ID3)、信息增益(C4.5)、基尼值和基尼指数

1、信息熵

熵 Entropy 是“混乱”程度的量度。系统越有序,熵值越低;系统越混乱或者分散,熵值越高

  • 信息理论

1、从信息的完整性上进行的描述:

系统的有序状态一致时,数据越集中的地方熵值越小,数据越分散的地方熵值越大。

2、从信息的有序性上进行的描述:

数据量一致时系统越有序,熵值越低;系统越混乱或者分散,熵值越高

信息熵(ID3)、信息增益(C4.5)、基尼值和基尼指数_第1张图片信息熵(ID3)、信息增益(C4.5)、基尼值和基尼指数_第2张图片

2、信息增益(决策树的划分依据1)

信息增益:以某特征划分数据集前后的熵的差值。熵可以表示样本集合的不确定性,熵越大,样本的不确定性就越大。因此可以使用划分前后集合熵的差值来衡量使用当前特征对于样本集合D划分效果的好坏。注:信息增益表示得知特征X的信息而使得类Y的信息熵减少的程度

信息增益 = entroy(前) - entroy(后)

信息熵(ID3)、信息增益(C4.5)、基尼值和基尼指数_第3张图片

信息熵(ID3)、信息增益(C4.5)、基尼值和基尼指数_第4张图片

活跃度的信息增益比性别的信息增益大,也就是说,活跃度对用户流失的影响比性别大。在做特征选择或者数据分析的时候,我们应该重点考察活跃度这个指标。

在上面的介绍中,我们有意忽略了"编号"这一列.若把"编号"也作为一个候选划分属性,则根据信息增益公式可计算出它的信息增益为 0.9182,远大于其他候选划分属性

计算每个属性的信息熵过程中,我们发现,该属性的值为0, 也就是其信息增益为0.9182. 但是很明显这么分类,最后出现的结果不具有泛化效果.无法对新样本进行有效预测.

 

3、信息增益率(决策树的划分依据2)

3.1概念

信息增益准则对可取值数目较多的属性有所偏好,为减少这种偏好可能带来的不利影响,著名的 C4.5 决策树算法不直接使用信息增益,而是使用"增益率" (gain ratio) 来选择最优划分属性.

信息熵(ID3)、信息增益(C4.5)、基尼值和基尼指数_第5张图片

信息熵(ID3)、信息增益(C4.5)、基尼值和基尼指数_第6张图片

信息熵(ID3)、信息增益(C4.5)、基尼值和基尼指数_第7张图片

信息熵(ID3)、信息增益(C4.5)、基尼值和基尼指数_第8张图片

信息熵(ID3)、信息增益(C4.5)、基尼值和基尼指数_第9张图片

信息熵(ID3)、信息增益(C4.5)、基尼值和基尼指数_第10张图片

在子结点当中重复过程1~5,直到所有的叶子结点足够"纯"。

现在我们来总结一下C4.5的算法流程

while(当前节点"不纯"):
    1.计算当前节点的类别熵(以类别取值计算)
    2.计算当前阶段的属性熵(按照属性取值吓得类别取值计算)
    3.计算信息增益
    4.计算各个属性的分裂信息度量
    5.计算各个属性的信息增益率
end while
当前阶段设置为叶子节点

3.3 为什么使用C4.5要好

1.用信息增益率来选择属性

克服了用信息增益来选择属性时偏向选择值多的属性的不足。

2.采用了一种后剪枝方法

避免树的高度无节制的增长,避免过度拟合数据

3.对于缺失值的处理

在某些情况下,可供使用的数据可能缺少某些属性的值。假如〈x,c(x)〉是样本集S中的一个训练实例,但是其属性A的值A(x)未知。

处理缺少属性值的一种策略是赋给它结点n所对应的训练实例中该属性的最常见值;

另外一种更复杂的策略是为A的每个可能值赋予一个概率。

例如,给定一个布尔属性A,如果结点n包含6个已知A=1和4个A=0的实例,那么A(x)=1的概率是0.6,而A(x)=0的概率是0.4。于是,实例x的60\%60%被分配到A=1的分支,40\%40%被分配到另一个分支。

C4.5就是使用这种方法处理缺少的属性值。

4 基尼值和基尼指数(决策树的划分依据3)

4.1 概念

CART 决策树 [Breiman et al., 1984] 使用"基尼指数" (Gini index)来选择划分属性.

CART 是Classification and Regression Tree的简称,这是一种著名的决策树学习算法,分类和回归任务都可用

基尼值Gini(D):从数据集D中随机抽取两个样本,其类别标记不一致的概率。故,Gini(D)值越小,数据集D的纯度越高。

数据集 D 的纯度可用基尼值来度量:

信息熵(ID3)、信息增益(C4.5)、基尼值和基尼指数_第11张图片

5 小结

5.1 常见决策树的启发函数比较

信息熵(ID3)、信息增益(C4.5)、基尼值和基尼指数_第12张图片

信息熵(ID3)、信息增益(C4.5)、基尼值和基尼指数_第13张图片

信息熵(ID3)、信息增益(C4.5)、基尼值和基尼指数_第14张图片

你可能感兴趣的:(人工智能,决策树,算法,机器学习,信息熵,python)