【机器学习】- 极简系列 - 决策树

前置知识:

1、熵、条件熵、信息增益
熵与条件熵的定义为:
在这里插入图片描述
在这里插入图片描述

熵能表示随即变量的不确定性。根据等价无穷小的有:logx->x-1,xlogx->x(x-1)。基于此来验证下面的公式可以看出,当p为0或者1的时候,熵最下=0。这符合我们对不确定性的理解。实际上,对于一个二分类问题有:

【机器学习】- 极简系列 - 决策树_第1张图片
【机器学习】- 极简系列 - 决策树_第2张图片

2、基尼指数
在这里插入图片描述
【机器学习】- 极简系列 - 决策树_第3张图片
【机器学习】- 极简系列 - 决策树_第4张图片

第一部分:决策树

1.1 特征选择

ID3:最大化的信息增益。
C4.5:最大化信息增益比。

1.2 决策树的生成

递归的进行特征选择
【机器学习】- 极简系列 - 决策树_第5张图片
【机器学习】- 极简系列 - 决策树_第6张图片

1.3 剪枝 在这里插入图片描述

【机器学习】- 极简系列 - 决策树_第7张图片
【机器学习】- 极简系列 - 决策树_第8张图片

第二部分 CART

CART算法假设决策树是二叉树。
【机器学习】- 极简系列 - 决策树_第9张图片

2.1 回归树

【机器学习】- 极简系列 - 决策树_第10张图片
【机器学习】- 极简系列 - 决策树_第11张图片

算法理解:
遍历所有的切分变量与切分点,每一次确定一种划分后:根据公式计算响应的平方差的和,最小值对应的切分变量与切分点就是最佳值。继续在子集上进项相同的操作,知道满足停止条件。

2.2 分类树

【机器学习】- 极简系列 - 决策树_第12张图片

算法理解:类似于会归属,需要选择最佳的切分变量与切分点,区别在于回归树用最小二乘法选择,而分类树用基尼指数选择。

小结:决策树算法考量不同特征划分数据集带来的信息增益,不会考虑切分点,所以假如特征有M个候选值,那么就会有M叉,但是CART算法考虑切分变量+切分点的最佳组合,所以生成的是二叉树。
【机器学习】- 极简系列 - 决策树_第13张图片

例题:

ID3决策树
CART回归树
CART决策树

参考:《统计学习方法》

你可能感兴趣的:(机器学习)