算法学习笔记:决策树(上)(decision tree):理解篇

啥是决策树?决策树是一种对样本数据进行自上而下树形分类的模型。

一般来说,一颗决策树的组成包括:内部结点(internal node)、叶结点(leaf node)、有向边(directed edge)。

算法学习笔记:决策树(上)(decision tree):理解篇_第1张图片

 

先来举个例子感性认识下决策树,来自《百面机器学习》上一对母女的对话,内容如下:

母亲:“闺女,我又给你找了个合适的对象,见不见?”      

女儿:“多大?”--------------------------年龄        母亲:“26岁。”        

  • 女儿:“长得帅吗?”--------------------长相        母亲:“还可以,不算太帅。”      

  • 女儿:“工资高吗?”--------------------工资        母亲:“中等偏上。”

  • 女儿:“会写代码吗?”-----------------是否会写代码        母亲:“人家是程序员,代码写得棒着呢。”

女儿问问题的过程也是她做决定的过程,可以看作一个典型的决策树分类,见或不见是通过对方的年龄、长相、工资和是否会写代码等特征或者说属性来进行逐步判断的。这颗过程可以描述成下面这样:

算法学习笔记:决策树(上)(decision tree):理解篇_第2张图片 例1:相亲见不见树

>>上面这个例子有其特殊性,因为从女儿的问题顺序可以对照树的结点的顺序或位置。

现在再举个更一般的例子,下面是李航的《统计学习方法》中的一组贷款申请样本数据,根据这组数据建立一颗决策树用来判断是否对申请人发放贷款,数据如下:

例2:贷款申请样本数据
ID 年龄 有工作 有自己的房子 信贷情况 类别
1 青年 一般
2 青年
3 青年
4 青年 一般
5 青年 一般
6 中年 一般
7 中年
8 中年
9 中年 非常好
10 中年 非常好
11 老年 非常好
12 老年
13 老年
14 老年 非常好
15 老年 一般

首先,我们先来观察下数据。贷款机构收集了每位申请人的4类特征或属性,分别是:

  • (1)年龄:青年、中年、老年三类,记为A1

  • (2)是否有工作:有工作和无工作两类,记为A2

  • (3)是否有房:有房和无房两类,记为A3

  • (4)信贷情况:一般、好、非常好三类,记为A4

  • 现在我们并不能从这4类数据中直接看出它们在决策树上的出场顺序,或者说对于是否发放贷款的重要程度。

接下来,我们看看树的生成过程。这里先梳理一下建树的基本思路:

  • (1)第一步:选出(根)结点。在A1、A2、A3、A4中选出一个最优的作为根结点,至于怎么定义最优和怎么选,等到下面再说。假设选择了A2—是否有工作作为根结点。

算法学习笔记:决策树(上)(decision tree):理解篇_第3张图片

  • (2)第二步:分割数据集。样本数据集已根据A2分成了2个子数据集,如下(a)和(b)所示。

(a) 有工作
ID 年龄 有工作 有自己的房子 信贷情况 类别
3 青年
4 青年 一般
8 中年
13 老年
14 老年 非常好
(b) 无工作
ID 年龄 有工作 有自己的房子 信贷情况 类别
1 青年 一般
2 青年
5 青年 一般
6 中年 一般
7 中年
9 中年 非常好
10 中年 非常好
11 老年 非常好
12 老年
15 老年 一般
  • (3)第三步:分别分析数据子集。分别观察下这2个子集:表(a)的类别都是“是”,也就是说,从样本数据来看有工作的申请人会被发放贷款,这时生成一个叶结点,这个树枝就生长结束了。而表(b)的类别还是混乱的,还没有被分类好,咋办?继续对(b)的数据继续进行类似(1)和(2)的选择、分解和分析。

算法学习笔记:决策树(上)(decision tree):理解篇_第4张图片

  • (4)第四步:重复(1)。在表(b)剩下的3个特征择优作为新的结点。这里假设选择了A3—是否有房作为新结点。

算法学习笔记:决策树(上)(decision tree):理解篇_第5张图片

  • (5)第五步:重复(2)。表(b)的数据又被分为2个子集,如下表(c)和(d)所示。

(c) 无工作的条件下有房
ID 年龄 有工作 有自己的房子 信贷情况 类别
9 中年 非常好
10 中年 非常好
11 老年 非常好
12 老年
(d) 无工作的条件下无房
ID 年龄 有工作 有自己的房子 信贷情况 类别
1 青年 一般
2 青年
5 青年 一般
6 中年 一般
7 中年
15 老年 一般
  • (6)第六步:重复(3)。此时的表(c)和(d)均已完全分类,故分别生成两个叶结点。至此决策树构建结束,完整的决策树如下所示。

算法学习笔记:决策树(上)(decision tree):理解篇_第6张图片 例2:是否发放贷款树

 

再来观察下上面的这颗决策树:

“完全正确”的决策树可能不止一个,也可能一个也没有。若把根结点“有工作”和结点“有自己的房子”调换位置,新的决策树仍然可以对这个数据集“完全正确”的分类;如果数据集中出现几个噪声,那么“完全正确”的决策树可能不存在。大部分情况下,“完全正确”意味着过拟合所以,“最优”的决策树是那颗与训练数据矛盾较小的树并且具备不错的泛化能力

②求解“最优”决策树的问题是一个NP-C问题(Non-deterministic Polynomial Complete)。关于啥是NPC问题详见 别人的博客(https://blog.csdn.net/sinat_21591675/article/details/86521190),这里需要理解的是这个求解最优的过程需要遍历所有的树!有必要么?回答是没有。所以一般退而求其次选择“次最优(sub-optimal)”的解,即采用所谓的启发式方法求解。

③决策树结点的选择称为“特征选择”。“特征选择”的准则有多种,包括:信息增益(infoinformation gain),也称为KL散度 (K-L divergence);信息增益比(infoinformation gain ratio);基尼指数(gini index)。详见我的另一篇文章:

 

最后学术性地归纳下:

  1. 一般来说,决策树需经过(1)特征选择、(2)树的构造、(3)树的剪枝三个过程。
  2. 常见决策树算法:ID3(1986年,Quinlan)、C4.5(1993年,Quinlan)、CART(1984年,Breiman)。
  3. 决策树是较为基础的监督学习模型,可用于分类问题(分类树)和回归(回归树)问题,在现实社会中,市场营销领域的销售问题、医疗领域的诊断问题、航空领域的故障诊断等问题使用较多。

你可能感兴趣的:(算法学习笔记:决策树(上)(decision tree):理解篇)