Decision Tree 决策树

  • 阅读《李航统计学习方法》中p55-p58页
    总结决策树模型结构
    理解决策树递归思想
  • 阅读《李航统计学习》中p58-p63页
    学习信息增益
    学习信息增益率
  • 阅读《李航统计学习》中p63-65页
    学习ID3算法优缺点
    学习C4.5算法优缺点
    理解C4.5算法在ID3算法上有什么提升
    学习C4.5算法在连续值上的处理
    学习决策树如何生成
  • 阅读《机器学习实战》中p37-p41页
    划分数据集代码
    选择最好的数据集划分方式代码
    创建树的函数代码

决策树模型结构

决策树(Decision Tree)是一种基本的分类与回归方法,在分类问题中,表示基于特征对实例进行分类的过程,它可以认为是 if-then 规则的集合,也可以认为是定义在特征空间与类空间上的条件概率分布。其主要优点是模型具有可读性,分类速度快。

决策树学习通常包含 3 个步骤:特征选择、决策树的生成、决策树的剪枝。

决策树递归思想

1.特征选择

1.1 信息增益

信息增益(Information Gain)表示得知特征 X 的信息而使得类 Y 的信息的不确定性减少的程度。

1.2 信息增益率

定义:特征 A 对训练数据集 D 的信息增益比 为其信息增益 与训练数据集 D 关于特征 A 的值的熵 之比,即:

2.决策树的生成

2.1 ID3 算法

ID3 算法的核心是在决策树各个节点上应用信息增益准则选择特征,递归地构建决策树。

2.2 C4.5 算法

C4.5 算法与 ID3 算法相似,C4.5 算法对 ID3 算法做了改进,C4.5 在生成的过程中,使用信息增益比来选择特征。

3.决策树的剪枝

决策树生成算法递归的产生决策树,直到不能继续下去为止。这样产生的决策树往往对训练数据的分类很准确,但是对未知的测试数据的分类却没有那么准确,即出现过拟合的现象。

在决策树的学习中,将已生成的树进行简化的过程称为 剪枝。

你可能感兴趣的:(Decision Tree 决策树)