统计学习基础算法-KNN&SVM&决策树
文章目录
统计学习基础算法-KNN&SVM&决策树
1. KNN(k-Nearest Neighbor)
1.1 距离选择
1.2 K值选择
1.3 维度灾难
1.4 KNN的优缺点
2. 支持向量机
2.1 线性可分支持向量机
2.2 线性支持向量机
2.3 非线性支持向量机
3. 决策树
3.1 数据划分
3.1.1 基于信息增益的节点划分方法 ID3
3.1.2 基于信息增益率的节点划分方法 C4.5
3.1.3 CART(Classification And Regression Trees, 分类回归树)
3.1.3.1 GINI指数构建分类树
3.1.3.2 样本方差最小值构建回归树
3.2 分割停止
3.3 剪枝
3.3.1 预剪枝
3.3.2 后剪枝
声明
参考文献
上一章给大家介绍了统计学习基础算法,本节会给大家介绍三个统计学习基础算法:KNN、SVM 和决策树。
1. KNN(k-Nearest Neighbor)
KNN可以说是最简单的分类算法之一,注意KNN算法是有监督学习中的分类算法。KNN的全称是K Nearest Neighbors,意思是K个最近的邻居,从这个名字我们就能看出一些KNN算法的蛛丝马迹了。K个最近邻居,毫无疑问,K的取值肯定是至关重要的。那么最近的邻居又是怎么回事呢?其实啊,KNN的原理就是当预测一个新的值x的时候,根据它距离最近的K个点是什么类别来判断x属于哪个类别。
图中绿色的点就是我们要预测的那个点,假设K=3。那么KNN算法就会找到与它距离最近的三个点(这里用圆圈把它圈起来了),看看哪种类别多一些,比如这个例子中是蓝色三角形多一些,新来的绿色点就归类到蓝三角了。
但是,当K=5的时候,判定就变成不一样了。这次变成红圆多一些,所以新来的绿点被归类成红圆。从这个例子中,我们就能看得出K的取值是很重要的。
1.1 距离选择
欧式距离
二维平面上两个点(x_1,y_1)(x1,y1), (x_2,y_2)(x2,y2)间的欧式距离
d=\sqrt{(x_1-x_2)^2+(y_1-y_2)^2}d=(x1−x2)2+(y1−y2)2
曼哈顿距离
二维平面上两个点(x_1,y_1)(x1,y1), (x_2,y_2)(x2,y2)间的曼哈顿距离
d=|x_1-x_2|+|y_1-y_2|d=∣x1−x2∣+∣y1−y2∣
切比雪夫距离
二维平面上两个点(x_1,y_1)(x1,y1), (x_2,y_2)(x2,y2)间的切比雪夫距离
d=max\{|x_1-x_2|,|y_1-y_2|\}d=max{∣x1−x2∣,∣y1−y2∣}
闵可夫斯基距离(Minkowski Distance)
二维平面上两个点(x_1,y_1)(x1,y1), (x_2,y_2)(x2,y2)间的闵可夫斯基距离
d=\sqrt[p]{(|x_1-x_2|)^p+(|y_1-y_2|)^p}d=p(∣x1−x2∣)p+(∣y1−y2∣)p
p=1p=1时等价于曼哈顿距离
p=2p=2时等价于欧式距离
p=\infinp=∞时等价于切比雪夫距离
余弦距离
二维平面上两个点(x_1,y_1)(x1,y1), (x_2,y_2)(x2,y2)间的余弦距离
d=cos\theta=\frac{x_1x_2+y_1y_2}{\sqrt{x_1^2+y_1^2}\sqrt{x_2^2+y_2^2}}d=cosθ=x12+y12x22+y22x1x2+y1y2
汉明距离
表示两个(相同长度)字对应位不同的数量,我们以d(x,y)表示两个字x,y之间的汉明距离。对两个字符串进行异或运算,并统计结果为1的个数,那么这个数就是汉明距离。
1011101 与 1001001 之间的汉明距离是 2。
2143896 与 2233796 之间的汉明距离是 3。
“toned” 与 “roses” 之间的汉明距离是 3。
1.2 K值选择
1.3 维度灾难
在高维空间中,距离将会发生一些奇妙的变化,例如我们在一个D=10D=10维的单位超立方体(边长为1)中均匀分布着一些样本点,我们想利用一个新数据点周边f=10%f=10的点来判定这个点的归属类别,那么我需要囊括这个数据点周边的超立方体的边长接近为e_d(f)=f^{1/D}=0.8ed(f)=f1/D=0.8。
此时最邻近已经失去了它的局部性,因为他所考虑的点大多都距离自己很远
比如下图中, 最左边的是原图, 右边三张图看上去差别很大, 但和原图都有着相同的欧氏距离.
避免维度灾难的方式:
PCA,特征选择,增加数据集等
1.4 KNN的优缺点
优点:
1.KNN分类方法是一种非参数的分类技术,简单直观,易于实现!只要让预测点分别和训练数据求距离,挑选前k个即可,非常简单直观。
2.KNN是一种在线技术,新数据可以直接加入数据集而不必进行重新训练
缺点及改进:
1.当样本不平衡时,比如一个类的样本容量很大,其他类的样本容量很小,输入一个样本的时候,K个邻近值大多数都是大样本容量的那个类,这时可能会导致分类错误。
改进方法:对K邻近点进行加权,也就是距离近的权值大,距离远的点权值小。
**2.**计算量较大,每个待分类的样本都要计算它到全部点的距离,根据距离排序才能求得K个临近点。
改进方法:采取kd树以及其它高级搜索方法BBF等算法减少搜索时间。
3.对维度灾难比较敏感
2. 支持向量机
支持向量机(support vector machine)是一种二类分类器,它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机;支持向量机还包括核技巧,这使它称为实质上的非线性分类器。支持向量机的学习策略就是间隔最大化,可形式化为一个求解凸二次规划的问题,也等价于正则化的合页损失函数的最小化问题。支持向量机的学习算法是求解凸二次规划的最优化算法。
支持向量机学习方法包含构建由简至繁的模型:线性可分支持向量机、线性支持向量机和非线性支持向量机。简单模型是复杂模型的基础,也是复杂模型的特殊情况。
2.1 线性可分支持向量机
给定线性可分训练数据集,通过间隔最大化或等价地求解相应的凸二次规划问题学习得到的分类超平面为
w^*x+b^*=0w∗x+b∗=0
以及相应的分类决策函数
f(x)=sign(w^*x+b^*)f(x)=sign(w∗x+b∗)
称为线性可分支持向量机。
间隔最大化
支持向量机学习的基本想法是求解能够正确划分训练数据集并且几何间隔最大的分离超平面。对于线性可分的训练数据集而言,线性可分分离超平面有无穷多个(等价于感知机),但是几何间隔最大的分离超平面是唯一的。这里的间隔最大化又称为硬间隔最大化(与将要讨论的训练数据集近似线性可分时的软间隔最大化相对应)
间隔最大化的直观解释是:对训练数据集找到几何间隔最大的超平面意味着以充分大的确信度对训练数据进行分类。也就是说,不仅将正负实例分开,而且对最难分的实例点(离超平面最近的点)也有足够大的确信度将他们分开。这样的超平面应该对未知的新实例有很好的分类预测能力。
下面考虑如何求得一个几何间隔最大的分离超平面,即最大间隔的分离超平面。具体的,这个问题可以表示为下面的约束最优化问题:
max_{w,b}\quad\gamma \\s.t.\qquad y_i(\frac{w}{\|w\|}x_i+\frac{b}{\|w\|}\geq\gamma),\quad i=1,2,...,Nmaxw,bγs.t.yi(∥w∥wxi+∥w∥b≥γ),i=1,2,...,N
即我们希望在最大化超平面(w,b)(w,b)关于训练数据集的几何间隔\gammaγ,约束条件表示的是超平面(w,b)(w,b)关于每个训练样本点的几何间隔至少是\gammaγ。
通过将上面的优化问题等价于如下的优化问题(具体推导可以参考《统计学习方法》李航):
min_{w,b}\quad\frac{1}{2}\|w\|^2 \\s.t. \quad y_i(wx_i + b) \ge 1, i = 1,...,Nminw,b21∥w∥2s.t.yi(wxi+b)≥1,i=1,...,N
这是一个凸二次规划问题。
凸优化问题是指约束最优化问题:
min_{w}\quad f(w) \\s.t.\quad g_i(w)\leq0,\quad i=1,2,..,k \\h_i(w)=0,\quad i=1,2,...,lminwf(w)s.t.gi(w)≤0,i=1,2,..,khi(w)=0,i=1,2,...,l
其中,目标函数f(w)f(w)和约束函数g_l(w)gl(w)都是R^nRn上的连续可微的凸函数,约束函数h_l(w)hl(w)是R^nRn上的仿射函数。当目标函数f(w)f(w)是二次函数并且约束函数g_l(w)gl(w)是仿射函数时,上述凸优化问题称为凸二次规划问题。
如果求出了上述约束问题的解w^*,b^*w∗,b∗,那么就可以得到最大间隔超平面w^*x+b^*=0w∗x+b∗=0及分类决策函数f(x)=sign(w^*x+b^*)f(x)=sign(w∗x+b∗),即线性可分支持向量机模型
支持向量和间隔边界
在线性可分情况下,训练数据集的样本点中与分类超平面距离最近的样本点称为支持向量(support vector)。支持向量是使约束条件等号成立的点,即:
y_i(wx_i + b) - 1=0yi(wxi+b)−1=0
对y_i=1yi=1的正例点,支持向量在超平面
H_1:wx+b=1H1:wx+b=1
上,对y_i=-1yi=−1的负例点,支持向量在超平面
H_1:wx+b=-1H1:wx+b=−1
上。如下图,在H_1H1和H_2H2上的点就是支持向量。
注意到H_1H1和H_2H2平行,并且没有实例点落在它们中间。在H_1H1与H_2H2之间形成一条长带,分类超平面与它们平行且位于它们中央,长带的宽度,即H_1H1与H_2H2之间的距离称为间隔(margin),间隔依赖于分类超平面的法向量ww,等于\frac{2}{\|w\|}∥w∥2,H_1H1和H_2H2称为间隔边界。
在决定分类超平面时只有支持向量起作用,而其它实例点并不起作用。如果移动支持向量将改变所求的解;但是如果在间隔边界以外移动其它的实例点,甚至去掉这些点,则解是不会改变的。由于支持向量在确定分类超平面中起着决定性作用,所以将这种分类模型称为支持向量机。支持向量的个数一般很少,所以支持向量机由很少的重要的训练样本确定。
为了求解这个优化问题,将它作为原始最优化问题,应用拉格朗日对偶性,通过求解对偶问题(dual problem)得到原始问题(primal problem)的最优解,这就是线性可分支持向量机的对偶解法。这样做的有点,一是对偶问题往往更容易求解,二是自然引入核函数,进而推广到非线性分类问题。
对偶问题的形式为(省区推导过程):
对线性可分数据集,假设对偶问题对\alphaα的解为\alpha^*=(\alpha_1^{*}, \alpha_2^{*},...,\alpha_N^{*})^Tα∗=(α1∗,α2∗,...,αN∗)T,可以由\alpha^*α∗求得原始最优化问题的解w^*,b^*w∗,b∗。有下面的定理:
由次定理可知,分类超平面可以写成
分类决策函数可以写成
这就是说,分类决策函数只依赖于输入xx和训练样本输入的内积,上式称为线性可分支持向量机的对偶形式。
例子:正例点x_1=(3,3)^T,x_2=(4,3)^Tx1=(3,3)T,x2=(4,3)T,负例点是x_3=(1,1)^Tx3=(1,1)T。用上述算法求线性可分支持向量机
根据所给数据,对偶问题是、
解这一最优化问题。将\alpha_3=\alpha_1+\alpha_2α3=α1+α2代入目标函数得到
对\alpha_1,\alpha_2α1,α2求偏导数并令其为00,易知s(\alpha_1,\alpha_2)s(α1,α2)在点(\frac32,-1)^T(23,−1)T处取极值,但该点不满足约束条件\alpha_2\geq0α2≥0,所以最小值应该在边界上达到
当\alpha_1=0α1=0时,最小值为s(0,\frac{2}{13})=-\frac{2}{13}s(0,132)=−132;当\alpha_2=0α2=0时,最小值为s(\frac{1}{4},0)=-\frac{1}{4}s(41,0)=−41.于是s(\alpha_1,\alpha_2)s(α1,α2)在\alpha_1=\frac{1}{4},\alpha_2=0α1=41,α2=0处达到最小,此时\alpha_3=\frac{1}{4}α3=41。
这样\alpha_1^*,\alpha_3^*α1∗,α3∗对应的实例点x_1,x_3x1,x3是支持向量,则w_1^*=w_2^*=\frac{1}{2}w1∗=w2∗=21,b^*=-2b∗=−2.
分类超平面为
\frac{1}{2}x^{(1)}+\frac{1}{2}x^{(2)}-2=021x(1)+21x(2)−2=0
分类决策函数为
f(x)=sign(\frac{1}{2}x^{(1)}+\frac{1}{2}x^{(2)}-2)f(x)=sign(21x(1)+21x(2)−2)
2.2 线性支持向量机
对于线性可分问题,上述线性可分支持向量机(硬间隔最大化)算法是完美的。但是,训练数据线性可分是理想的情形。在现实问题中,训练数据集往往是线性不可分的,即在样本中出现噪声点或者异常值。此时,我们将上述算法推广到更一般的情况
其对偶问题和求解算法与上述线性可分的场景类似,再次就不做展开。
2.3 非线性支持向量机
非线性问题往往不好求解,所以希望能用解线性分类问题的方法解决这个问题。所采取的方法是进行一个非线性变换,将非线性问题变换为线性问题。通过解变换后的线性问题的方法求解原来的非线性问题。对应上图所示的例子,通过变换,将左图中椭圆变换成右图中的直线,将非线性分类问题变换为线性分类问题。
设原空间x=(x^{(1)},x^{(2)})\in R^2x=(x(1),x(2))∈R2,新空间z=(z^{(1)},z^{(2)})\in R^2z=(z(1),z(2))∈R2,定义从原空间到新空间的变换:
z=\phi(x)=((x^{(1)})^2,(x^{(2)})^2)^Tz=ϕ(x)=((x(1))2,(x(2))2)T
经过变换z=\phi(x)z=ϕ(x),原空间中的点相应地变换为新空间中的点,原空间中的椭圆
w_1((x^{(1)})^2)+w_2((x^{(2)})^2)+b=0w1((x(1))2)+w2((x(2))2)+b=0
变换成为新空间中的直线
w_1z^{(1)}+w_2z^{(2)}+b=0w1z(1)+w2z(2)+b=0
在变换后的新空间里,直线w_1z^{(1)}+w_2z^{(2)}+b=0w1z(1)+w2z(2)+b=0可以将变换后的正负实例点正确分开,这样,原空间的非线性可分问题就变成了新空间中的线性可分问题。
上面的例子说明,用线性分类方法求解非线性分类问题分为两步:首先使用一个变换将原空间的数据映射到新空间;然后在新空间里用线性分类学习方法从训练数据中学习分类模型。核技巧就属于这样的方法。
核技巧应用到支持向量机,其基本想法就是通过一个非线性变换将输入空间对应于一个特征空间,使得在输入空间中的超曲面模型对应于特征空间中的超平面模型。这样,分类问题的学习任务通过在特征空间中求解线性支持向量机就可以完成。
核函数
设XX是输入空间,又设HH是特征空间,如果从在一个从XX到HH的映射
\phi(x):X\rightarrow Hϕ(x):X→H
使得对所有的x,z\in Xx,z∈X,函数K(x,z)K(x,z)满足条件
K(x,z)=\phi(x)\cdot\phi(z)K(x,z)=ϕ(x)⋅ϕ(z)
则称K(x,z)K(x,z)为核函数,\phi(x)ϕ(x)为映射函数。
核技巧的想法是,在学习与预测中只定义核函数K(x,z)K(x,z),而不是显示地定义映射函数\phi(x)ϕ(x)。通常,直接计算K(x,z)K(x,z)比较容易,而通过\phi(x)ϕ(x)和\phi(z)ϕ(z)计算K(x,z)K(x,z)并不容易。注意\phiϕ是输入空间到特征空间的映射,特征空间一般是高维的,甚至无穷维的。可以看到,对于给定的核K(x,z)K(x,z),特征空间和映射函数\phiϕ的取法并不唯一。
例如核函数是K(x,z)=(x\cdot z)^2K(x,z)=(x⋅z)2,可以取映射
\phi(x)=((x^{(1)})^2,\sqrt{2}x^{(1)}x^{(2)},(x^{(2)})^2)^Tϕ(x)=((x(1))2,2x(1)x(2),(x(2))2)T
也可以取映射
\phi(x)=\frac{1}{\sqrt{2}}((x^{(1)})^2-(x^{(2)})^2,2x^{(1)}x^{(2)},(x^{(1)})^2+(x^{(2)})^2)^Tϕ(x)=21((x(1))2−(x(2))2,2x(1)x(2),(x(1))2+(x(2))2)T
还可以取
\phi(x)=((x^{(1)})^2,x^{(1)}x^{(2)},x^{(1)}x^{(2)},(x^{(2)})^2)^Tϕ(x)=((x(1))2,x(1)x(2),x(1)x(2),(x(2))2)T
我们注意到在支持向量机的对偶问题中,无论是目标函数还是决策函数(分类超平面)都只涉及输入实例之间的内积。在对偶问题的目标函数中的内积x_i\cdot x_jxi⋅xj可以用核函数K(x_i,x_j)=\phi(x_i)\cdot\phi(x_j)K(xi,xj)=ϕ(xi)⋅ϕ(xj)来代替。此时对偶问题的目标函数称为:
同样,分类决策函数中的内积也可以用核函数代替,而分类决策函数成为
也就是说,在核函数给定的条件下,可以利用解线性分类问题的方法求解非线性分类问题的支持向量机。学习是隐式地在特征空间进行的,不需要显式的定义特征空间和映射函数。这样的技巧称为核技巧,它是巧妙的利用线性分类学习方法与核函数解决非线性问题的技术。在实际应用中,核函数的选择有很多种,有效性需要通过实验验证。
不是所有的函数都能成为核函数,有判定核函数的充要条件,这里不做展开,两个常用的核函数:
多项式核函数:
K(x,z)=(x\cdot z+1)^pK(x,z)=(x⋅z+1)p
高斯核函数:
K(x,z)=exp(-\frac{\|x-z\|^2}{2\sigma^2})K(x,z)=exp(−2σ2∥x−z∥2)
核函数可以通过一些已知核函数的组合来构造,假设K_1(x,z)K1(x,z)和K_2(x,z)K2(x,z)是两个核函数,那么以下的函数也是核函数:
K(x,z)=cK_1(x,z) \\K(x,z)=f(x)K_1(x,z)f(z) \\K(x,z)=q(K_1(x,z)) \\K(x,z)=exp(K_1(x,z)) \\K(x,z)=K_1(x,z)+K_2(x,z) \\K(x,z)=K_1(x,z)K_2(x,z) \\K(x,z)=x^TAzK(x,z)=cK1(x,z)K(x,z)=f(x)K1(x,z)f(z)K(x,z)=q(K1(x,z))K(x,z)=exp(K1(x,z))K(x,z)=K1(x,z)+K2(x,z)K(x,z)=K1(x,z)K2(x,z)K(x,z)=xTAz
其中ff是任意函数,qq是一个具有非负参数的多项式,AA是一个半正定对称矩阵。
非线性支持向量机的学习算法
求解支持向量机的凸二次规划问题,具有全局最优解,一般可以通过现有的工具来优化。但当训练样本非常多的时候,这些优化算法往往非常耗时低效,以致无法使用。从SVM提出到现在,也出现了很多优化训练的方法。其中,非常出名的一个是1982年由Microsoft Research的John C. Platt在论文《Sequential Minimal Optimization: A Fast Algorithm for Training Support Vector Machines》中提出的Sequential Minimal Optimization序列最小化优化算法,简称SMO算法。SMO算法的思想很简单,它将大优化的问题分解成多个小优化的问题。这些小问题往往比较容易求解,并且对他们进行顺序求解的结果与将他们作为整体来求解的结果完全一致。在结果完全一致的同时,SMO的求解时间短很多。具体算法在这里不做展开。
3. 决策树
决策树(decision tree)是一种基本的分类与回归方法,一般用于分类。决策树模型呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程。它可以认为是if-then规则的集合,也可以认为是定义在特征空间与类空间上的条件概率分布。其主要有点是模型具有可读性,分类速度快。学习时,利用训练数据,根据损失函数最小化原则建立决策树模型。预测时,对新的数据,利用决策树模型进行分类。决策树学习通常包括3个步骤:特征选择、决策树的生成和决策树的修剪。这些决策树学习的思想主要来源于由Quinlan在1986年提出的ID3算法和1993年提出的C4.5算法,以及由Brieman等人在1984年提出的CART算法。
3.1 数据划分
3.1.1 基于信息增益的节点划分方法 ID3
数据集D如下,该数据集根据描述了西瓜的各种特征并且标注了该瓜是不是好瓜:
编号色泽根蒂敲声纹理脐部触感好瓜
1青绿蜷缩浊响清晰凹陷硬滑是
2乌黑蜷缩沉闷清晰凹陷硬滑是
3乌黑蜷缩浊响清晰凹陷硬滑是
4青绿蜷缩沉闷清晰凹陷硬滑是
5浅白蜷缩浊响清晰凹陷硬滑是
6青绿稍蜷浊响清晰稍凹软粘是
7乌黑稍蜷浊响稍糊稍凹软粘是
8乌黑稍蜷浊响清晰稍凹硬滑是
9乌黑稍蜷沉闷稍糊稍凹硬滑否
10青绿硬挺清脆清晰平坦软粘否
11浅白硬挺清脆模糊平坦硬滑否
12浅白蜷缩浊响模糊平坦软粘否
13青绿稍蜷浊响稍糊凹陷硬滑否
14浅白稍蜷沉闷稍糊凹陷硬滑否
15乌黑稍蜷浊响清晰稍凹软粘否
16浅白蜷缩浊响模糊平坦硬滑否
17青绿蜷缩沉闷稍糊稍凹硬滑否
信息熵
熵(entropy)是度量集合纯度的一种常用指标,计算方法为:
Entropy(D) = -\sum_{k=1}^{n}p_klog_2p_kEntropy(D)=−k=1∑npklog2pk
其中nn代表样本共有nn类,p_kpk表示第kk类样本所占的比例。
则上述好坏西瓜数据集标签的信息熵为:
Entropy(D)=-\sum_{k=1}^{2}p_klog_2p_k=-(\frac{8}{17})*log_2(\frac{8}{17})-(\frac{9}{17})*log_2(\frac{9}{17})=0.998Entropy(D)=−k=1∑2pklog2pk=−(178)∗log2(178)−(179)∗log2(179)=0.998
注:计算熵时约定,若p=0p=0,则plog_2p=0plog2p=0
Entropy(D)Entropy(D)的最小值是00,最大值是log_2nlog2n
信息增益
对于离散特征aa,有nn个可能的取值,记为\{a_1,a_2,...,a_n\}{a1,a2,...,an},若使用aa对样本DD进行划分,就会产生nn个分支,则第kk个分支包含了DD中所有的在属性aa上取值为a_kak的样本,记为D_kDk。则用属性aa对节点DD进行划分所获得的信息增益(information gain):
Gain(D,a) = Entropy(D)-\sum_{k=1}^{n}\frac{|D^k|}{|D|}Entropy(D^k)Gain(D,a)=Entropy(D)−k=1∑n∣D∣∣Dk∣Entropy(Dk)
信息增益值越大,意味着用属性aa来进行划分所获得的信息纯度提升越大。
用属性“色泽”对节点进行划分,可知该属性有3个可能的取值**{ 青绿, 乌黑, 浅白 }**,用该属性对DD进行划分,可得3个分支节点:
D^1(色泽=青绿)D1(色泽=青绿)包含6个样本,3个是好瓜,3个否
D^2(色泽=乌黑)D2(色泽=乌黑)包含6个样本,4个是好瓜,2个否
D^3(色泽=浅白)D3(色泽=浅白)包含5个样本,1个是好瓜,4个否
分别计算他们的信息熵:
Entropy(D^1) = -(\frac{3}{6})*log_2(\frac{3}{6})-(\frac{3}{6})*log_2(\frac{3}{6}) = 1.000Entropy(D1)=−(63)∗log2(63)−(63)∗log2(63)=1.000
Entropy(D^2) = -(\frac{4}{6})*log_2(\frac{4}{6})-(\frac{2}{6})*log_2(\frac{2}{6}) = 0.918Entropy(D2)=−(64)∗log2(64)−(62)∗log2(62)=0.918
Entropy(D^3) = -(\frac{1}{5})*log_2(\frac{1}{5})-(\frac{4}{5})*log_2(\frac{4}{5}) = 0.722Entropy(D3)=−(51)∗log2(51)−(54)∗log2(54)=0.722
属性“色泽”的信息增益为:
KaTeX parse error: No such environment: align* at position 8: \begin{̲a̲l̲i̲g̲n̲*̲}̲ Gain(D,“色泽”) &…
同样的方法求出其他属性的信息增益:
Gain(D,“根蒂”) = 0.143Gain(D,“根蒂”)=0.143
Gain(D,“敲声”) = 0.141Gain(D,“敲声”)=0.141
Gain(D,“纹理”) = 0.381Gain(D,“纹理”)=0.381
Gain(D,“脐部”) = 0.289Gain(D,“脐部”)=0.289
Gain(D,“触感”) = 0.006Gain(D,“触感”)=0.006
此处,“纹理”的信息增益值较大,所以用“纹理”作为节点划分的特征。
第一步划分结束,然后再根据第一步划分出的节点一步步继续划分下去。
3.1.2 基于信息增益率的节点划分方法 C4.5
C4.5采用信息增益率作为数据分割的依据。
回到上边的例子,假如我们把数据集DD中的第一列“编号”也作为一个属性,基于该属性划分节点,就会产生17个节点,我们可以求出
Gain(D,“编号”) = 0.998-0*7 = 0.998Gain(D,“编号”)=0.998−0∗7=0.998
远远大于其他的候选属性。信息增益准则就是对可取数目较多的属性有所偏好。
为了消除这种情况C4.5算法采用“增益率(gain ratio)”来选择最佳的划分属性。信息增益率公式:
Gain\_ratio(D, a) = \frac{Gain(D,a)}{IV(a)}Gain_ratio(D,a)=IV(a)Gain(D,a)
其中
IV(a) = -\sum_{k=1}^{n}\frac{|D^k|}{|D|}log_2\frac{|D^k|}{|D|}IV(a)=−k=1∑n∣D∣∣Dk∣log2∣D∣∣Dk∣
IV(a)IV(a)称为属性的固有值,对于上面的数据集DD,求得
IV(色泽) = -\frac{6}{17}log_2\frac{6}{17}-\frac{6}{17}log_2\frac{6}{17}-\frac{5}{17}log_2\frac{5}{17} = 1.580(n=3)IV(色泽)=−176log2176−176log2176−175log2175=1.580(n=3)
IV(根蒂) = -\frac{8}{17}log_2\frac{8}{17}-\frac{7}{17}log_2\frac{7}{17}-\frac{2}{17}log_2\frac{2}{17} = 1.402 (n=3)IV(根蒂)=−178log2178−177log2177−172log2172=1.402(n=3)
IV(敲声) = -\frac{5}{17}log_2\frac{5}{17}-\frac{2}{17}log_2\frac{2}{17}-\frac{10}{17}log_2\frac{10}{17} = 1.333 (n=3)IV(敲声)=−175log2175−172log2172−1710log21710=1.333(n=3)
IV(纹理) = -\frac{3}{17}log_2\frac{3}{17}-\frac{9}{17}log_2\frac{9}{17}-\frac{5}{17}log_2\frac{5}{17} = 1.447 (n=3)IV(纹理)=−173log2173−179log2179−175log2175=1.447(n=3)
IV(脐部) = -\frac{7}{17}log_2\frac{7}{17}-\frac{4}{17}log_2\frac{4}{17}-\frac{6}{17}log_2\frac{6}{17} = 1.549 (n=3)IV(脐部)=−177log2177−174log2174−176log2176=1.549(n=3)
IV(触感) = -\frac{5}{17}log_2\frac{5}{17}-\frac{12}{17}log_2\frac{12}{17} = 0.874 (n=2)IV(触感)=−175log2175−1712log21712=0.874(n=2)
IV(编号) = -\frac{1}{17}log_2\frac{1}{17}*17 = 4.088 (n=17)IV(编号)=−171log2171∗17=4.088(n=17)
得到各属性的信息增益率:
Gain\_ratio(D,“色泽”) = 0.069Gain_ratio(D,“色泽”)=0.069
Gain\_ratio(D,“根蒂”) = 0.102Gain_ratio(D,“根蒂”)=0.102
Gain\_ratio(D,“敲声”) = 0.106Gain_ratio(D,“敲声”)=0.106
Gain\_ratio(D,“纹理”) = 0.263Gain_ratio(D,“纹理”)=0.263
Gain\_ratio(D,“脐部”) = 0.187Gain_ratio(D,“脐部”)=0.187
Gain\_ratio(D,“触感”) = 0.007Gain_ratio(D,“触感”)=0.007
Gain\_ratio(D,“编号”) = 0.244Gain_ratio(D,“编号”)=0.244
此处“纹理”的信息增益率最大,所以将该属性作为节点划分的属性。
3.1.3 CART(Classification And Regression Trees, 分类回归树)
CART既能是分类树,又能是回归树。
3.1.3.1 GINI指数构建分类树
GINI指数计算公式
Gini(D)=\sum_{k=1}^{n}\sum_{k'\neq k}p_kp_{k'}=1 - \sum_{k=1}^{n}p_k^2Gini(D)=k=1∑nk′=k∑pkpk′=1−k=1∑npk2
基尼指数表示了从数据集DD中随机抽取两个样本,其类别标记不一致的概率,所以GINI值越小表示数据集的纯度越高。
对于数据集DD的属性aa的基尼指数定义为:
Gini\_index(D,a) = \sum_{k=1}^{n}\frac{|D^k|}{|D|}Gini(D^k)Gini_index(D,a)=k=1∑n∣D∣∣Dk∣Gini(Dk)
在划分属性的时候,我们选择使得划分后的基尼指数最小的属性作为最优划分属性,即:
a_*=\underset{a\in A}{arg min}(Gini_index(D,a))a∗=a∈Aargmin(Giniindex(D,a))
例,对于数据集D'D′
编号色泽脐部好瓜
1青绿凹陷是
2乌黑凹陷是
3乌黑凹陷是
4青绿凹陷是
5青绿平坦否
6青绿凹陷否
Gini(D') = 1-(\frac{4}{6})^2-(\frac{2}{6})^2 = 0.444Gini(D′)=1−(64)2−(62)2=0.444
用属性“色泽”划分
D'^1(色泽=青绿)D′1(色泽=青绿)包含4个样本,2个是好瓜,2个否
D'^2(色泽=乌黑)D′2(色泽=乌黑)包含2个样本,2个是好瓜,0个否
Gini(D'^1) = 1 - (2/4)^2 - (2/4)^2 = 0.5Gini(D′1)=1−(2/4)2−(2/4)2=0.5
Gini(D'^2) = 1 - (2/2)^2 - (0)^2 = 0Gini(D′2)=1−(2/2)2−(0)2=0
最终,属性“色泽”的基尼指标为:
Gini(D',色泽) = \frac{4}{6}*0.5+\frac{2}{6}*0 = 0.333Gini(D′,色泽)=64∗0.5+62∗0=0.333
同样的方法可以求出:
Gini(D',脐部) = \frac{5}{6}*(1-(\frac{4}{5})^2-(\frac{1}{5})^2)+\frac{1}{6}*(1-(\frac{1}{1})^2) = 0.267Gini(D′,脐部)=65∗(1−(54)2−(51)2)+61∗(1−(11)2)=0.267
属性“脐部”的基尼指标较小,所以就选它作为分裂节点。
3.1.3.2 样本方差最小值构建回归树
回归方差计算公式:
\sigma^2 = \sum_{i\in I}(x_i-\mu)^2 = \sum_{i\in I}x_i-n\mu^2σ2=i∈I∑(xi−μ)2=i∈I∑xi−nμ2
方差越大,表示该节点的数据越分散,预测的效果就越差。
Gain = SS_T-(SS_L+SS_R)Gain=SST−(SSL+SSR)
其中SS_T=\sum_{i\in I}(x_i-\mu)^2SST=∑i∈I(xi−μ)2,SS_LSSL和SS_RSSR是左右节点的方差和。
例,对于数据集EE
密度含糖率
0.6970.460
0.7740.376
0.6340.264
0.6080.318
0.5560.215
0.4030.237
0.4810.149
0.4370.211
0.6660.091
首先计算“含糖率”SS_TSST的方差和,然后依次选取“密度”各属性值作为分割点计算左右节点的方差和,当SS_T-(SS_L+SS_R)SST−(SSL+SSR)达到最大值时该点就是分割点。
3.2 分割停止
决策树节点停止分裂的一般性条件:
最小节点数
当节点的数据量小于一个指定的数量时,不继续分裂。有两点原因:一是数据量较少时,再做分裂容易强化噪声数据的作用;二是降低树生长的复杂性。提前结束分裂一定程度上有利于降低过拟合的影响。
熵或者基尼值小于阀值
由上述可知,熵和基尼值的大小表示数据的复杂程度,当熵或者基尼值过小时,表示数据的纯度比较大,如果熵或者基尼值小于一定程度数,节点停止分裂。
决策树的深度达到指定的条件
节点的深度可以理解为节点与决策树跟节点的距离,如根节点的子节点的深度为1,因为这些节点与跟节点的距离为1,子节点的深度要比父节点的深度大1。决策树的深度是所有叶子节点的最大深度,当深度到达指定的上限大小时,停止分裂。
所有特征已经使用完毕,不能继续进行分裂
被动式停止分裂的条件,当已经没有可分的属性时,直接将当前节点设置为叶子节点。
3.3 剪枝
决策树是充分考虑了所有的数据点而生成的复杂树,有可能出现过拟合的情况,决策树越复杂,过拟合的程度会越高。
考虑极端的情况,如果我们令所有的叶子节点都只含有一个数据点,那么我们能够保证所有的训练数据都能准确分类,但是很有可能得到高的预测误差,原因是将训练数据中所有的噪声数据都”准确划分”了,强化了噪声数据的作用。
剪枝修剪分裂前后分类误差相差不大的子树,能够降低决策树的复杂度,降低过拟合出现的概率。
剪枝有预剪枝和后剪枝两种方法。
3.3.1 预剪枝
预剪枝就是在节点划分之前先进行估计,如果当前节点的划分不能带来决策树泛化性能的提升则停止划分并将当前节点标记为叶节点。
3.3.2 后剪枝
后剪枝是先从训练集中生成一颗完整的决策树,然后子弟向上的对非叶节点进行考察,然后根据一定的规则决定是否应将该节点变为叶节点。 剪枝方案有很多种,在此不详细展开。
声明
本博客所有内容仅供学习,不为商用,如有侵权,请联系博主谢谢。
参考文献
[1] 人工智能:一种现代的方法(第3版)