在深度神经网络崛起之前,基于树类的算法是表现比较优异,非线性性能比较好的一大类算法,深受广大人民群众的喜爱。比如常见的基于树的算法有随机森林(Random Forest),GBDT, XGboost, LightGBM等。而所有的这些算法,都是基于决策树(Decision Tree)进化而来的。因此了解熟悉决策树是我们学习算法过程中一个必不可少的环节。
决策树可以分为分类树与回归树。回归树一般只能处理连续型数据,而分类树则即可以处理连续型数据又可以处理离散型数据。
CART树的全名叫做Classification and Regression Tree。从名字可以看出来,CART树即可以用来做分类又可以用来做回归。
CART树构建分类树与回归树的时候,主要有如下两点差异(其实也是分类树与回归树的差异):
1.连续值的处理。
CART分类树对连续值采取的是计算Gini系数大小来衡量特征划分点的好坏。
G I N I ∗ ( D ) = ∑ i = 1 k p k ∗ ( 1 − p k ) = 1 − ∑ i = 1 k p k 2 GINI*(D) = \sum_{i=1}^k p_k * (1 - p_k) = 1 - \sum_{i=1}^k p_k ^ 2 GINI∗(D)=i=1∑kpk∗(1−pk)=1−i=1∑kpk2
基尼指数的意义是从数据集D中随机抽取两个样本类别标识不一致的概率。基尼指数越小,数据集的纯度越高。分类决策树递归创建过程中就是每次选择GiniGain最小的节点做分叉点。
回归树的处理方式为,对于任意的特征J,选择任意的划分点s将数据集分成R1, R2,然后使得R1与R2的均方差和最小。
2.预测方式
分类树的预测方式为看叶子节点中概率最大的类作为当前预测类。
回归树一般是输出叶子节点的均值作为预测结果。
对于决策树的生成过程,就是递归构建二叉树的过程。以CART回归树为例,我们来看看具体怎么构建。
假设X与Y分别为输入输出,Y是连续变量。
D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x n , y n ) ) } D = \{ (x_1, y_1), (x_2, y_2), ..., (x_n, y_n)) \} D={(x1,y1),(x2,y2),...,(xn,yn))}
最终我们想生成CART回归树 f ( x ) f(x) f(x)。即在训练集上,递归地将每个区域分为两个子区域并决定每个子区域的输出值,来构建二叉决策树。
1.选择最优切分变量j与切分点s,并求解
min j , s [ min c 1 ∑ x i ∈ R 1 ( j , s ) ( y i − c 1 ) 2 + min c 2 ∑ x i ∈ R 2 ( j , s ) ( y i − c 2 ) 2 ] \min _ { j , s } \left[ \min _ { c _ { 1 } } \sum _ { x _ { i } \in R _ { 1 } ( j , s ) } \left( y _ { i } - c _ { 1 } \right) ^ { 2 } + \min _ { c _ { 2 } } \sum _ { x _ { i } \in R _ { 2 } ( j , s ) } \left( y _ { i } - c _ { 2 } \right) ^ { 2 } \right] j,smin⎣⎡c1minxi∈R1(j,s)∑(yi−c1)2+c2minxi∈R2(j,s)∑(yi−c2)2⎦⎤
遍历变量j,对固定的切分变量j扫描切分点s,选择最优的(j,s)。
2.用选定的(j,s),划分区域,并决定相应的输出
c ^ m = a v e r a g e ( y i ∣ x i ∈ R m ( j , s ) ) \hat{c}_{m}=average(y_{i}|x_{i} \in R_{m}(j,s)) c^m=average(yi∣xi∈Rm(j,s))
3.对两个子区域重复1,2步骤,直到满足终止条件
4.将输入的空间划分为M个区域, R 1 , R 2 , . . . , R M R_1, R_2, ..., R_M R1,R2,...,RM,在每个单元上有固定的输出 c m c_m cm,最终生成决策树
f ( x ) = ∑ m = 1 M c m I , X ∈ R m f(x) = \sum_{m=1} ^M c_mI, X \in R_m f(x)=m=1∑McmI,X∈Rm
决策树很容易出现的一种情况是过拟合(overfitting),所以需要进行剪枝。而基本的策略包括两种:预剪枝(Pre-Pruning)与后剪枝(Post-Pruning)。
预剪枝:其中的核心思想就是,在每一次实际对结点进行进一步划分之前,先采用验证集的数据来验证如果划分是否能提高划分的准确性。如果不能,就把结点标记为叶结点并退出进一步划分;如果可以就继续递归生成节点。
后剪枝:后剪枝则是先从训练集生成一颗完整的决策树,然后自底向上地对非叶结点进行考察,若将该结点对应的子树替换为叶结点能带来泛化性能提升,则将该子树替换为叶结点。