西瓜决策树-sklearn实现

文章目录

  • sklearn实现ID3、CART算法实现
    • 一、引包
    • 二、读取数据
    • 三、数据编码
    • 四、ID3拟合
      • ID3算法
      • DecisionTreeClassifier参数说明
      • sklearn拟合代码
    • 五、CART拟合
      • CART算法
      • 基尼指数:
    • 六、参考

sklearn实现ID3、CART算法实现

一、引包

import pandas as pd
from sklearn.preprocessing import LabelEncoder
from sklearn.tree import DecisionTreeClassifier

二、读取数据

data = pd.read_csv('./西瓜数据集.csv')
data
色泽 根蒂 敲击 纹理 脐部 触感 好瓜
0 青绿 蜷缩 浊响 清晰 凹陷 硬滑
1 乌黑 蜷缩 沉闷 清晰 凹陷 硬滑
2 乌黑 蜷缩 浊响 清晰 凹陷 硬滑
3 青绿 蜷缩 沉闷 清晰 凹陷 硬滑
4 浅白 蜷缩 浊响 清晰 凹陷 硬滑
5 青绿 稍蜷 浊响 清晰 稍凹 软粘
6 乌黑 稍蜷 浊响 稍糊 稍凹 软粘
7 乌黑 稍蜷 浊响 清晰 稍凹 硬滑
8 乌黑 稍蜷 沉闷 稍糊 稍凹 硬滑
9 青绿 硬挺 清脆 清晰 平坦 软粘
10 浅白 硬挺 清脆 模糊 平坦 硬滑
11 浅白 蜷缩 浊响 模糊 平坦 软粘
12 青绿 稍蜷 浊响 稍糊 凹陷 硬滑
13 浅白 稍蜷 沉闷 稍糊 凹陷 硬滑
14 乌黑 稍蜷 浊响 清晰 稍凹 软粘
15 浅白 蜷缩 浊响 模糊 平坦 硬滑
16 青绿 蜷缩 沉闷 稍糊 稍凹 硬滑

三、数据编码

#创建LabelEncoder()对象,用于序列化
label = LabelEncoder()    

#为每一列序列化
for col in data[data.columns[:-1]]:
    data[col] = label.fit_transform(data[col])
data
色泽 根蒂 敲击 纹理 脐部 触感 好瓜
0 2 2 1 1 0 0
1 0 2 0 1 0 0
2 0 2 1 1 0 0
3 2 2 0 1 0 0
4 1 2 1 1 0 0
5 2 1 1 1 2 1
6 0 1 1 2 2 1
7 0 1 1 1 2 0
8 0 1 0 2 2 0
9 2 0 2 1 1 1
10 1 0 2 0 1 0
11 1 2 1 0 1 1
12 2 1 1 2 0 0
13 1 1 0 2 0 0
14 0 1 1 1 2 1
15 1 2 1 0 1 0
16 2 2 0 2 2 0

四、ID3拟合

ID3算法

ID3算法的基本流程为:如果某一个特征能比其他特征更好的将训练数据集进行区分,那么将这个特征放在初始结点,依此类推,初始特征确定之后,对于初始特征每个可能的取值建立一个子结点,选择每个子结点所对应的特征,若某个子结点包含的所有样本属于同一类或所有特征对其包含的训练数据的区分能力均小于给定阈值,则该子结点为一个叶结点,其类别与该叶结点的训练数据类别最多的一致。重复上述过程直到特征用完或者所有特征的区分能力均小于给定阈值。如何衡量某个特征对训练数据集的区分能力呢,ID3算法通过信息增益来解决这个问题
西瓜决策树-sklearn实现_第1张图片

DecisionTreeClassifier参数说明

  • riterion:特征选择标准,可选参数,默认是gini,可以设置为entropy。gini是基尼不纯度,是将来自集合的某种结果随机应用于某一数据项的预期误差率,是一种基于统计的思想。entropy是香农熵,也就是上篇文章讲过的内容,是一种基于信息论的思想。Sklearn把gini设为默认参数,应该也是做了相应的斟酌的,精度也许更高些?ID3算法使用的是entropy,CART算法使用的则是gini。

  • splitter:特征划分点选择标准,可选参数,默认是best,可以设置为random。每个结点的选择策略。best参数是根据算法选择最佳的切分特征,例如gini、entropy。random随机的在部分划分点中找局部最优的划分点。默认的”best”适合样本量不大的时候,而如果样本数据量非常大,此时决策树构建推荐”random”。

  • max_features:划分时考虑的最大特征数,可选参数,默认是None。寻找最佳切分时考虑的最大特征数(n_features为总共的特征数),有如下6种情况:

    • 如果max_features是整型的数,则考虑max_features个特征;

    • 如果max_features是浮点型的数,则考虑int(max_features * n_features)个特征;

    • 如果max_features设为auto,那么max_features = sqrt(n_features);

    • 如果max_features设为sqrt,那么max_featrues = sqrt(n_features),跟auto一样;

    • 如果max_features设为log2,那么max_features = log2(n_features);

    • 如果max_features设为None,那么max_features = n_features,也就是所有特征都用。

一般来说,如果样本特征数不多,比如小于50,我们用默认的”None”就可以了,如果特征数非常多,我们可以灵活使用刚才描述的其他取值来控制划分时考虑的最大特征数,以控制决策树的生成时间。

  • max_depth:决策树最大深,可选参数,默认是None。这个参数是这是树的层数的。层数的概念就是,比如在贷款的例子中,决策树的层数是2层。如果这个参数设置为None,那么决策树在建立子树的时候不会限制子树的深度。一般来说,数据少或者特征少的时候可以不管这个值。或者如果设置了min_samples_slipt参数,那么直到少于min_smaples_split个样本为止。如果模型样本量多,特征也多的情况下,推荐限制这个最大深度,具体的取值取决于数据的分布。常用的可以取值10-100之间。

  • min_samples_split:内部节点再划分所需最小样本数,可选参数,默认是2。这个值限制了子树继续划分的条件。如果min_samples_split为整数,那么在切分内部结点的时候,min_samples_split作为最小的样本数,也就是说,如果样本已经少于min_samples_split个样本,则停止继续切分。如果min_samples_split为浮点数,那么min_samples_split就是一个百分比,ceil(min_samples_split * n_samples),数是向上取整的。如果样本量不大,不需要管这个值。如果样本量数量级非常大,则推荐增大这个值。

  • min_weight_fraction_leaf:叶子节点最小的样本权重和,可选参数,默认是0。这个值限制了叶子节点所有样本权重和的最小值,如果小于这个值,则会和兄弟节点一起被剪枝。一般来说,如果我们有较多样本有缺失值,或者分类树样本的分布类别偏差很大,就会引入样本权重,这时我们就要注意这个值了。

  • max_leaf_nodes:最大叶子节点数,可选参数,默认是None。通过限制最大叶子节点数,可以防止过拟合。如果加了限制,算法会建立在最大叶子节点数内最优的决策树。如果特征不多,可以不考虑这个值,但是如果特征分成多的话,可以加以限制,具体的值可以通过交叉验证得到。

  • class_weight:类别权重,可选参数,默认是None,也可以字典、字典列表、balanced。指定样本各类别的的权重,主要是为了防止训练集某些类别的样本过多,导致训练的决策树过于偏向这些类别。类别的权重可以通过{class_label:weight}这样的格式给出,这里可以自己指定各个样本的权重,或者用balanced,如果使用balanced,则算法会自己计算权重,样本量少的类别所对应的样本权重会高。当然,如果你的样本类别分布没有明显的偏倚,则可以不管这个参数,选择默认的None。

  • random_state:可选参数,默认是None。随机数种子。如果是证书,那么random_state会作为随机数生成器的随机数种子。随机数种子,如果没有设置随机数,随机出来的数与当前系统时间有关,每个时刻都是不同的。如果设置了随机数种子,那么相同随机数种子,不同时刻产生的随机数也是相同的。如果是RandomState instance,那么random_state是随机数生成器。如果为None,则随机数生成器使用np.random。

  • min_impurity_split:节点划分最小不纯度,可选参数,默认是1e-7。这是个阈值,这个值限制了决策树的增长,如果某节点的不纯度(基尼系数,信息增益,均方差,绝对差)小于这个阈值,则该节点不再生成子节点。即为叶子节点 。

  • presort:数据是否预排序,可选参数,默认为False,这个值是布尔值,默认是False不排序。一般来说,如果样本量少或者限制了一个深度很小的决策树,设置为true可以让划分点选择更加快,决策树建立的更加快。如果样本量太大的话,反而没有什么好处。问题是样本量少的时候,我速度本来就不慢。所以这个值一般懒得理它就可以了。

sklearn拟合代码

# 采用ID3拟合
dtc = DecisionTreeClassifier(criterion='entropy')
# 进行拟合
dtc.fit(data.iloc[:,:-1].values.tolist(),data.iloc[:,-1].values) 
# 标签对应编码
result = dtc.predict([[0,0,0,0,0,0]])
#拟合结果
result
array(['否'], dtype=object)

五、CART拟合

CART算法

CART(Classification And Regression Tree)算法既可以用于创建分类树,也可以用于创建回归树。CART算法的重要特点包含以下三个方面:

二分(Binary Split):在每次判断过程中,都是对样本数据进行二分。CART算法是一种二分递归分割技术,把当前样本划分为两个子样本,使得生成的每个非叶子结点都有两个分支,因此CART算法生成的决策树是结构简洁的二叉树。由于CART算法构成的是一个二叉树,它在每一步的决策时只能是“是”或者“否”,即使一个feature有多个取值,也是把数据分为两部分
单变量分割(Split Based on One Variable):每次最优划分都是针对单个变量。
剪枝策略:CART算法的关键点,也是整个Tree-Based算法的关键步骤。剪枝过程特别重要,所以在最优决策树生成过程中占有重要地位。有研究表明,剪枝过程的重要性要比树生成过程更为重要,对于不同的划分标准生成的最大树(Maximum Tree),在剪枝之后都能够保留最重要的属性划分,差别不大。反而是剪枝方法对于最优树的生成更为关键。

基尼指数:

CART的分支标准建立在GINI指数这个概念上,GINI指数主要是度量数据划分的不纯度,是介于0~1之间的数。GINI值越小,表明样本集合的纯净度越高;GINI值越大表明样本集合的类别越杂乱。直观来说,GINI指数反映了从数据集中随机抽出两个样本,其类别不一致的概率。衡量出数据集某个特征所有取值的Gini指数后,就可以得到该特征的Gini Split info,也就是GiniGain。不考虑剪枝情况下,分类决策树递归创建过程中就是每次选择GiniGain最小的节点做分叉点,直至子数据集都属于同一类或者所有特征用光了。的计算过程如下:

对于一个数据集T,将某一个特征作为分支标准,其第ii个取值的Gini指数计算方式为:gini(Ti)=1−∑nj=1p2jgini(Ti)=1−∑j=1npj2,其中nn表示数据的类别数,pjpj表样本属于第j个类别的概率。计算出某个样本特征所有取值的Gini指数后就可以得到Gini Split Info:Ginisplit(T)=∑2i=1NiNgini(Ti)Ginisplit(T)=∑i=12NiNgini(Ti),其中NN 表示样本总数,NiNi表示属于特征第ii个属性值的样本数。

# 采用CART拟合
dtc = DecisionTreeClassifier()
# 进行拟合
dtc.fit(data.iloc[:,:-1].values.tolist(),data.iloc[:,-1].values) 
# 标签对应编码
result = dtc.predict([[0,0,0,1,0,0]])
#拟合结果
result
array(['是'], dtype=object)

六、参考

[机器学习-Sklearn]决策树学习与总结

你可能感兴趣的:(人工智能,决策树,sklearn)