Machine Learning with Scikit-Learn and Tensorflow 6.6 基尼不纯度/熵

书籍信息
Hands-On Machine Learning with Scikit-Learn and Tensorflow
出版社: O’Reilly Media, Inc, USA
平装: 566页
语种: 英语
ISBN: 1491962291
条形码: 9781491962299
商品尺寸: 18 x 2.9 x 23.3 cm
ASIN: 1491962291

系列博文为书籍中文翻译
代码以及数据下载:https://github.com/ageron/handson-ml

此为6.1得到的决策树

Machine Learning with Scikit-Learn and Tensorflow 6.6 基尼不纯度/熵_第1张图片

默认情况下,scikit-learn的决策树使用基尼不纯度评估结点分裂。通过设置criterion=”entropy”,可以使用熵评估结点分裂。熵度量体系的混乱程度,定义如下:

Hi=k=1,pi,k0npi,klog2(pi,k)

其中 pi,k 是结点 i 样本中类别 k 样本的比例。
如果样本集合只含有特定类别的样本,那么熵是0。
以左下角的结点为例,熵是 4954log(4954)554log(554)0.31

译者注:
实际上,划分决策树的依据是信息增益,即熵减少的数值。

那么我们应该使用基尼不纯度还是信息增益呢?大部分时候,他们会得到相似的结果。基尼不纯度的速度相对较快,所以被用作默认值。相比之下,基尼不纯度倾向于将频繁出现的类别单独安排在特定分支,熵产生的决策树相对比较平衡。

你可能感兴趣的:(机器学习)