机器学习决策树笔记

信息熵(entropy)

变量的不确定性越大,熵也就越大


机器学习决策树笔记_第1张图片


ID3算法

有A节点的信息获取量和没有A的信息获取量之间的差

Gain(A)=Info(D)-Info_A(D);

你可能感兴趣的:(机器学习决策树笔记)