决策树相关算法

本博文记录决策树相关算法原理,用来对付面试问题…

决策树

决策树信息熵:
e n t r o p y ( D ) = − ∑ i = 1 n P i l o g 2 P i entropy(D) = -\sum_{i=1}^n P_ilog_2 P_i entropy(D)=i=1nPilog2Pi
G a i n ( A ) = e n t r o p y ( D ) − e n t r o p y A ( D ) Gain(A) = entropy(D) - entropy_A(D) Gain(A)=entropy(D)entropyA(D)
最大化 G a i n ( A ) Gain(A) GainA

随机森林

多棵决策树,只不过训练集不同。每棵决策树从训练集中有放回地抽取N个样本来训练。最后投票决定分类结果。

Gradient Boosting Tree

还是多棵决策树,只不过后一个树的生成是基于前面树的学习结果生成的。

你可能感兴趣的:(学习笔记)