这系列的题目来源于周晓飞老师期末发的题库,自留做复习用的 加油加油!
目录
- 单选题19
- 单选题20
- 单选题23
- 简答题21
-
- 计算题5
-
知识点可以参考博主的这篇文章
【一起入门MachineLearning】中科院机器学习第*课-非线性分类:决策树
单选题19
- A:非纯度用来描述决策树的分类结果,非纯度越大说明分类结果越不好,所以非纯度应该是越小越好,等于0代表只有1类,使我们期待的结果。A错误。
- B:信息增益是用来描述“熵变小”的指标,信息增益越大,说明熵下降得越快,非纯度越小。因此信息增益越大越好。B正确。
- C:信息增益率是为了解决信息增益会导致倾向于选择种类多的特征属性的缺点,本质上也还是描述“熵变小”,所以和信息增益一样,也是越大越好。C错误。
- D:基尼指数越小越好。D错误。
总结:
- 非纯度要尽可能小
- 熵,基尼指数(Gini Index)和分类误差的值尽可能小
- 信息增益/信息增益率尽可能大(信息增益描述熵下降的程度)
- 基尼指数尽可能小
- ID3 C4.5要求越大越好,CART要求越大越好
单选题20
- 决策树策略:最大信息增益,最大信息增益率,最小基尼指数,D正确。
单选题23
- 决策树剪枝的目的是减少树结点使其变为一棵尽可能简单的树,树的深度越低也意味着搜索时间越短,越高效。正确答案是C。
- 此外说一句题外话,根据单选题的做题技巧,答案A和答案C是相反的答案,其中必有一个正确答案。
简答题21
ID3
C4.5
CART
计算题5
按照上一个简答题整理的公式直接计算就行
ID3
C4.5
红色数值表示和老师提供的标准答案不一样,但是和同学对过答案了,我合理怀疑答案有问题。
CART
CART这一块老师给的答案多少有点匪夷所思了,我保留我自己计算的答案。