周志华机器学习第二章总结及课后答案

2.1 经验误差与过拟合

通常我们把分类错误的样本总数的比例称为错误率(error rate),即如果在m个样本中有a个样本分类错误,则错误率E=a/m;相应的,1-a/m称为”精度”(accuracy),更一般的,我们把学习器的实际预测输出与样本的真实输出之间的差异称为“误差”,学习器在训练集上的误差称为“训练误差”或“经验误差”,在新样本上的误差称为“泛化误差”。

  • 过拟合(overfitting):当学习器把训练样本学得“太好了”的时候,很可能已经把训练样本自身的一些特点当作了所有潜在样本都会有的一般性质,这样就会导致泛化性能下降。相反则称为欠拟合(underfitting)
  • 注意:我们必须认识到过拟合是无法避免的,我们所能做的只是“缓解”,或者说减小其风险。关于这一点,可大致这样理解:机器学习面临的问题是NP难甚至更难,而有效的学习算法必然在多项式时间内运行完成,若可避免过拟合,则通过经验误差最小化就能获得最优解,这就意为着我们构造性的证明了“P=NP”,因此只要相信P不等于NP过拟合就不可避免。

2.2 评估方法

  • 留出法(hold-out):直接将数据集D划分为两个互斥的集合,其中一个集合作为训练集S,另一个作为测试集T,即
    注意:训练/测试集的划分要尽可能保持数据分布的一致性,避免因数据划分过程引入额外的偏差而对最终结果产生影响。如果实在不能保证数据分布的一致性,请参考我在深度学习中的笔记: 2.3在不同的划分上进行训练并测试。
  • 交叉验证法(cross validation):先将数据集D划分为k个大小相似的互斥子集,即
  • 待更新……

你可能感兴趣的:(机器学习笔记)