吃瓜教程-模型的评估与选择

  • 在训练集上的误差称为训练误差(training error)或经验误差(empirical error)。
  • 在测试集上的误差称为测试误差(test error)。
  • 学习器在所有新样本上的误差称为泛化误差(generalization error)。
  • 学习能力过强,以至于把训练样本所包含的不太一般的特性都学到了,称为:过拟合(overfitting)。
  • 学习能太差,训练样本的一般性质尚未学好,称为:欠拟合(underfitting)。

 训练集与测试集的划分方法

留出法

交叉验证法

自助法

性能度量

回归任务中采用了MSE作为评价函数

吃瓜教程-模型的评估与选择_第1张图片

查准率/查全率/F1

吃瓜教程-模型的评估与选择_第2张图片

“P-R曲线”正是描述查准/查全率变化的曲线,P-R曲线定义如下:根据学习器的预测结果(一般为一个实值或概率)对测试样本进行排序,将最可能是“正例”的样本排在前面,最不可能是“正例”的排在后面,按此顺序逐个把样本作为“正例”进行预测,每次计算出当前的P值和R值

吃瓜教程-模型的评估与选择_第3张图片

F-Score

ROC与AUC

吃瓜教程-模型的评估与选择_第4张图片

吃瓜教程-模型的评估与选择_第5张图片

代价敏感错误率与代价曲线

代价曲线的绘制很简单:设ROC曲线上一点的坐标为(TPR,FPR) ,则可相应计算出FNR,然后在代价平面上绘制一条从(0,FPR) 到(1,FNR) 的线段,线段下的面积即表示了该条件下的期望总体代价

假设检验部分略

偏差与方差

在欠拟合时,偏差主导泛化误差,而训练到一定程度后,偏差越来越小,方差主导了泛化误差。

吃瓜教程-模型的评估与选择_第6张图片

你可能感兴趣的:(机器学习,深度学习,人工智能)