AUC(Area Under Curve)

AUC有两种,ROC-AUC, PR-AUC

ROC由TPR, FPR画出

PR由P和R画出

注意 TPR==R

适用场景

类别相对来说较均衡时,可以使用 ROC-AUC,当类别极其不均衡时使用 PR-AUC 较好

假设我们有一个二分类问题,要识别是否是垃圾邮件(1 表示垃圾邮件,0 表示非垃圾邮件)。样本非常不平衡,有 950 个非垃圾邮件和 50 个垃圾邮件。我们有一个模型,其预测结果如下:

  • 真正例(True Positive, TP):正确标记了 40 个垃圾邮件
  • 假正例(False Positive, FP):错误地将 10 个非垃圾邮件标记为垃圾邮件
  • 真负例(True Negative, TN):正确标记了 940 个非垃圾邮件
  • 假负例(False Negative, FN):错误地将 10 个垃圾邮件标记为非垃圾邮件

计算 ROC-AUC 相关指标

  1. 真正例率(True Positive Rate, TPR)或召回率(Recall)= TP / (TP + FN) = 40 / (40 + 10) = 0.8
  2. 假正例率(False Positive Rate, FPR)= FP / (FP + TN) = 10 / (10 + 940) = 0.0105

计算 PR-AUC 相关指标

  1. 精度(Precisi

你可能感兴趣的:(八股,机器学习,机器学习,深度学习,人工智能)