65-Precision-Recall曲线

  
  这篇博客我将用可视化的方法更直观的看到精准率和召回率之间的关系。


Precision-Recall曲线

  
65-Precision-Recall曲线_第1张图片
65-Precision-Recall曲线_第2张图片
65-Precision-Recall曲线_第3张图片
65-Precision-Recall曲线_第4张图片
65-Precision-Recall曲线_第5张图片


最后对于 Precision-Recall 曲线整体是这样趋势的一条直线:

65-Precision-Recall曲线_第6张图片
  
  这条曲线随着 P r e c i s i o n Precision Precision 的值的增大 R e c a l l Recall Recall 值逐渐降低。假设我们有两个算法,对于同一个算法中我们用两组超参数来训练,那么每训练出一个模型就可以对应一个 Precision-Recall 曲线,如果另外一个算法得到的 PR 曲线(外层曲线)是这样的:
65-Precision-Recall曲线_第7张图片
  它整体都在前一根曲线的外面,这样的一个结果就明显可以得出外面的曲线所对应的模型是优于里面这个模型的,因为外面的曲线所对应的 P r e c i s i o n Precision Precision R e c a l l Recall Recall 值都比里面的曲线的大。所以整体来说,外面这个曲线代表的的模型是更加好的。以此我们可以将 PR 曲线作为选择模型,选择算法,选择超参数的指标。

  那么对于这个指标,我们说里外可能相对有些抽象,我们有些时候会用这根曲线和 x x x 轴, y y y 轴所围的面积来看模型的好坏,相应的,面积越大,模型越好。不过,在大多数情况下,我们都不用 PR 曲线的面积来衡量模型的优劣,我们会用另外一根曲线和 x x x 轴, y y y 轴所围的面积来衡量模型的优劣,这根曲线就是著名的 R O C ROC ROC 曲线,我们在下一篇博客将会详细介绍。


   具体代码见 65 Precision-Recall曲线.ipynb

你可能感兴趣的:(机器学习)