ROC和AUC介绍及计算

        AUC是一种用来度量分类模型好坏的一个标准。它跟ROC有着密切的关系,所以先介绍ROC,再来分析AUC以及它的计算。

  • ROC曲线

      ROC曲线能够反映分类的能力,它的横坐标是falsepositive rate(FPR),纵坐标是truepositive rate(TPR)。(晕定义的可以跳到下一段)对某个分类器而言,我们可以根据其在测试样本上的表现得到一个TPRFPR点对。这样,此分类器就可以映射成ROC平面上的一个点。调整这个分类器分类时候使用的阈值,我们就可以得到一个经过(0,0)(1, 1)的曲线,这就是此分类器的ROC曲线。一般情况下,这个曲线都应该处于(0,0)(1, 1)连线的上方。因为(0, 0)(1, 1)连线形成的ROC曲线实际上代表的是一个随机分类器。如果很不幸,你得到一个位于此直线下方的分类器的话,一个直观的补救办法就是把所有的预测结果反向,即:分类器输出结果为正类,则最终分类的结果为负类,反之,则为正类。总之,我们需要计算FPR和TPR,那这两个参数的具体计算方法是什么呢?

    针对一个二分类问题,将实例分成正类(postive)或者负类(negative)。但是实际中分类时,会出现四种情况.

(1)若一个实例是正类并且被预测为正类,即为真正类(True Postive TP)

(2)若一个实例是正类,但是被预测成为负类(漏报),即为假负类(False Negative FN)

(3)若一个实例是负类,但是被预测成为正类(误报),即为假正类(False Postive FP)

(4)若一个实例是负类,但是被预测成为负类,即为真负类(True Negative TN)

列联表如下,1代表正类,0代表负类:

 

预测

  合计

1

0

实际

  

1 (P)

True PositiveTP

False NegativeFN

Actual Positive(TP+FN)

0 (N)

False PositiveFP)

True Negative(TN)

Actual Negative(FP+TN)

合计  

Predicted Positive(TP+FP)

Predicted Negative(FN+TN)

TP+FP+FN+TN

我们的ROC曲线如下图所示:

ROC和AUC介绍及计算_第1张图片

 

 

纵坐标是truepositive rate(TPR) = TP / (TP+FN=P)(分母是横行的合计)直观解释:实际是1中,猜对多少

横坐标是falsepositive rate(FPR) = FP / (FP+TN=N)直观解释:实际是0中,错猜多少

接下来我们考虑ROC曲线图中的四个点和一条线。第一个点,(0,1),即FPR=0, TPR=1,这意味着FNfalse negative=0,并且FPfalse positive=0Wow,这是一个完美的分类器,它将所有的样本都正确分类。第二个点,(1,0),即FPR=1TPR=0,类似地分析可以发现这是一个最糟糕的分类器,因为它成功避开了所有的正确答案。第三个点,(0,0),即FPR=TPR=0,即FPfalse positive=TPtrue positive=0,可以发现该分类器预测所有的样本都为负样本(negative)。类似的,第四个点(1,1),分类器实际上预测所有的样本都为正样本。经过以上的分析,我们可以断言,ROC曲线越接近左上角,该分类器的性能越好。

 下面我们来举个栗子,判断一下哪个分类器好一些:

 

A类样本90

B 类样本10

分类精度(分类正确占比)

分类器C1结果

A*90  (100%)

A*10 (0%)

90%

分类器C2结果

A*70 +  B*20 (78%)

A*5 + B*5  (50%)

75%

 

试样本中有A类样本90个,B类样本10个。分类器C1把所有的测试样本都分成了A类,分类器C2A类的90个样本分对了70个,B类的10个样本分对了5个。则C1的分类精度为90%C2的分类精度为75%,但直觉上,我们感觉C2更有用些。

       我们计算它的FPR和TRP,如下所示:

 

FPR

TPR

c1

10/10=1

90/90=1

c2

5/10=0.5

70/90=0.78

ROC上可知,c2的分类更接近于左上角,它的分类能力要比c1好。

roc曲线的时候,threshold采样点是有限的离散化点,其实就用score(什么是score?就是分类器给你的输入打的分),毕竟score是有限的。画曲线需要两个值TP/PFP/NPN可以先扫描一遍找出来,后面不会变的。把score排一下序,从高到底,依次作为threshold>=threshold的我们预测为p,其他为n)。

 

ROC和AUC介绍及计算_第2张图片

 
                                                                                                                  (1)data

 

                                                                                                                    

ROC和AUC介绍及计算_第3张图片

 

                                                                                                                            (2)ROC

当我们以0.6作为阈值,则在所有的10个正样本中,有3个是判断成了正样本,10个负样本中有一个被判断成了正样本,则TP/P=0.3FP/N=0.1,所以它的坐标为(0.10.3)。

  • 什么是AUC?

虽然ROC能够衡量模型的好坏,但是我们总是希望能够用一个数值来表达这个结果,于是AUC就产生了,它就是ROC的曲线下面的面积。

  • 怎样计算AUC

       由于我们的测试样本是有限的。我们得到的AUC曲线必然是一个阶梯状的。因此,计算的AUC也就是这些阶梯下面的面积之和。这样,我们先把score排序(假设score越大,此样本属于正类的概率越大),然后一边扫描就可以得到我们想要的AUC。当多个测试样本的score相等的时候,先累加正样本和先累加负样本的差异(先加TP往上走,还是FP往右走)。得到的不是曲线一个阶梯往上或者往右的延展,而是斜着向上形成一个梯形。此时,我们就需要计算这个梯形的面积。

python代码如下:

#!/usr/bin/python
import sys


#统计正负样本数
positive_vec = [0 for n in range(1000001)]
negative_vec = [0 for n in range(1000001)]

for line in sys.stdin:
    segs = line.strip('\n').split('\t')
    if len(segs) < 2:
        continue

    score = float(segs[0])
    flag = int(segs[1])

    label = flag
    if label > 0:
        label = 1
    val = score
    if val < 0.0 or val > 1.0:
        continue
    new_val = int(val * 1000000)
    if label > 0:
        positive_vec[new_val] += 1
    else:
        negative_vec[new_val] += 1

#计算梯形面积
sum_pos = 0
sum_neg = 0
area = 0
for i in range(1000000, -1, -1):
    area += (sum_pos * 2 + positive_vec[i]) * negative_vec[i] / 2
    sum_pos += positive_vec[i]
    sum_neg += negative_vec[i]

auc = float(area) / (sum_pos * sum_neg)

print str(auc)


使用方法:

假设上面的文件命名为auc.py输入数据为data.txt,格式为

score1,flag1

score2,flag2

...

scorek, flagk

其中0<=score=<1

flag=0 or 1(这是一个计算二分类的auc的方法,flag也可以取其它的二值 )

linux下使用命令,即为所求的auc

cat data.txt | python auc.py


不过,你也可以使用scikit-learn里面的计算auc的方法

 
 
 
 
 
 

 

 

 

你可能感兴趣的:(ROC和AUC介绍及计算)