在sklearn库里,用于评估模型预测的质量的API一共有3种:
score()
,面向其要解决的问题,可以提供一个默认评估标准。 这部分内容不在本文中讲述,因为它因不同的模型而异,所以会在各个模型的介绍文档中讲述。model_selection.cross_val_score
和model_selection.GridSearchCV
)依赖于内部评分策略。这些内容会在其他章节(评分参数:定义模型评判规则)中讨论。metrics
模块实现了针对特定目的评估误差的功能。 这些指标会在下面这些章节详细介绍:Classification metrics, Multilabel ranking metrics, Regression metrics and Clustering metrics. 声明:
模型选择和评估通常使用工具(比如model_selection.GridSearchCV
和model_selection.cross_val_score
),使用一个scoring
参数控制那个被我们应用在我们的评价系统的度量方法。
对于最常见的用例,您可以指定一些自带scoring
参数的评分对象; 下表显示了所有可能的值。 所有得分手对象遵循惯例:返回值越大,分数越高,模型越优。 因此,衡量模型和数据之间距离的度量(如metrics.mean_squared_error
)可以用它们的负值作为评分对象的返回值。
Scoring | Function | Comment |
---|---|---|
分类 | ||
‘accuracy’ | metrics.accuracy_score |
|
‘average_precision’ | metrics.average_precision_score |
|
‘f1’ | metrics.f1_score |
|
‘f1_micro’ | metrics.f1_score |
|
f1_macro’ | metrics.f1_score |
|
‘f1_weighted’ | metrics.f1_score |
|
‘f1_samples’ | metrics.f1_score |
|
‘neg_log_loss’ | metrics.log_loss |
|
‘precision’ etc | metrics.precision_score |
|
‘recall’ etc | metrics.recall_score |
|
‘roc_auc’ | metrics.roc_aur_score |
|
聚类 | ||
‘adjusted_mutual_info_score’ | metrics.adjusted_mutual_info_score |
|
‘adjusted_rand_score’ | metrics.adjusted_rand_score |
|
‘completeness_score’ | metrics.completeness_score |
|
‘fowlkes_mallow | s_score’ | metrics.fowlkes_mallows_score |
‘homogeneity_score’ | metrics.homogeneity_score |
|
‘mutual_info_score’ | metrics.mutual_info_score |
|
‘normalized_mutual_info_score’ | metrics.normalized_mutual_info_score |
|
‘v_measure_score’ | metrics.v_measure_score |
|
回归 | ||
‘explained_variance’ | metrics.explained_variance_score |
|
‘neg_mean_absolute_error’ | metrics.mean_absolute_error |
|
‘neg_mean_squared_error’ | metrics.mean_squared_error |
|
‘neg_mean_squared_log_error’ | metrics.mean_squared_log_error |
|
‘neg_median_absolute_error’ | metrics.median_absolute_error |
|
‘r2’ | metrics.r2_score |
例子:
from sklearn import svm, datasets # 导入SVM模型库和数据集库
from sklearn.model_selection import cross_val_score # 导入模型选择库中的交叉验证分数函数
'''加载鸢尾花数据集'''
iris = datasets.load_iris()
X, y = iris.data, iris.target
clf = svm.SVC(probability=True, random_state=0) # 创建SVC分类器
'''输出分类器的评分'''
score_arr = cross_val_score(clf, X, y, scoring='neg_log_loss')
print score_arr # 输出 [-0.0757138 -0.16816241 -0.07091847]
print score_arr.shape # 输出 (3L,)
model = svm.SVC() # 在创建一个SVC分类器
'''应用另一种不存在的评分方式'''
cross_val_score(model, X, y, scoring='wrong_choice') # 会报错ValueError
PS:ValueError异常列出的值对应于以下部分中描述的测量预测精度的函数。 这些评分对象存储在字典sklearn.metrics.SCORERS
中。
模块sklearn.metrics
还展示了一组测量预测误差(给出了真实值和预测值)的简单函数:
_score
结尾的函数返回值用于最大化,越高越好_error
或_loss
结尾的函数返回一个值用于最小化,越低越好。当使用make_scorer()
函数将其转换为评分对象时,请将greater_is_better
参数设置为False(默认为True)。可用于各种机器学习任务的指标在下面详细介绍。
许多指标不会以scoring
为名称,有时是因为它们需要其他参数,例如fbeta_score
。在这种情况下,您需要生成一个适当的scorer对象。生成可评估对象进行评分的最简单的方法是使用make_scorer()
函数。该函数将度量转换为可用于模型评估的可调用的数据类型(callable)。
一个典型的用例是使用无默认值的参数转换包装库中已存在的度量函数,例如fbeta_score()
函数的beta
参数:
from sklearn.metrics import fbeta_score, make_scorer # 导入fbeta评分函数和一个转换函数
ftwo_scorer = make_scorer(fbeta_score, beta=2) # 通过make_scorer创建新方法
from sklearn.model_selection import GridSearchCV
from sklearn.svm import LinearSVC
'''待评价的分类模型是线性SVC,超参数域为{1, 10}, 评分方法为前面新转换的方法'''
grid = GridSearchCV(LinearSVC(), param_grid={'C': [1, 10]}, scoring=ftwo_scorer)
第二个用例是使用make_scorer将一个简单的python函数构建一个完全自定义的scorer对象,它可以使用几个参数:
my_custom_loss_func()
)greater_is_better = True
,默认值)或一个损失值(greater_is_better= False
)。 如果一个损失,得分器对象的python函数的输出被取负值以符合交叉验证惯例,更优的模型返回更高的值。needs_threshold = True
)。 默认值为False。f1_score()
函数中的参数:beta
和labels
。以下是建立自定义scorer,以及使用greater_is_better
参数的示例:
import numpy as np
def my_custom_loss_func(ground_truth, predictions):
"""
自定义损失函数——其实就是典型的SVM损失函数
groud_truth: 真实值
predictions: 预测值
"""
diff = np.abs(ground_truth - predictions).max()
return np.log(1 + diff)
loss = make_scorer(my_custom_loss_func, greater_is_better=False) # 创建为scorer
score = make_scorer(my_custom_loss_func, greater_is_better=True)
ground_truth = [[1], [1]]
predictions = [0, 1]
from sklearn.dummy import DummyClassifier
clf = DummyClassifier(strategy='most_frequent', random_state=0) # 创建简陋分类模型
clf = clf.fit(ground_truth, predictions) # 训练模型
loss(clf,ground_truth, predictions) # 损失值,False:取负
score(clf,ground_truth, predictions) # 评分, True:取正
这个代码是没有实际意义的,只是为了体现两点
- 自定义评分函数时,需要用到真实值和预测值,然后根据自己的想法输出预测的误差或者分值,这里输出的是误差。
make_scorer()
函数的参数greater_is_better
是为了适应灵活的自定义评分函数的。当你的评分函数输出损失值的时候,参数为False,即对损失值取负;输出分值的时候,反之。这都是为了遵从前面所说的越大越优的惯例。
您可以通从头开始构建自己的评分对象,而不使用make_scorer()
工厂函数,这样生成的scorer模型更灵活。 要成为scorer,需要符合以下两个规则所指定的协议:
(estimator,X,y)
调用,其中estimator是应该评估的模型,X是验证数据,y是X(在监督的情况下)的真实标签或None(在无监督的情况下)。 Scikit-learn还允许在GridSearchCV
,RandomizedSearchCV
和cross_validate
中使用多个度量指标。为评分参数指定多个评分指标有两种方法:
scoring = ['accuracy', 'precision']
from sklearn.metrics import accuracy_score
from sklearn.metrics import make_scorer
scoring = {'accuracy': make_scorer(accuracy_score),
'prec': 'precision'}
请注意,字典中的值可以是scorer函数,也可以是一个预定义的度量指标的字符串。目前,只有那些返回单一分数的scorer函数才能在dict内传递。 不允许返回多个值的Scorer函数,并且需要一个包装器才能返回一个度量:
from sklearn.model_selection import cross_validate # 交叉验证函数
from sklearn.metrics import confusion_matrix
X, y = datasets.make_classification(n_classes=2, random_state=0) # 一个简陋的二分类数据集
svm = LinearSVC(random_state=0)
def tp(y_true, y_pred): return confusion_matrix(y_true, y_pred)[0, 0]
def tn(y_true, y_pred): return confusion_matrix(y_true, y_pred)[0, 0]
def fp(y_true, y_pred): return confusion_matrix(y_true, y_pred)[1, 0]
def fn(y_true, y_pred): return confusion_matrix(y_true, y_pred)[0, 1]
scoring = {'tp' : make_scorer(tp), 'tn' : make_scorer(tn),
'fp' : make_scorer(fp), 'fn' : make_scorer(fn)}
cv_results = cross_validate(svm.fit(X, y), X, y, scoring=scoring)
print(cv_results['test_tp']) # 获取test数据集的tp值 [12 13 15]
print(cv_results['test_fn']) # 获取test数据集的fn值 [5 4 1]
sklearn.metrics模块实现了几种损失函数、评分函数和功能函数来测量分类性能。 某些指标可能需要正例,置信度值或二进制决策值的概率估计。 大多数指标应用的是:通过sample_weight
参数,让每个样本为总分提供加权贡献。
其中一些仅限于二进制分类案例:
precision_recall_curve(y_true, probas_pred) |
roc_curve(y_true, y_score[, pos_label, …]) |
还有一些仅限于多分类情形:
cohen_kappa_score(y1, y2[, labels, weights, …]) |
confusion_matrix(y_true, y_pred[, labels, …]) |
hinge_loss(y_true, pred_decision[, labels, …]) |
matthews_corrcoef(y_true, y_pred[, …]) |
还有一些可用于多标签情形:
accuracy_score(y_true, y_pred[, normalize, …]) |
classification_report(y_true, y_pred[, …]) |
f1_score(y_true, y_pred[, labels, …]) |
fbeta_score(y_true, y_pred, beta[, labels, …]) |
hamming_loss(y_true, y_pred[, labels, …]) |
jaccard_similarity_score(y_true, y_pred[, …]) |
log_loss(y_true, y_pred[, eps, normalize, …]) |
precision_recall_fscore_support(y_true, y_pred) |
precision_score(y_true, y_pred[, labels, …]) |
recall_score(y_true, y_pred[, labels, …]) |
zero_one_loss(y_true, y_pred[, normalize, …]) |
一些是通常用于分级的:
dcg_score(y_true, y_score[, k]) |
ndcg_score(y_true, y_score[, k]) |
而且许多是用于二分类和多标签问题的,但不适用于多分类:
average_precision_score(y_true, y_score[, …]) |
roc_auc_score(y_true, y_score[, average, …]) |
下面的章节中,我们会描述每一个函数。
一些度量基本上是针对二进制分类任务(例如f1_score
,roc_auc_score
)定义的。在这些情况下,假设默认情况下,正类标记为1(尽管可以通过pos_label
参数进行配置),默认情况下仅评估正标签。
将二进制度量扩展为多类或多标签问题时,数据将被视为二分类问题的集合,即一对多类型。下面是综合二分类度量的值的多种方法,不同的方法可能适用于不同的情况,通过参数average
来选择:
"macro"
简单地计算二分类度量的平均值,赋予每个类别相同的权重。"weighted"
计算的是每个二分类度量的加权平均。"micro"
,每个二分类对总体度量的贡献是相等的(除了作为样本权重的结果)。"sample"
仅适用于多标签问题。它不计算每个类别的度量,而是计算评估数据中每个样本的真实和预测类别的度量,并返回(sample_weight-weighted)平均值。average = None
将返回每个类的分值。这里不懂的可以看下面章节——多分类多标签分类的例子
多标签数据用于指标评估时,也像二分类的标签传入一个类别标签的数组,传入的是一个标签矩阵,元素ij在样本i的标签是j的时候取值为1,否则为0。
accuracy_score
函数用于计算预测的精度。在多标签分类中,函数返回子集精度。 如果样本的整套预测标签与真正的标签组一致,则子集精度为1.0; 否则为0.0。如果 y^i 是第i个样本的预测值, yi 是相应的真实值,则 nsamples 上的精度为:
accuracy(y,y^)=1nsamples∑nsamples−1i=01(y^i=yi)
import numpy as np
from sklearn.metrics import accuracy_score
y_pred = [0, 2, 1, 3]
y_true = [0, 1, 2, 3]
accuracy_score(y_true, y_pred) # 用比值的方式输出精度 输出:0.5
accuracy_score(y_true, y_pred, normalize=False) # 用计数的方式输出精度 输出:2
'''多标签的情况'''
accuracy_score(np.array([[0, 1], [1, 1]]), np.ones((2, 2))) # 输出 0.5
解释一下多标签的情况,先看样本0——第一行,它的真实标签是[0, 1],预测标签为[1, 1],预测错误。样本1——第二行,它的真实标签是[1, 1],预测标签是[1, 1],预测正确。所以最后的预测精度为0.5。如果将参数
normalize
设为False的话,将输出1,即表示预测正确了一个。
函数cohen_kappa_score()
计算Cohen’s kappa统计量。这个方法是想比较不同的人表计的正确率,而非针对分类器。kappa分数是-1和1之间的数字。0.8以上的分数通常被认为是不错的结果; 零或更低表示没有效果(就像瞎蒙的一样)。
Kappa分数可用于二分类问题或多分类问题,但不能用于多重标签问题。
from sklearn.metrics import cohen_kappa_score
y_true = [2, 0, 2, 2, 0, 1]
y_pred = [0, 0, 2, 2, 0, 2]
cohen_kappa_score(y_true, y_pred) # 输出0.4285...
confusion_matrix()
函数通过计算混乱矩阵来评估分类精度。根据定义,元素ij表示:真实值为i,预测值为j的情况的个数,例子如下:
from sklearn.metrics import confusion_matrix
y_true = [2, 0, 2, 2, 0, 1]
y_pred = [0, 0, 2, 2, 0, 2]
confusion_matrix(y_true, y_pred)
解释一下,对于元素(0, 0)的值为2,表示真实值为0,预测为0的次数为2次;元素(2,0)的值为1, 表示真实值为2, 预测为0的次数为1次。矩阵的所有元素和为2+1+1+2 = 6,表示一共有6个样本参与预测。下图是一个关于混乱矩阵的例子:
y_true = [0, 0, 0, 1, 1, 1, 1, 1]
y_pred = [0, 1, 0, 1, 0, 1, 0, 1]
'''t表示正例,f表示反例,n表示预测错误,p表示预测正确'''
tn, fp, fn, tp = confusion_matrix(y_true, y_pred).ravel()
tn, fp, fn, tp # 输出 (2, 1, 2, 3)
函数classification_report()
创建了一个展示主要分类度量指标的文本报告,这是一个使用自定义target_name
和内部标签的小例程。
from sklearn.metrics import classification_report
y_true = [0, 1, 2, 2, 0]
y_pred = [0, 0, 2, 1, 0]
target_names = ['class 0', 'class 1', 'class 2']
cls_rpt = classification_report(y_true, y_pred, target_names=target_names)
print cls_rpt
print type(cls_rpt)
可以看到,函数
classification_report()
的运行结果是一个字符串,形如一个列表:列名是各种评分方法,行名是自定义的标签名字。
函数hamming_loss()
计算两组样本之间的平均汉明损失或汉明距离。如果 y^j 是给定样本的第j个标签的预测值,则 yj 是相应的真实值,而 nlabels 是类或标签的数量,则两个样本之间的汉明损失 Lhamming 定义为:
LHamming(y,y^)=1nlabels∑nlabels−1j=01(y^j≠yj)
是不是感觉很熟悉,哈哈,回忆一下之前的
accuracy_score()
。但是,汉明损失前面分式的分母是标签个数而不像精确度一样是样本个数,所以它们在多标签问题的结果不一样。汉明损失颇像下面的Jaccard相关系数。
from sklearn.metrics import hamming_loss
y_pred = [1, 2, 3, 4]
y_true = [2, 2, 3, 4]
hamming_loss(y_true, y_pred) # 二分类单一标签 输出 0.25
hamming_loss(np.array([[0, 1], [1, 1]]), np.zeros((2, 2))) # 二分类多标签 输出:0.75
jaccard_similarity_score()
函数计算标签集对之间的平均(默认)或Jaccard相似系数的总和,也称为Jaccard索引。设真实标签集 yi 和预测标签集合 y^i ,将第i个样本的Jaccard相似系数定义为
J(yi,y^i)=|yi∩y^i||yi∪y^i| 。
在二分类和多分类中,Jaccard相似系数分数等于分类的精度。
真实标签集与预测标签集的交集就是预测正确的部分;对于并集来说,一般情况下,预测机的结果都不会超纲,这种情况下并集就是真实标签集。然而在负载情况下,预测机的结果可能超出了真实标签集。
确实跟二分类或多分类的accuracy_score()
很相似。但是对于多标签问题,它们是截然不同的结果。
import numpy as np
from sklearn.metrics import jaccard_similarity_score
y_pred = [0, 2, 1, 3]
y_true = [0, 1, 2, 3]
jaccard_similarity_score(y_true, y_pred) # 输出 0.5
jaccard_similarity_score(y_true, y_pred, normalize=False) # 输出 0.75
到这里,都是大家常见的几种评分方式,也比较好理解,诸君可能觉得有点无聊,那么下面就是重头戏了。
直观地说,准确率(presicion)是分类器不错判的能力,并且召回率(recall)是分类器找到正例的能力。
F-measure()
( Fβ 和 F1 测量)可以解释为presicion和recall的加权调和平均值, Fβ 最大是1,最小是0。当 β = 1时, Fβ 和 F1 是等效的,并且此时回调和精度权值相等。precision_recall_curve()
通过改变判定阈值来计算关于真实值的presicion-recall曲线和分类器分值。average_precision_score()
函数根据预测分数计算出平均精度(AP)。该分数对应于presicion-recall曲线下的面积。该值在0和1之间,而且更高更好。 function | comment |
---|---|
average_precision_score(y_true, y_score[, …] | 计算平均准确度(AP) |
f1_score(y_true, y_pred[, labels, …]) | 计算F1分数 |
fbeta_score(y_true, y_pred, beta[, labels, …]) | 计算F-beta分数 |
precision_recall_curve(y_true, probas_pred) | 计算precision-recall曲线 |
precision_recall_fscore_support(y_true, y_pred) | 计算准确率、召回率、F度量和类别数 |
precision_score(y_true, y_pred[, labels, …]) | 计算准确度 |
recall_score(y_true, y_pred[, labels, …]) | 计算召回率 |
PS:precision_recall_curve()
函数仅限于二分类;average_precision_score()
函数仅限于二分类和多标签。
在二进制分类任务中,术语positive和negative是指分类器的预测情况,术语true和false是指该预测是否对应于外部判断 有时被称为’观察”)。 给出这些定义,我们可以制定下表:
真实类别 (observation) | ||
预测类别(expectation) | tp (true positive) 预测为positive,预测正确 | fp (false positive) 预测为positive,预测错误 |
fn (false negative)预测为negetive,预测错误 | tn (true negative)预测为negetive,预测正确 |
定义准确率、召回率和F度量:
precision=tptp+fp ,
recall=tptp+fn ,
Fβ=(1+β2)precision×recallβ2precision+recall .
例程:
from sklearn import metrics
y_pred = [0, 1, 0, 0]
y_true = [0, 1, 0, 1]
print metrics.precision_score(y_true, y_pred) # 准确率 输出:1.0
print metrics.recall_score(y_true, y_pred) # 召回率 输出: 0.5
print metrics.f1_score(y_true, y_pred) # f1分数 输出:0.66
print metrics.fbeta_score(y_true, y_pred, beta=0.5) # f-beta 输出: 0.83
print metrics.fbeta_score(y_true, y_pred, beta=1) # 输出: 0.66,与f1分数相等
print metrics.fbeta_score(y_true, y_pred, beta=2) # 输出: 0.55
print metrics.precision_recall_fscore_support(y_true, y_pred, beta=0.5)
# 最后输出数组(array([ 0.66..., 1. ]), array([ 1. , 0.5]), array([ 0.71..., 0.83...]), array([2, 2]...))
最后一个,函数
metrics.precision_recall_fscore_support()
的输出比较复杂,其实它是输出了很多结果。首先样本数据一共有2中标签:0和1,所以输出是成对的,分别对应着两种类别。然后4组数据分别表示:准确率、召回率、f度量和支持的类别数。
import numpy as np
from sklearn.metrics import precision_recall_curve
from sklearn.metrics import average_precision_score
y_true = np.array([0, 0, 1, 1])
y_scores = np.array([0.1, 0.4, 0.35, 0.8])
precision, recall, threshold = precision_recall_curve(y_true, y_scores)
'''可以看到准确率和召回率是负相关的'''
print precision # 输出: array([ 0.66..., 0.5 , 1. , 1. ])
print recall # 输出: array([ 1. , 0.5, 0.5, 0. ])
print threshold # 输出: array([ 0.35, 0.4 , 0.8 ])
print average_precision_score(y_true, y_scores) # 输出: 0.83...
在多类和多标签分类任务中,准确率、召回率和F度量的概念可以独立地应用于每个类别。 如上所述,有几种cross标签的方法:特别是由average
参数指定为average_precision_score
(仅限多标签),f1_score
,fbeta_score
,precision_recall_fscore_support
,precision_score
和recall_score
函数。
声明一波记号:
from sklearn import metrics
y_true = [0, 1, 2, 0, 1, 2]
y_pred = [0, 2, 1, 0, 0, 1]
print metrics.precision_score(y_true, y_pred, average='macro') # 输出:0.22
print metrics.recall_score(y_true, y_pred, average='micro') # 输出:0.33
print metrics.f1_score(y_true, y_pred, average='weighted') # 输出:0.26
print metrics.fbeta_score(y_true, y_pred, average='macro', beta=0.5) # 输出:0.23
print metrics.precision_recall_fscore_support(y_true, y_pred, beta=0.5, average=None) #输出:数组如下
# (array([ 0.66..., 0. , 0. ]), array([ 1., 0., 0.]), array([ 0.71..., 0. , 0. ]), array([2, 2, 2]...))
解释一下:对于标签0, 1, 2,它们的准确率分别是 23 , 02 和 01 。所以
macro
的计算方式是 13∗(23+02+01) ;micro
的计算方式是 2+0+03+2+1 ,即分子相加除以分母相加。
print metrics.recall_score(y_true, y_pred, labels=[1, 2], average='micro') # 输出:0.0
print metrics.precision_score(y_true, y_pred, labels=[0, 1, 2, 3], average='macro') # 输出:0.166..
上面代码显示了
label
参数的作用。
hinge_loss()
函数使用hinge损失计算模型和数据之间的平均距离,这是仅考虑预测误差的单侧度量。 (Hinge损失用于最大化边缘分类器,如SVM支持向量机)如果标签用+1和-1编码,则y是真实值,w是由decision_function()
输出的预测值,则hinge损失定义为:
LHinge(y,w)=max{1−wy,0}=|1−wy|+
如果有两个以上的标签,则由于Crammer&Singer,hinge_loss()
使用了多类型变体。
如果 yw 是真实标签的预测值,并且 yt 是所有其他标签的预测值的最大值,其中通过决策函数输出预测值,则多类hing损失由以下定义:
LHinge(yw,yt)=max{1+yt−yw,0}
这里有一个小例子演示了在二分类问题中使用svm分类器和hinge_loss函数:
from sklearn import svm
from sklearn.metrics import hinge_loss
X = [[0], [1]]
y = [-1, 1]
est = svm.LinearSVC(random_state=0)
est.fit(X, y) # 训练好线性分类器
pred_decision = est.decision_function([[-2], [3], [0.5]])
print pred_decision # 输出预测值:array([-2.18..., 2.36..., 0.09...])
print hinge_loss([-1, 1, 1], pred_decision) # 输出:0.3...
下面的例子演示了多分类问题中,使用svm分类器和hinge_loss函数:
X = np.array([[0], [1], [2], [3]])
Y = np.array([0, 1, 2, 3])
labels = np.array([0, 1, 2, 3])
est = svm.LinearSVC()
est.fit(X, Y)
pred_decision = est.decision_function([[-1], [2], [3]])
y_true = [0, 2, 3]
hinge_loss(y_true, pred_decision, labels) # 输出:0.56...
log损失也称logistic回归损失或交叉熵损失,是一个建立在概率上的定义。它通常用于(多项式)逻辑回归和神经网络,以及期望最大化的一些变体中。
log损失是一个负值:
Llog(y,p)=−logPr(y|p)=−(ylog(p)+(1−y)log(1−p))
这可以扩展到如下多种情形:
Llog(Y,P)=logPr(Y|P)=−1N∑N−1i=0∑K−1k=0yi,klogpi,k
from sklearn.metrics import log_loss
y_true = [0, 0, 1, 1]
y_pred = [[.9, .1], [.8, .2], [.3, .7], [.01, .99]]
log_loss(y_true, y_pred) # 输出:0.1738...
注意,这里的预测值是概率。比如y_pred[0]为[0.9, 0.1]表示,预测为0的概率是0.9,预测为1的概率是0.1。
下面将0.1738是怎么计算出来的。首先应该知道,在log损失中,y的值只有0和1,其概率的和是1。
还是对于第一个样本y_pred[0],其log损失为 −(0×log(0.9)+1×log(0.9)) ,然后求剩余的1、2、3样本并取平均值可得log损失。
matthews_corrcoef函数计算二进制类的Matthews相关系数(MCC)。引用维基百科:
“The Matthews correlation coefficient is used in machine learning as a measure of the quality of binary (two-class) classifications. It takes into account true and false positives and negatives and is generally regarded as a balanced measure which can be used even if the classes are of very different sizes. The MCC is in essence a correlation coefficient value between -1 and +1. A coefficient of +1 represents a perfect prediction, 0 an average random prediction and -1 an inverse prediction. The statistic is also known as the phi coefficient.”
大意:
Matthews相关系数(MCC)用于机器学习,作为二分类质量的量度。它考虑到正例反例、判断对判断错,通常被认为是可以使用的平衡措施,即使类别大小极其不同。 MCC本质上是-1和+1之间的相关系数值。系数+1表示完美预测,0表示平均随机预测,-1表示反向预测。统计学也称为phi系数。
在二分类的情况下,tp,tn,fp和fn分别是真正例,真反例,假正例和假反例数,MCC定义为
MCC=tp×tn−fp×fn(tp+fp)(tp+fn)(tn+fp)(tn+fn)√ .
在多类案例中,马修斯相关系数可以用K类的混淆矩阵C来定义。为了简化定义,考虑以下中间变量:
然后将多类MCC定义为:
MCC=c×s−∑Kkpk×tk(s2−∑Kkp2k)×(s2−∑Kkt2k)√
当有两个以上的标签时,MCC的值将不再在-1和+1之间。相反,根据真实标签的数量和分布,最小值将在-1和0之间,最大值始终为+1。
这是一个小例子,说明matthews_corrcoef()
函数的用法:
from sklearn.metrics import matthews_corrcoef
y_true = [+1, +1, +1, -1]
y_pred = [+1, -1, +1, +1]
matthews_corrcoef(y_true, y_pred) # 输出:-0.33
总之,Matthews相关系数也是一个根据真实值和预测值对预测模型进行评分的一个方法
函数roc_curve()
计算 receiver operating characteristic curve或者说是ROC曲线。 引用维基百科:
“A receiver operating characteristic (ROC), or simply ROC curve, is a graphical plot which illustrates the performance of a binary classifier system as its discrimination threshold is varied. It is created by plotting the fraction of true positives out of the positives (TPR = true positive rate) vs. the fraction of false positives out of the negatives (FPR = false positive rate), at various threshold settings. TPR is also known as sensitivity, and FPR is one minus the specificity or true negative rate.”
大意:
ROC或者是ROC曲线,是一个图形图,说明了二分类系统在鉴别阈值变化的情形下的性能。它通过在不同阈值设置下,TPR(正例中判对的概率)与FPR(被错判为正例的概率)。TPR又称为敏感度,FPR是1减去反例判对的概率。
该函数需要正确的二分类值和目标分数,这可以是正类的概率估计,置信度值或二分类判决。 这是一个如何使用roc_curve()
函数的小例子:
import numpy as np
from sklearn.metrics import roc_curve
y = np.array([1, 1, 2, 2])
scores = np.array([0.1, 0.4, 0.35, 0.8])
fpr, tpr, thresholds = roc_curve(y, scores, pos_label=2)
print fpr # 输出:[ 0. 0.5 0.5 1. ]
print tpr # 输出:[ 0.5 0.5 1. 1. ]
print thresholds # 输出:[ 0.8 0.4 0.35 0.1 ]
thresholds阈值的意义:所有的样本都要和这个阈值比较,如果大于这个阈值就是正例。所以,这个阈值越大,反例被错判为正例的可能性越小,当然,很多比较小的正例也会被忽略从而导致TPR也较小。
下图是一个ROC曲线的例子:
roc_auc_score()
函数计算ROC曲线下面积,也由AUC或AUROC表示。 通过计算roc曲线下的面积,曲线信息总结为一个数字。
import numpy as np
from sklearn.metrics import roc_auc_score
y_true = np.array([0, 0, 1, 1])
y_scores = np.array([0.1, 0.4, 0.35, 0.8])
roc_auc_score(y_true, y_scores) # 输出:0.75
在多标签分类中,roc_auc_score()
函数通过如上所述的标签平均来扩展。
与诸如子集精确度,汉明损失或F1度量相比,ROC不需要优化每个标签的阈值。 如果预测的输出已被二进制化,则roc_auc_score()
函数也可用于多类分类。
zero_one_loss()
函数通过 nsamples 计算0-1分类损失 (L0−1) 的和或平均值。 默认情况下,函数对样本进行标准化。 要获得 L0−1 的总和,将其normalize
参数置为False。
在多标签分类中,如果所有预测标签与真实标签严格匹配,则zero_one_loss()
为1,如果存在任何错误,则为0。 默认情况下,函数返回对子集不完全预测的百分比, 如果想让函数返回个数,设置normalize
参数为False如果 y^i 是第i个样本的预测值, yi 是相应的真实值,则0-1损失 L0−1 定义为:
L0−1(yi,y^i)=1(y^i≠yi)
from sklearn.metrics import zero_one_loss
y_pred = [1, 2, 3, 4]
y_true = [2, 2, 3, 4]
print zero_one_loss(y_true, y_pred) # 输出:0.25 表示预测错误的百分比是0.25
print zero_one_loss(y_true, y_pred, normalize=False) # 输出:1 表示有1个预测错误
print zero_one_loss(np.array([[0, 1], [1, 1]]), np.ones((2, 2))) # 输出:0.5
print zero_one_loss(np.array([[0, 1], [1, 1]]), np.ones((2, 2)), normalize=False) # 输出1
似乎跟前面的
accuracy_score()
有点像(我觉得是一样的)。
brier_score_loss()
函数计算二分类的Brier分数。引用维基百科:
The Brier score is a proper score function that measures the accuracy of probabilistic predictions. It is applicable to tasks in which predictions must assign probabilities to a set of mutually exclusive discrete outcomes.
Brier分数在用于衡量预测的准确性方面,是一个合适的评分函数。它适用于预测必须将概率分配给一组相互排斥的离散结果的任务。
该函数返回实际结果与可能结果的预测概率之间的均方差的得分。实际结果必须为1或0(真或假),而实际结果的预测概率可以是0到1之间的值。Brier损失也在0到1之间,分数越低(均方差越小),预测越准确。它可以被认为是对一组概率预测的“校准”的度量。
BS=1N∑Nt=1(ft−ot)2
其中:N是预测的总数, ft 是实际结果 ot 的预测概率。
这是一个使用这个函数的小例子:
from sklearn.metrics import brier_score_loss
y_true = np.array([0, 1, 1, 0])
y_true_categorical = np.array(["spam", "ham", "ham", "spam"])
y_prob = np.array([0.1, 0.9, 0.8, 0.4])
y_pred = np.array([0, 1, 1, 0])
print brier_score_loss(y_true, y_prob) # 输出;0.055
print brier_score_loss(y_true, 1-y_prob, pos_label=0) # 输出;0.055
print brier_score_loss(y_true_categorical, y_prob, pos_label="ham") # 输出;0.055
print brier_score_loss(y_true, y_prob > 0.5) # 输出;0
可以看到与之前不同的地方:真实标签y_true输入的不管是字符串还是数字都没有规定正例or反例,而是通过
brier_score_loss()
函数的pos_lable
参数决定的。
在多标签学习中,每个样本可以具有与之相关的任何数量的真实标签,最后靠近真实标签的获得更高的分值和等级。
coverage_error()
函数计算包含在最终预测中的标签的平均数,以便预测所有真正的标签。如果您想知道有多少顶级评分标签,您必须平均预测,而不会丢失任何真正的标签,这很有用。因此,此指标的最好的情况(也就是最小值)是正确标签的平均数量。
注意:我们的实现的分数比Tsoumakas等人在2010年提供的分数大1。这样就可以包含一种特例:实例的正确标签为0。
给定一个二进制的真实标签矩阵,y ∈{0,1}nsamples×nlabels ,和相应的分值 f^∈Rnsamples×nlabels ,coverage被定义为:
coverage(y,f^)=1nsamples∑nsamples−1i=0maxj:yij=1rankij
其中, rankij=∣∣{k:f^ik≥f^ij}∣∣ 。
这是一个使用这个功能的小例子:
import numpy as np
from sklearn.metrics import coverage_error
y_true = np.array([[1, 0, 0], [0, 0, 1]])
y_score = np.array([[0.75, 0.5, 1], [1, 0.2, 0.1]])
coverage_error(y_true, y_score) # 输出:2.5
首先:这是一个用于多标签的误差计算函数。其次,具体怎么算的笔者也不太清楚,欢迎大家在回复里指教,最后这个误差的意义我是知道的:
上面例子的y_score实际上是一个rank(可以想成排名,积分)列表,只要真实标签中的1对应的y_score中的值(也就是它的rank)是最大的,则误差最小,最小为 nlabel=1nsamples 。反之,当真是标签中的1对应的y_score中的值是最小的,则误差最大,最大为 nlabel=1 。
label_ranking_average_precision_score()
函数实现标签rank的平均精度(LRAP)。该度量值与average_precision_score()
函数相关,但是基于标签rank的信息,而不是准确率和召回率。
标签rank的平均精度(LRAP)是分配给每个样本的,rank一般较高真实标签对rank一般较低的总标签的比率的平均值。如果能够为每个样本相关标签提供更好的rank,这个指标就会产生更好的分数。获得的分数总是严格大于0,最佳值为1。如果每个样本只有一个相关标签,则标签排名平均精度等于mean reciprocal rank
。
给定一个二进制标签矩阵,即 y∈Rnsamples×nlabels ,以及它的对应的预测rank f^∈Rnsamples×nlabels ,则平均精度定义为
LRAP(y,f^)=1nsamples∑nsamples−1i=01|yi|∑j:yij=1|Lij|rankij
其中 Lij={k:yik=1,f^ik≥f^ij} , rankij=∣∣{k:f^ik≥f^ij}∣∣
这是一个使用这个功能的小例子:
import numpy as np
from sklearn.metrics import label_ranking_average_precision_score
y_true = np.array([[1, 0, 0], [0, 0, 1]])
y_score = np.array([[0.75, 0.5, 1], [1, 0.2, 0.1]])
label_ranking_average_precision_score(y_true, y_score) # 输出:0.416...
这个的公式只能说比上一个
coverage_error()
函数的方法更复杂,但是它们是同根同源的,解决的是同一个问题。只要知道这个函数的最大值是1,最小值大于0就行了。
label_ranking_loss()
函数计算在样本上的排序错误(即正例的rank低于反例)的标签的rank损失的平均值(由正例和反例的倒数加权),最小值为0。
给定一个二进制标签矩阵 y∈{0,1}nsamples×nlabels ,相应的预测rank为 f^∈Rnsamples×nlabels ,排名损失定义为:
ranking\_loss(y,f^)=1nsamples∑nsamples−1i=01|yi|(nlabels−|yi|)∣∣{(k,l):f^ik<f^il,yik=1,yil=0}∣∣ 。
这是一个使用这个功能的小例子:
import numpy as np
from sklearn.metrics import label_ranking_loss
y_true = np.array([[1, 0, 0], [0, 0, 1]])
y_score = np.array([[0.75, 0.5, 1], [1, 0.2, 0.1]])
label_ranking_loss(y_true, y_score) # 输出:0.75
y_score = np.array([[1.0, 0.1, 0.2], [0.1, 0.2, 0.9]]) # 这样就能输出最小loss
label_ranking_loss(y_true, y_score) # 输出:0.0
再次,公式不懂,但是
label_ranking_loss()
还是与上面两种都是同一问题解决方法的不同表达。
sklearn.metrics
模块实现了几个损失,评分和工具函数来衡量回归表现。其中一些已被增强以处理多输出情形:mean_squared_error()
,mean_absolute_error()
,explain_variance_score()
和r2_score()
。
这些函数具有一个multioutput
关键字参数,用于指定平均每个目标的分数或损失的方式。默认值为'uniform_average'
,它指定输出均匀加权均值。如果传递形如(n_outputs,)
的数组,则将其解释为权重,并返回相应的加权平均值。如果指定了多重输出为'raw_values'
,则所有未更改的单个分数或损失将以形状数组(n_outputs,)
返回。
r2_score()
和interpret_variance_score()
为multioutput
参数接受一个附加值'variance_weighted'
。该选项通过相应目标变量的方差导出每个单独得分的加权。此设置量化了全局捕获的未缩放的方差。如果目标变量的scale范围不同,则该分数更好地解释较高的方差变量。对于向后兼容性,multioutput ='variance_weighted'
是r2_score()
的默认值。将来会更改为uniform_average
。
explain_variance_score()
计算explained variance regression score.。
如果 y^ 是估计的目标输出,则y为相应的(正确)目标输出,Var为方差,标准偏差的平方,则说明的方差估计如下:
explained_variance(y,y^)=1−Var{y−y^}Var{y}
最好的分数是1.0,值越低越差。
以下是explain_variance_score()
函数的一个小例子:
from sklearn.metrics import explained_variance_score
y_true = [3, -0.5, 2, 7]
y_pred = [2.5, 0.0, 2, 8]
explained_variance_score(y_true, y_pred) # 输出:0.957.。。
y_true = [[0.5, 1], [-1, 1], [7, -6]]
y_pred = [[0, 2], [-1, 2], [8, -5]]
print explained_variance_score(y_true, y_pred, multioutput='raw_values') # 输出:[ 0.967..., 1. ]
print explained_variance_score(y_true, y_pred, multioutput=[0.3, 0.7]) # 输出:0.990...
两个方差的比值?解释方差?这个分值有什么用?
mean_absolute_error()
函数计算平均绝对误差,对应于绝对误差损失或l1范数损失的预期值的风险度量。如果 y^i 是第i个样本的预测值, yi 是相应的真实值,则在 nsamples 上估计的平均绝对误差(MAE)被定义为
MAE(y,y^)=1nsamples∑nsamples−1i=0|yi−y^i|.
这是一个使用mean_absolute_error()
函数的小例子:
from sklearn.metrics import mean_absolute_error
y_true = [3, -0.5, 2, 7]
y_pred = [2.5, 0.0, 2, 8]
mean_absolute_error(y_true, y_pred) # 输出:0.5
y_true = [[0.5, 1], [-1, 1], [7, -6]]
y_pred = [[0, 2], [-1, 2], [8, -5]]
mean_absolute_error(y_true, y_pred) # 输出:0.75
print mean_absolute_error(y_true, y_pred, multioutput='raw_values') # 输出:【0.5, 1】
print mean_absolute_error(y_true, y_pred, multioutput=[0.3, 0.7]) # 输出:0.849...
mean_squared_error()
函数计算均方误差,与平方(二次)误差或损失的预期值对应的风险度量。如果 y^i 是第i个样本的预测值, yi 是相应的真实值,则在 nsamples 上估计的均方误差(MSE)被定义为
MSE(y,y^)=1nsamples∑nsamples−1i=0(yi−y^i)2.
这是一个使用mean_squared_error()
函数的小例子:
from sklearn.metrics import mean_squared_error
y_true = [3, -0.5, 2, 7]
y_pred = [2.5, 0.0, 2, 8]
print mean_squared_error(y_true, y_pred) # 输出:0.375
y_true = [[0.5, 1], [-1, 1], [7, -6]]
y_pred = [[0, 2], [-1, 2], [8, -5]]
print mean_squared_error(y_true, y_pred) # 输出:0.7083
mean_squared_log_error()
函数计算对应于平方对数(二次)误差或损失的预期值的风险度量。如果 y^i 是第i个样本的预测值, yi 是相应的真实值,则在 nsamples 上估计的均方对数误差(MSLE)被定义为
MSLE(y,y^)=1nsamples∑nsamples−1i=0(loge(1+yi)−loge(1+y^i))2. 。
其中 loge(x) 表示x的自然对数。 当目标具有指数增长的目标时,最适合使用这一指标,例如人口数量,商品在一段时间内的平均销售额等。
注意,该度量对低于真实值的预测更加敏感。
这是一个使用mean_squared_log_error函数的小例子:
from sklearn.metrics import mean_squared_log_error
y_true = [3, 5, 2.5, 7]
y_pred = [2.5, 5, 4, 8]
print mean_squared_log_error(y_true, y_pred) # 输出:0.039.。
y_true = [[0.5, 1], [1, 2], [7, 6]]
y_pred = [[0.5, 2], [1, 2.5], [8, 8]]
print mean_squared_log_error(y_true, y_pred) # 输出:0.044
median_absolute_error()
是非常有趣的,因为它可以减弱异常值的影响。 通过取目标和预测之间的所有绝对差值的中值来计算损失。如果 y^i 是第i个样本的预测值, yi 是相应的真实值,则在 nsamples 上估计的中值绝对误差(MedAE)被定义为
MedAE(y,y^)=median(∣y1−y^1∣,…,∣yn−y^n∣)
median_absolute_error()
不支持multioutput。
这是一个使用median_absolute_error()
函数的小例子:
from sklearn.metrics import median_absolute_error
y_true = [3, -0.5, 2, 7]
y_pred = [2.5, 0.0, 2, 8]
median_absolute_error(y_true, y_pred) # 输出:0.5
r2_score()
函数计算R^2,即确定系数,可以表示特征模型对特征样本预测的好坏。 最佳分数为1.0,可以为负数(因为模型可能会更糟)。对于一个总是在预测y的期望值时不关注输入特征的连续模型,它的R^2分值是0.0。如果 y^i 是第i个样本的预测值, yi 是相应的真实值,则在 nsamples 上估计的分数R^2被定义为
R2(y,y^)=1−∑nsamples−1i=0(yi−y^i)2∑nsamples−1i=0(yi−y¯)2
其中 y¯=1nsamples∑nsamples−1i=0yi
这是使用r2_score()
函数的一个小例子:
from sklearn.metrics import r2_score
y_true = [3, -0.5, 2, 7]
y_pred = [2.5, 0.0, 2, 8]
print r2_score(y_true, y_pred) # 0.948...
y_true = [[0.5, 1], [-1, 1], [7, -6]]
y_pred = [[0, 2], [-1, 2], [8, -5]]
print r2_score(y_true, y_pred, multioutput='variance_weighted') # 0.938...
y_true = [[0.5, 1], [-1, 1], [7, -6]]
y_pred = [[0, 2], [-1, 2], [8, -5]]
print r2_score(y_true, y_pred, multioutput='uniform_average') # 0.936...
print r2_score(y_true, y_pred, multioutput='raw_values') # [ 0.965..., 0.908...]
print r2_score(y_true, y_pred, multioutput=[0.3, 0.7]) # 0.925...
sklearn.metrics
模块实现了多种损失函数、评分函数和工具函数。 有关更多信息,请参阅集聚类性能评估部分。
在进行监督学习的过程中,简单清晰的检查包括将一个估计模型与简单的经验法则进行比较。 DummyClassifier
实现了几种简单的分类策略:
stratified
根据训练数据类的分布产生随机数据。most_frequent
总是将结果预测为训练集中最常用的标签。prior
总是预测为先前最大的那个类。uniform
产生均匀随机预测。constant
总是预测为用户提供的常量标签。这种方法的主要靠的是F1分值,此时的正例数量较小。为了说明DummyClassifier
,首先让我们创建一个不平衡的数据集:
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
iris = load_iris()
X, y = iris.data, iris.target
y[y != 1] = -1
X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=0)
然后再来比较一下SVC
和most_frequent
:
from sklearn.dummy import DummyClassifier
from sklearn.svm import SVC
clf = SVC(kernel='linear', C=1).fit(X_train, y_train)
print clf.score(X_test, y_test) # 0.63...
clf = DummyClassifier(strategy='most_frequent',random_state=0)
clf.fit(X_train, y_train)
print clf.score(X_test, y_test) # 0.57...
可以看出,
SVC
的效果不比简陋的分类器(dummy classifier)号多少,下面,让我们换一下svc的核函数:
clf = SVC(kernel='rbf', C=1).fit(X_train, y_train)
clf.score(X_test, y_test) # 0.97...
我们看到准确率提高到近100%。建议使用交叉验证策略,以便更好地估计精度。更一般地说,当分类器的准确度太接近随机时,这可能意味着出现了一些问题:特征没有帮助,超参数没有正确调整,数据分布不平衡等
DummyRegressor还实现了四个简单的经验法则:
mean
:预测训练目标的平均值。median
:预测训练目标的中位数。quantile
:预测用户提供的分数量的训练目标。constant
:预测用户提供的常数值。