sklearn.metrics.r2_score

首先介绍一下相关指数 R 2 R^{2} R2(也称 决定系数 coefficient of determination)。以下来自百度百科:

相关指数 R 2 R^{2} R2表示一元多项式回归方程拟合度的高低,或者说表示一元多项式回归方程估测的可靠程度的高低。

总体平方和(Total Sum of Squares): T S S = ∑ i = 1 n ( y i − y i ˉ ) 2 TSS=\sum_{i=1}^{n}\left ( y_{i}-\bar{y_{i}} \right )^{2} TSS=i=1n(yiyiˉ)2
回归平方和(Explained Sum of Squares): E S S = ∑ i = 1 n ( y i ^ − y i ˉ ) 2 ESS=\sum_{i=1}^{n}\left ( \hat{y_{i}}-\bar{y_{i}} \right )^{2} ESS=i=1n(yi^yiˉ)2
残差平方和(Residual Sum of Squares ): R S S = ∑ i = 1 n ( y i − y i ^ ) 2 RSS=\sum_{i=1}^{n}\left ( y_{i}-\hat{y_{i}} \right )^{2} RSS=i=1n(yiyi^)2

三者关系:TSS = ESS + RSS

Y的观测值围绕其均值的总离差(total variation)可分解为两部分:一部分来自回归线(ESS),另一部分则来自随机势力(RSS)。在给定样本中,TSS不变,如果实际观测点离样本回归线越近,则ESS在TSS中占的比重越大,因此定义拟合优度:回归平方和ESS与Y的总离差TSS的比值。即 R 2 = E S S T S S = 1 − R S S T S S R^{2} = \frac{ESS}{TSS} = 1-\frac{RSS}{TSS} R2=TSSESS=1TSSRSS
对于已经获取的样本数据, R 2 R^{2} R2表达式中的 ∑ i = 1 n ( y i − y i ˉ ) 2 \sum_{i=1}^{n}\left ( y_{i}-\bar{y_{i}} \right )^{2} i=1n(yiyiˉ)2为确定的数。因此 R 2 R^{2} R2越大,意味着残差平方和 ∑ i = 1 n ( y i − y i ^ ) 2 \sum_{i=1}^{n}\left ( y_{i}-\hat{y_{i}} \right )^{2} i=1n(yiyi^)2越小,即模型的拟合效果越好; R 2 R^{2} R2越小,残差平方和越大,即模型的拟合效果越差。在线性回归模型中, R 2 R^{2} R2表示解释变量对于预测变量变化的贡献率。 R 2 R^{2} R2越接近于1,表示回归的效果越好。

看到这里应该很清楚r2_score的计算方式和其意义了。

格式:
sklearn.metrics.r2_score(y_true, y_pred, sample_weight=None, multioutput=’uniform_average’)

参数:
y_true:真实值。
y_pred:预测值。
sample_weight:样本权重。
multioutput:多维输入输出,可选‘raw_values’, ‘uniform_average’, ‘variance_weighted’或None。
默认为’uniform_average’;
‘variance_weighted’对所有输出的分数进行平均,并根据每个输出的方差进行加权。
‘raw_values’对每一对应列求其R2指数,返回一个与列数相同的一维数组。

示例:

from sklearn.metrics import r2_score
 y_true = y_true = [3, -0.5, 2, 7]
 y_pred = [2.5, 0.0, 2, 8]
 r2_score(y_true, y_pred)
 # 结果:0.9486081370449679
 r2_score(y_true, y_pred, multioutput= 'uniform_average')
 # 结果:0.9486081370449679
 y_true = [[0.5, 1], [-1, 1], [7, -6]]
 y_pred = [[0, 2], [-1, 2], [8, -5]]
 r2_score(y_true, y_pred, multioutput='variance_weighted')
 # 结果:0.9382566585956417
 y_true = [1, 2, 3]
 y_pred = [1, 2, 3]
 r2_score(y_true, y_pred)
 # 结果: 1.0
 y_true = [1, 2, 3]
 y_pred = [2, 2, 2]
 r2_score(y_true, y_pred)
 # 结果:0.0
  y_true = [1, 2, 3] # bar{y} = (1+2+3)/ 3 = 2
  y_pred = [3, 2, 1] # y - hat{y}(即y_true - y_pred) = [-2, 0, 2]
  r2_score(y_true, y_pred)
  # 结果:-3.0
  y_true = [[0.5, 1], [-1, 1], [7, -6]]
  y_pred = [[0, 2], [-1, 2], [8, -5]]
  r2_score(y_true, y_pred, multioutput='raw_values')
  # 结果:array([0.96543779, 0.90816327])

参考:
1.https://scikit-learn.org/stable/modules/generated/sklearn.metrics.r2_score.html#sklearn.metrics.r2_score
2.https://baike.baidu.com/item/相关指数

你可能感兴趣的:(sklearn)