机器学习(分类,回归,聚类)评价指标

机器学习(分类,回归,聚类)评价指标

分类问题

  • 混淆矩阵

机器学习(分类,回归,聚类)评价指标_第1张图片

  • 精确率(accuracy)

    正确预测的样本数占总预测样本的比值
    在这里插入图片描述

  • 召回率(recall)

    也称为查全率,正确预测的正样本数占真实正样本数量比值
    在这里插入图片描述

  • 准确率

    正确预测的正样本数占所有预测为正样本的数量比值
    在这里插入图片描述

  • F值

    正确率与召回率的平均调和

    F值 = p r e c i s i o n ∗ r e c a l l ∗ 2 p r e c i s i o n + r e c a l l \frac{precision*recall*2}{precision+recall} precision+recallprecisionrecall2

    有时候会根据偏好为recall与precision设置不同权值:
    在这里插入图片描述

  • ROC-AUC

  1. ROC(接收操作者特征曲线)

    最早用于雷达信号检测领域,用于区分信号与噪声。现用来评价模型的预测能力,ROC曲线基于混淆矩阵得出的。
    机器学习(分类,回归,聚类)评价指标_第2张图片
    两个指标:真阳率(TPR)为纵坐标与假阳率(FPR)为横坐标

    TPR越高,同时FPR越低(即ROC曲线越陡),模型性能越好
    机器学习(分类,回归,聚类)评价指标_第3张图片

  2. AUC(曲线下的面积Area under curve)

    ROC对角线实际含义:随机判断正负样本覆盖均为50%,表示随机效果。但实际上ROC越陡,效果越好;AUC一般是介于0.5~1之间。

    0.50.7:效果不好,0.70.85:效果一般,0.850.95:效果较好,0.951:效果非常好

  • PRC(precision-recall curve)

    准确率与召回率之比,在正负样本分布得极不均匀(highly skewed datasets)的情况下,PRC比ROC能更有效地反应分类器的好坏。
    机器学习(分类,回归,聚类)评价指标_第4张图片

回归问题
机器学习(分类,回归,聚类)评价指标_第5张图片
聚类问题

非监督学习中的聚类问题不像监督学习中的分类,有一个最优化目标和学习的过程,而只是一个统计方法,讲相似与不相似的数据分开。

聚类质量:一般来说非监督学习聚类没有标签,感觉只能通过分离情况来决定聚类质量;类内越紧密,类间界限越明晰效果越好

聚类稳定性:引入新数据之后聚类结果不容易被改变。

1.如含标签

可以通过兰德系数,互信息,轮廓系数以及分类评价指标来进行判断。

  • 兰德指数

    衡量两个分布的吻合程度,取值范围[-1,1],数值越接近1越好,聚类结果随机产生时,指标接近0.
    机器学习(分类,回归,聚类)评价指标_第6张图片

  • 互信息
    衡量两个分布的吻合程度,取值范围[-1,1],值越大聚类与真实效果越吻合。
    机器学习(分类,回归,聚类)评价指标_第7张图片

  • 轮廓系数

    轮廓系数用来选择适合的聚类数目。根据折线图可以找到系数变化的幅度最大的点,发生畸变幅度最大的点就是最好的聚类数目。范围[-1,1].

    对于聚类中的点 i i i:

    • 簇内不相似度 a ( i ) a(i) a(i) i i i向量到同簇内其他点不相似程度平均值,体现凝聚度

    • 簇间不相似度 b ( i ) b(i) b(i) i i i向量到其他簇平均不相似程度最小值,体现分离度

    • 那么该对象的轮廓系数:
      在这里插入图片描述

    • S ( i ) S(i) S(i)接近1,分类合理,接近-1.,分类错误,接近0,处于两个簇边界上。

2.不含标签

记录的特征向量计算内平方和(Within Sum of Squares, WSS)和外平方和(Between Sum of Squares, BSS)作为评价指标。对于有m条记录,n个变量的聚类问题:
W S S = ∑ i = 1 m d ( p i , q i ) 2 = ∑ i = 1 m ∑ j = 1 n ( p i j − q i ) 2 B S S − ∑ k = 1 K ∣ Z k ∣ d ( Q , q k ) 2 = ∑ k = 1 K ∑ j = 1 n ∣ Z k ∣ ( Q j − q k j ) 2 WSS=\sum_{i=1}^{m}d(p_i,q^i)^2=\sum_{i=1}^{m}\sum_{j=1}^{n}(p_{ij}-q^i)^2 \\ BSS-\sum_{k=1}^{K}|Z_k|d(Q,q_k)^2=\sum_{k=1}^{K}\sum_{j=1}^{n}|Z_k|(Q_j-q_{kj})^2 WSS=i=1md(pi,qi)2=i=1mj=1n(pijqi)2BSSk=1KZkd(Q,qk)2=k=1Kj=1nZk(Qjqkj)2
其中: p i = ( p i 1 , p i 2 … p i n ) p_i=(p_{i1},p_{i2}\dots p_{in}) pi=(pi1,pi2pin),表示记录 i i i的特征向量

q i = ( q 1 i , q 2 i … q n i ) q_{i}=(q_{1}^{i},q_{2}^{i} \dots q_{n}^{i}) qi=(q1i,q2iqni),表示记录 i i i所在聚类中心点的特征向量

K 聚类总数, Z k Z_k Zkk聚类中的记录数目

Q = ( Q 1 , Q 2 … Q n ) Q=(Q_1,Q_2 \dots Q_n) Q=(Q1,Q2Qn), 所有记录点特征向量

q k = ( q k 1 , q k 2 … q k n ) q_k=(q_{k1},q_{k2}\dots q_{kn}) qk=(qk1,qk2qkn),表示第 k k k哥聚类中心点特征向量

WSSBSS分别度量相同聚类内部记录之间的不相似度和不同聚类间记录的不相似度。显然,WSS越小,BSS越大,聚类结果越好。

你可能感兴趣的:(机器学习)