子空间聚类的常见评估指标及pytorch实现

子空间聚类的常见评估指标:ACC, SRE 和 CONN

  • 引言
  • Evaluation Metrics
    • 聚类准确度(Clustering accuracy, ACC)
    • 子空间保持误差 (SRE)
    • 连通性 (Connectivity, CONN)


本文参考了本组的论文S3C-OMP的附录,代码部分摘自本组的SENet,未引用这两篇论文的转载是不被允许的

引言

在评估聚类效果的时候,常常使用NMI和ARI,即归一化互信息和调整兰德指数,但这两个指标是以结果为导向的,无论采用了何种聚类方式。但NMI和ARI只能告诉你聚类结果好不好,却无法知道你的聚类方法是否在有效工作。

在目前最流行的子空间聚类方法中,我们是通过构造coeff矩阵C来得到affinty A,之后通过谱聚类(spectral clustering)得到partition Q。子空间聚类已被证明和self-attention机制是密切相关的,因此是高效的,但也具有和self-attention一样的平方复杂度缺陷。

要了解子空间聚类是否真的在有效工作,就要评估系数矩阵C,这便是SRE和CONN这两个指标。,如接下来所介绍的那样。

Evaluation Metrics

聚类准确度(Clustering accuracy, ACC)

相比于有标签的准确度,聚类准确度的计算更加麻烦些,它是依据ground truth和分割矩阵Q来计算的。在实践中,ACC的好坏与否与ARI指标高度相关。如果ACC不理想,想办法提高ARI先!

acc指标表示了预测结果和ground truth之间的差距:

在这里插入图片描述
其中,有个100倍的系数是因为输出是百分比值,est即为estimation的缩写,true就是ground truth。当第j个点属于第i个cluster时,这两个Q在第 ( i , j ) (i,j) (i,j)个元素为1,否则为0,也就是说Q的每行都是one-hot的。需要注意,其中 π \pi π表示n个cluster的组合,因为聚类得到的是伪标签,必须用如匈牙利算法把伪标签和ground truth最大匹配起来。

子空间保持误差 (SRE)

SRE有两种写法:Subspace Recovery Error和 Subspace-preserving Representation Error,但其实都表示一个意思,就是衡量了C的子空间保持性质,SRE越低说明了误差越小,连通的分量 c i j c_{ij} cij大都来自相同的子空间。
具体地,对于每个 c j c_j cj,我们计算它的来自其他子空间的 ℓ 1 \ell_1 1范数的分数,对所有 j j j做求和平均:
在这里插入图片描述
其中 w i j ∈ { 0 , 1 } w_{ij}\in \{0,1\} wij{0,1}为true affinity。

给出SRE的pytorch实现:

def subspace_preserving_error(A, labels, n_clusters): # that is, SRE
    one_hot_labels = torch.zeros([A.shape[0], n_clusters])
    for i in range(A.shape[0]):
        one_hot_labels[i][labels[i]] = 1.0
    mask = one_hot_labels.matmul(one_hot_labels.T)
    l1_norm = torch.norm(A, p=1, dim=1)
    masked_l1_norm = torch.norm(mask * A, p=1, dim=1)
    e = torch.mean((1. - masked_l1_norm / l1_norm)) * 100.
    return e

连通性 (Connectivity, CONN)

connectivity衡量了C的连通性。我们希望低的SRE,但是过低的SRE往往会让C过于稀疏而在谱聚类时产生过分割最终影响聚类结果,因此我们希望连通性要高点好:CONN度量了同一个cluster中C的稠密程度,即我们希望同一类中的尽量不要出现 c i j = 0 c_{ij}=0 cij=0

所以,显然SRE和CONN是一对矛盾的指标,CONN提高往往导致SRE变差,SRE降低往往导致CONN下降。子空间聚类方法好不好还要考虑到它能不能有效权衡SRE和CONN。实验也证明,只有CONN和SRE取得一个合理的balance的时候聚类精度才上得去。

不过,CONN的计算比较反直觉,这里介绍代数连通性(algebratic connectivity),它的定义是:归一化后的图拉普拉斯矩阵的第二小的特征值。对于一个无向权重图,权重为 W ∈ R N × N W\in\mathbb R^{N\times N} WRN×N和度矩阵 D = d i a g ( W ⋅ 1 ) D=diag(W\cdot 1) D=diag(W1),那么它的归一化图拉普拉斯为:
在这里插入图片描述
L L L的第二个eigen value λ 2 ∈ [ 0 , n − 1 n ] \lambda_2 \in [0,\frac{n-1}{n}] λ2[0,nn1]。为了评估具有n个cluster的affinity gpraph的连通性,我们计算每个n个子图的第二最小特征值,那么就得到了n个对应于第 i i i个cluster的特征值 { λ 2 ( i ) } i = 1 n \{\lambda_2^{(i)}\}_{i=1}^n {λ2(i)}i=1n。对于CONN有两种计算方法:取最小值或求平均值:
在这里插入图片描述
取最小值的话,实际中conn容易很小,比如 1 0 − 16 10^{-16} 1016量级,这个时候考虑取平均值:

在这里插入图片描述

小技巧:合成数据集上用最小值,真实数据集上用平均值

给出归一化图拉普拉斯的实现:

def normalized_laplacian(A): 
    D = torch.sum(A, dim=1)
    D_sqrt = torch.diag(1.0 / torch.sqrt(D))
    L = torch.eye(A.shape[0]) - D_sqrt.matmul(A).matmul(D_sqrt)
    return L

CONN的pytorch实现:

def connectivity(A, labels, n_clusters): # A is dense tensor
    c = []
    for i in range(n_clusters):
        A_i = A[labels == i][:, labels == i]
        L_i = normalized_laplacian(A_i)
        eig_vals, _ = torch.symeig(L_i)
        c.append(eig_vals[1])
    return np.min(c)

def sparse_connectivity(A, labels, n_clusters): # A is sparse tensor
    c = []
    for i in range(n_clusters):
        A_i = A[labels == i][:, labels == i]
        L_i = csgraph.laplacian(A_i) # L = D - W
        eig_vals, _ = sparse.linalg.eigsh(L_i, k=2, which='SA')
        eig_vals = sorted(eig_vals)
        c.append(eig_vals[1])
    return np.mean(c)

你可能感兴趣的:(深度学习,人工智能,聚类,机器学习,计算机视觉)