兰德指数(Adjusted Rand index, ARI)
>>>from sklearn import metrics
>>>labels_true = [0, 0, 0, 1, 1, 1]
>>>labels_pred = [0, 0, 1, 1, 2, 2]
>>>metrics.adjusted_rand_score(labels_true, labels_pred)
优点:对于均匀分布的数据,ARI接近于0;ARI的范围介入-1到1之间,-1表示分类效果不好,1表示分类效果好;不需要对簇结构进行预先估计,可以对不同的聚类算法进行评估。
缺点:需要知道数据的真实分类。
对兰德指数进行改进的原因是,原来的兰德指数不能保证即使在随机分类时,如在处理k=n此类型问题时趋近于0。对其进行改进之后可以避免这个缺陷。
互信息(Mutual Information based scores,MI)
互信息用来衡量两个分布一致性,并且忽略顺序。
直观上,互信息度量 X 和 Y 共享的信息:它度量知道这两个变量其中一个,对另一个不确定度减少的程度。例如,如果 X 和 Y 相互独立,则知道 X 不对 Y 提供任何信息,反之亦然,所以它们的互信息为零。
>>> from sklearn import metrics
>>> labels_true = [0, 0, 0, 1, 1, 1]
>>> labels_pred = [0, 0, 1, 1, 2, 2]
>>> metrics.adjusted_mutual_info_score(labels_true, labels_pred)
优点:随机的预测AMI会接近于0;最大上界为1,说明预测完全正确。
缺点:需要预先知道样本所属类,而类间差SSE不需要。
同质性(homogeneity),完整性(completeness),V-度量(V-measure)
>>> from sklearn import metrics
>>> labels_true = [0, 0, 0, 1, 1, 1]
>>> labels_pred = [0, 0, 1, 1, 2, 2]
>>> metrics.homogeneity_score(labels_true, labels_pred)
0.66...
>>> metrics.completeness_score(labels_true, labels_pred)
0.42...
同质性是指每个群集只包含单个类的成员。
完整性是指给定类的所有成员都分配给同一个群集。
V-度量是以上两者的调和平均数。
优点:0代表差,1代表好;不需要对簇结构进行假设,可以对不同聚类算法进行比较。
缺点:当簇数目比较大时,这三者的值都不会趋近于0;当样本数多于1000或者簇数目少于10时可以避免这个问题,其他情况可以选择适用ARI;另外这三个指标需要知道样本的真实分类。
Fowlkes-Mallows分数,简称FMI
FMI定义为成对精度和召回率的几何平均值。
>>> from sklearn import metrics
>>> labels_true = [0, 0, 0, 1, 1, 1]
>>> labels_pred = [0, 0, 1, 1, 2, 2]
>>> metrics.fowlkes_mallows_score(labels_true, labels_pred)
0.47140...
优点:随机预测值趋近于0;上限为1,表示预测完全正确;不需要对簇类型进行假设。
缺点:需要知道样本类别。
轮廓系数
在K-Means(一)中有详细说明,此处从简。
>>> from sklearn import metrics
>>> from sklearn.metrics import pairwise_distances
>>> from sklearn import datasets
>>> dataset = datasets.load_iris()
>>> X = dataset.data
>>> y = dataset.target
>>> import numpy as np
>>> from sklearn.cluster import KMeans
>>> kmeans_model = KMeans(n_clusters=3, random_state=1).fit(X)
>>> labels = kmeans_model.labels_
>>> metrics.silhouette_score(X, labels, metric='euclidean')
... 0.55...
优点:不需要知道样本标签;-1表示存在错误聚类,0表示有交叉的簇,1表示高密度聚类。
缺点:凸形簇的轮廓系数通常高于其他类型的簇。
Calinski-Harabaz Index,简称CHI
如果不知道样本的标签,CHI可以用来评估模型。值越高说明聚类效果越好。该指数基于类间差和类内差,并且对k的增加有惩罚。
>>> from sklearn import metrics
>>> from sklearn.metrics import pairwise_distances
>>> from sklearn import datasets
>>> dataset = datasets.load_iris()
>>> X = dataset.data
>>> y = dataset.target
>>> import numpy as np
>>> from sklearn.cluster import KMeans
>>> kmeans_model = KMeans(n_clusters=3, random_state=1).fit(X)
>>> labels = kmeans_model.labels_
>>> metrics.calinski_harabaz_score(X, labels)
561.62...
优点:易计算(比轮廓系数快很多);当类聚合地很好,类间差距很大时,该值增大,反映了簇的标准概念。
缺点:对于凸形簇,该值会很大,但是对于其他类型簇,如基于密度型,该值无可奈何。
Davies-Bouldin Index,简称DBI
真实分类未知,可以用DBI来评估聚类效果。值越小越好,最佳值为0,代表分类完全正确。
>>> from sklearn import datasets
>>> iris = datasets.load_iris()
>>> X = iris.data
>>> from sklearn.cluster import KMeans
>>> from sklearn.metrics import davies_bouldin_score
>>> kmeans = KMeans(n_clusters=3, random_state=1).fit(X)
>>> labels = kmeans.labels_
>>> davies_bouldin_score(X, labels)
0.6619...
优点:计算较轮廓系数简单;该指数只计算与数据集固有的数量和特征。
缺点:对于凸性簇,该值会高一点;质心距离限制距离度量欧氏空间;良好的值并不意味着最好的分类结果。
总结:共有7类度量方法,有监督的4类,无监督的3类,加上SSE,无监督也有4类。
参考文献:
2.3. Clustering http://scikit-learn.org/stable/modules/clustering.html#k-means