K-Means(四)聚类效果

兰德指数(Adjusted Rand index, ARI)

>>>from sklearn import metrics

>>>labels_true = [0, 0, 0, 1, 1, 1]

>>>labels_pred = [0, 0, 1, 1, 2, 2]

>>>metrics.adjusted_rand_score(labels_true, labels_pred)

优点:对于均匀分布的数据,ARI接近于0;ARI的范围介入-1到1之间,-1表示分类效果不好,1表示分类效果好;不需要对簇结构进行预先估计,可以对不同的聚类算法进行评估。

缺点:需要知道数据的真实分类。

对兰德指数进行改进的原因是,原来的兰德指数不能保证即使在随机分类时,如在处理k=n此类型问题时趋近于0。对其进行改进之后可以避免这个缺陷。

互信息(Mutual Information based scores,MI)

互信息用来衡量两个分布一致性,并且忽略顺序。

直观上,互信息度量 X 和 Y 共享的信息:它度量知道这两个变量其中一个,对另一个不确定度减少的程度。例如,如果 X 和 Y 相互独立,则知道 X 不对 Y 提供任何信息,反之亦然,所以它们的互信息为零。

>>> from sklearn import metrics                                                                                         

>>> labels_true = [0, 0, 0, 1, 1, 1]                                                                                        

>>> labels_pred = [0, 0, 1, 1, 2, 2]                                                                                      

>>> metrics.adjusted_mutual_info_score(labels_true, labels_pred)

优点:随机的预测AMI会接近于0;最大上界为1,说明预测完全正确。

缺点:需要预先知道样本所属类,而类间差SSE不需要。

同质性(homogeneity),完整性(completeness),V-度量(V-measure)

>>> from sklearn import metrics

>>> labels_true = [0, 0, 0, 1, 1, 1]

>>> labels_pred = [0, 0, 1, 1, 2, 2]

>>> metrics.homogeneity_score(labels_true, labels_pred) 

0.66...

>>> metrics.completeness_score(labels_true, labels_pred) 

0.42...

同质性是指每个群集只包含单个类的成员。

完整性是指给定类的所有成员都分配给同一个群集。

V-度量是以上两者的调和平均数。

优点:0代表差,1代表好;不需要对簇结构进行假设,可以对不同聚类算法进行比较。

缺点:当簇数目比较大时,这三者的值都不会趋近于0;当样本数多于1000或者簇数目少于10时可以避免这个问题,其他情况可以选择适用ARI;另外这三个指标需要知道样本的真实分类。

Fowlkes-Mallows分数,简称FMI

FMI定义为成对精度和召回率的几何平均值。

>>> from sklearn import metrics

>>> labels_true = [0, 0, 0, 1, 1, 1]

>>> labels_pred = [0, 0, 1, 1, 2, 2]

>>> metrics.fowlkes_mallows_score(labels_true, labels_pred) 

0.47140...

优点:随机预测值趋近于0;上限为1,表示预测完全正确;不需要对簇类型进行假设。

缺点:需要知道样本类别。

轮廓系数

在K-Means(一)中有详细说明,此处从简。

>>> from sklearn import metrics

>>> from sklearn.metrics import pairwise_distances

>>> from sklearn import datasets

>>> dataset = datasets.load_iris()

>>> X = dataset.data

>>> y = dataset.target

>>> import numpy as np

>>> from sklearn.cluster import KMeans

>>> kmeans_model = KMeans(n_clusters=3, random_state=1).fit(X)

>>> labels = kmeans_model.labels_

>>> metrics.silhouette_score(X, labels, metric='euclidean')

... 0.55...

优点:不需要知道样本标签;-1表示存在错误聚类,0表示有交叉的簇,1表示高密度聚类。

缺点:凸形簇的轮廓系数通常高于其他类型的簇。

Calinski-Harabaz Index,简称CHI

如果不知道样本的标签,CHI可以用来评估模型。值越高说明聚类效果越好。该指数基于类间差和类内差,并且对k的增加有惩罚。

>>> from sklearn import metrics

>>> from sklearn.metrics import pairwise_distances

>>> from sklearn import datasets

>>> dataset = datasets.load_iris()

>>> X = dataset.data

>>> y = dataset.target

>>> import numpy as np

>>> from sklearn.cluster import KMeans

>>> kmeans_model = KMeans(n_clusters=3, random_state=1).fit(X)

>>> labels = kmeans_model.labels_

>>> metrics.calinski_harabaz_score(X, labels) 

561.62...

优点:易计算(比轮廓系数快很多);当类聚合地很好,类间差距很大时,该值增大,反映了簇的标准概念。

缺点:对于凸形簇,该值会很大,但是对于其他类型簇,如基于密度型,该值无可奈何。

Davies-Bouldin Index,简称DBI

真实分类未知,可以用DBI来评估聚类效果。值越小越好,最佳值为0,代表分类完全正确。

>>> from sklearn import datasets

>>> iris = datasets.load_iris()

>>> X = iris.data

>>> from sklearn.cluster import KMeans

>>> from sklearn.metrics import davies_bouldin_score

>>> kmeans = KMeans(n_clusters=3, random_state=1).fit(X)

>>> labels = kmeans.labels_

>>> davies_bouldin_score(X, labels) 

0.6619...

优点:计算较轮廓系数简单;该指数只计算与数据集固有的数量和特征。

缺点:对于凸性簇,该值会高一点;质心距离限制距离度量欧氏空间;良好的值并不意味着最好的分类结果。


总结:共有7类度量方法,有监督的4类,无监督的3类,加上SSE,无监督也有4类。



考文献:

2.3. Clustering http://scikit-learn.org/stable/modules/clustering.html#k-means

你可能感兴趣的:(K-Means(四)聚类效果)