考虑到学习知识的顺序及效率问题,所以后续的几种聚类方法不再详细讲解原理,也不再写python实现的源代码,只介绍下算法的基本思路,使大家对每种算法有个直观的印象,从而可以更好的理解函数中参数的意义及作用,而重点是放在如何使用及使用的场景。
(题外话: 今天看到一篇博文:刚接触机器学习这一个月我都做了什么? 里面对机器学习阶段的划分很不错,就目前而言我们只要做到前两阶段即可)
因为前两篇博客已经介绍了两种算法,所以这里的算法编号从3开始。
3.Mean-shift
1)概述
Mean-shift(即:均值迁移)的基本思想:在数据集中选定一个点,然后以这个点为圆心,r为半径,画一个圆(二维下是圆),求出这个点到所有点的向量的平均值,而圆心与向量均值的和为新的圆心,然后迭代此过程,直到满足一点的条件结束。(Fukunage在1975年提出)
后来Yizong Cheng 在此基础上加入了 核函数 和 权重系数 ,使得Mean-shift 算法开始流行起来。目前它在聚类、图像平滑、分割、跟踪等方面有着广泛的应用。
2)图解过程
为了方便大家理解,借用下几张图来说明Mean-shift的基本过程。
由上图可以很容易看到,Mean-shift 算法的核心思想就是不断的寻找新的圆心坐标,直到密度最大的区域。
3)Mean-shift 算法函数
a)核心函数:sklearn.cluster.MeanShift(核函数:RBF核函数)
由上图可知,圆心(或种子)的确定和半径(或带宽)的选择,是影响算法效率的两个主要因素。所以在sklearn.cluster.MeanShift中重点说明了这两个参数的设定问题。
b)主要参数
bandwidth :半径(或带宽),float型。如果没有给出,则使用sklearn.cluster.estimate_bandwidth计算出半径(带宽).(可选)
seeds :圆心(或种子),数组类型,即初始化的圆心。(可选)
bin_seeding :布尔值。如果为真,初始内核位置不是所有点的位置,而是点的离散版本的位置,其中点被分类到其粗糙度对应于带宽的网格上。将此选项设置为True将加速算法,因为较少的种子将被初始化。默认值:False.如果种子参数(seeds)不为None则忽略。
c)主要属性
cluster_centers_ : 数组类型。计算出的聚类中心的坐标。
labels_ :数组类型。每个数据点的分类标签。
d)算法示例:代码中有详细讲解内容
from sklearn.datasets.samples_generator importmake_blobsfrom sklearn.cluster importMeanShift, estimate_bandwidthimportnumpy as npimportmatplotlib.pyplot as pltfrom itertools import cycle ##python自带的迭代器模块
##产生随机数据的中心
centers = [[1, 1], [-1, -1], [1, -1]]##产生的数据个数
n_samples=10000
##生产数据
X, _ = make_blobs(n_samples=n_samples, centers= centers, cluster_std=0.6,
random_state=0)##带宽,也就是以某个点为核心时的搜索半径
bandwidth = estimate_bandwidth(X, quantile=0.2, n_samples=500)##设置均值偏移函数
ms = MeanShift(bandwidth=bandwidth, bin_seeding=True)##训练数据
ms.fit(X)##每个点的标签
labels =ms.labels_print(labels)##簇中心的点的集合
cluster_centers =ms.cluster_centers_##总共的标签分类
labels_unique =np.unique(labels)##聚簇的个数,即分类的个数
n_clusters_ =len(labels_unique)print("number of estimated clusters : %d" %n_clusters_)##绘图
plt.figure(1)
plt.clf()
colors= cycle('bgrcmykbgrcmykbgrcmykbgrcmyk')for k, col inzip(range(n_clusters_), colors):##根据lables中的值是否等于k,重新组成一个True、False的数组
my_members = labels ==k
cluster_center=cluster_centers[k]##X[my_members, 0] 取出my_members对应位置为True的值的横坐标
plt.plot(X[my_members, 0], X[my_members, 1], col + '.')
plt.plot(cluster_center[0], cluster_center[1], 'o', markerfacecolor=col,
markeredgecolor='k', markersize=14)
plt.title('Estimated number of clusters: %d' %n_clusters_)
plt.show()
View Code
e)效果图
图4
4)openCV主要应用于图像处理,而Mean-shift多用于图像跟踪等,所以对应图像处理这部分而言,openCV中的Mean-shift算法的功能还是强大一点。
4.Spectral Clustering
1)概述
Spectral Clustering(SC,即谱聚类),是一种基于图论的聚类方法,它能够识别任意形状的样本空间且收敛于全局最有解,其基本思想是利用样本数据的相似矩阵进行特征分解后得到的特征向量进行聚类.它与样本特征无关而只与样本个数有关。
基本思路:将样本看作顶点,样本间的相似度看作带权的边,从而将聚类问题转为图分割问题:找到一种图分割的方法使得连接不同组的边的权重尽可能低(这意味着组间相似度要尽可能低),组内的边的权重尽可能高(这意味着组内相似度要尽可能高).
2)图解过程
图5
如上图所示,断开虚线,六个数据被聚成两类。
3)Spectral Clustering算法函数
a)核心函数:sklearn.cluster.SpectralClustering
因为是基于图论的算法,所以输入必须是对称矩阵。
b)主要参数(参数较多,详细参数)
n_clusters:聚类的个数。(官方的解释:投影子空间的维度)
affinity:核函数,默认是'rbf',可选:"nearest_neighbors","precomputed","rbf"或sklearn.metrics.pairwise_kernels支持的其中一个内核之一。
gamma :affinity指定的核函数的内核系数,默认1.0
c)主要属性
labels_ :每个数据的分类标签
d)算法示例:代码中有详细讲解内容
from sklearn.datasets.samples_generator importmake_blobsfrom sklearn.cluster importspectral_clusteringimportnumpy as npimportmatplotlib.pyplot as pltfrom sklearn importmetricsfrom itertools import cycle ##python自带的迭代器模块
##产生随机数据的中心
centers = [[1, 1], [-1, -1], [1, -1]]##产生的数据个数
n_samples=3000
##生产数据
X, lables_true = make_blobs(n_samples=n_samples, centers= centers, cluster_std=0.6,
random_state=0)##变换成矩阵,输入必须是对称矩阵
metrics_metrix = (-1 *metrics.pairwise.pairwise_distances(X)).astype(np.int32)
metrics_metrix+= -1 *metrics_metrix.min()##设置谱聚类函数
n_clusters_= 4lables= spectral_clustering(metrics_metrix,n_clusters=n_clusters_)##绘图
plt.figure(1)
plt.clf()
colors= cycle('bgrcmykbgrcmykbgrcmykbgrcmyk')for k, col inzip(range(n_clusters_), colors):##根据lables中的值是否等于k,重新组成一个True、False的数组
my_members = lables ==k##X[my_members, 0] 取出my_members对应位置为True的值的横坐标
plt.plot(X[my_members, 0], X[my_members, 1], col + '.')
plt.title('Estimated number of clusters: %d' %n_clusters_)
plt.show()
View Code
e)效果图
图5
5.Hierarchical Clustering
1)概述
Hierarchical Clustering(层次聚类):就是按照某种方法进行层次分类,直到满足某种条件为止。
主要分成两类:
a)凝聚:从下到上。首先将每个对象作为一个簇,然后合并这些原子簇为越来越大的簇,直到所有的对象都在一个簇中,或者某个终结条件被满足。
b)分裂:从上到下。首先将所有对象置于同一个簇中,然后逐渐细分为越来越小的簇,直到每个对象自成一簇,或者达到了某个终止条件。(较少用)
2)算法步骤
a)将每个对象归为一类, 共得到N类, 每类仅包含一个对象. 类与类之间的距离就是它们所包含的对象之间的距离.
b)找到最接近的两个类并合并成一类, 于是总的类数少了一个.
c)重新计算新的类与所有旧类之间的距离.
d)重复第2步和第3步, 直到最后合并成一个类为止(此类包含了N个对象).
3)图解过程
图6
4)Hierarchical Clustering算法函数
a)sklearn.cluster.AgglomerativeClustering
b)主要参数(详细参数)
n_clusters:聚类的个数
linkage:指定层次聚类判断相似度的方法,有以下三种:
ward:组间距离等于两类对象之间的最小距离。(即single-linkage聚类)
average:组间距离等于两组对象之间的平均距离。(average-linkage聚类)
complete:组间距离等于两组对象之间的最大距离。(complete-linkage聚类)
c)主要属性
labels_: 每个数据的分类标签
d)算法示例:代码中有详细讲解内容
from sklearn.datasets.samples_generator importmake_blobsfrom sklearn.cluster importAgglomerativeClusteringimportnumpy as npimportmatplotlib.pyplot as pltfrom itertools import cycle ##python自带的迭代器模块
##产生随机数据的中心
centers = [[1, 1], [-1, -1], [1, -1]]##产生的数据个数
n_samples=3000
##生产数据
X, lables_true = make_blobs(n_samples=n_samples, centers= centers, cluster_std=0.6,
random_state=0)##设置分层聚类函数
linkages = ['ward', 'average', 'complete']
n_clusters_= 3ac= AgglomerativeClustering(linkage=linkages[2],n_clusters =n_clusters_)##训练数据
ac.fit(X)##每个数据的分类
lables =ac.labels_##绘图
plt.figure(1)
plt.clf()
colors= cycle('bgrcmykbgrcmykbgrcmykbgrcmyk')for k, col inzip(range(n_clusters_), colors):##根据lables中的值是否等于k,重新组成一个True、False的数组
my_members = lables ==k##X[my_members, 0] 取出my_members对应位置为True的值的横坐标
plt.plot(X[my_members, 0], X[my_members, 1], col + '.')
plt.title('Estimated number of clusters: %d' %n_clusters_)
plt.show()
View Code
e)效果图:参数linkage的取值依次为:['ward', 'average', 'complete']
6.DBSCAN
1)概述
DBSCAN(Density-Based Spatial Clustering of Applications with Noise,具有噪声的基于密度的聚类方法)是一种基于密度的空间聚类算法。该算法将具有足够密度的区域划分为簇(即要求聚类空间中的一定区域内所包含对象的数目不小于某一给定阈值),并在具有噪声的空间数据库中发现任意形状的簇,它将簇定义为密度相连的点的最大集合。
2) 算法步骤(大致非详细)
DBSCAN需要二个参数:扫描半径 (eps)和最小包含点数(min_samples)
a)遍历所有点,寻找核心点
b)连通核心点,并且在此过程中扩展某个分类集合中点的个数
3)图解过程
图10
在上图中,第一步就是寻找红色的核心点,第二步就是用绿色箭头联通红色点。图中点以绿色线条为中心被分成了两类。没在黑色圆中的点是噪声点。
4)DBSCAN算法函数
a)sklearn.cluster.DBSCAN
b)主要参数(详细参数)
eps:两个样本之间的最大距离,即扫描半径
min_samples :作为核心点的话邻域(即以其为圆心,eps为半径的圆,含圆上的点)中的最小样本数(包括点本身)。
c)主要属性
core_sample_indices_:核心样本指数。(此参数在代码中有详细的解释)
labels_:数据集中每个点的集合标签给,噪声点标签为-1。
d)算法示例:代码中有详细讲解内容
from sklearn.datasets.samples_generator importmake_blobsfrom sklearn.cluster importDBSCANimportnumpy as npimportmatplotlib.pyplot as pltfrom itertools import cycle ##python自带的迭代器模块
from sklearn.preprocessing importStandardScaler##产生随机数据的中心
centers = [[1, 1], [-1, -1], [1, -1]]##产生的数据个数
n_samples=750
##生产数据:此实验结果受cluster_std的影响,或者说受eps 和cluster_std差值影响
X, lables_true = make_blobs(n_samples=n_samples, centers= centers, cluster_std=0.4,
random_state=0)##设置分层聚类函数
db = DBSCAN(eps=0.3, min_samples=10)##训练数据
db.fit(X)##初始化一个全是False的bool类型的数组
core_samples_mask = np.zeros_like(db.labels_, dtype=bool)'''这里是关键点(针对这行代码:xy = X[class_member_mask & ~core_samples_mask]):
db.core_sample_indices_ 表示的是某个点在寻找核心点集合的过程中暂时被标为噪声点的点(即周围点
小于min_samples),并不是最终的噪声点。在对核心点进行联通的过程中,这部分点会被进行重新归类(即标签
并不会是表示噪声点的-1),也可也这样理解,这些点不适合做核心点,但是会被包含在某个核心点的范围之内'''core_samples_mask[db.core_sample_indices_]=True##每个数据的分类
lables =db.labels_##分类个数:lables中包含-1,表示噪声点
n_clusters_ =len(np.unique(lables)) - (1 if -1 in lables else0)##绘图
unique_labels =set(lables)'''1)np.linspace 返回[0,1]之间的len(unique_labels) 个数
2)plt.cm 一个颜色映射模块
3)生成的每个colors包含4个值,分别是rgba
4)其实这行代码的意思就是生成4个可以和光谱对应的颜色值'''colors= plt.cm.Spectral(np.linspace(0, 1, len(unique_labels)))
plt.figure(1)
plt.clf()for k, col inzip(unique_labels, colors):##-1表示噪声点,这里的k表示黑色
if k == -1:
col= 'k'
##生成一个True、False数组,lables == k 的设置成True
class_member_mask = (lables ==k)##两个数组做&运算,找出即是核心点又等于分类k的值 markeredgecolor='k',
xy = X[class_member_mask &core_samples_mask]
plt.plot(xy[:, 0], xy[:,1], 'o', c=col,markersize=14)'''1)~优先级最高,按位对core_samples_mask 求反,求出的是噪音点的位置
2)& 于运算之后,求出虽然刚开始是噪音点的位置,但是重新归类却属于k的点
3)对核心分类之后进行的扩展'''xy= X[class_member_mask & ~core_samples_mask]
plt.plot(xy[:, 0], xy[:,1], 'o', c=col,markersize=6)
plt.title('Estimated number of clusters: %d' %n_clusters_)
plt.show()
View Code
e)效果图
图11
如果不进行第二步中的扩展,所有的小圆点都应该是噪声点(不符合第一步核心点的要求)
5)算法优缺点
a)优点
可以发现任意形状的聚类
b)缺点
随着数据量的增加,对I/O、内存的要求也随之增加。
如果密度分布不均匀,聚类效果较差
7.Birch
1)概述
Birch(利用层次方法的平衡迭代规约和聚类):就是通过聚类特征(CF)形成一个聚类特征树,root层的CF个数就是聚类个数。
2)相关概念:
聚类特征(CF):每一个CF是一个三元组,可以用(N,LS,SS)表示.其中N代表了这个CF中拥有的样本点的数量;LS代表了这个CF中拥有的样本点各特征维度的和向量,SS代表了这个CF中拥有的样本点各特征维度的平方和。
图12
如上图所示:N = 5
LS=(3+2+4+4+3,4+6+5+7+8)=(16,30)
SS =(32+22+42+42+32,42+62+52+72+82)=(54,190)
3)图解过程
图13
对于上图中的CF Tree,限定了B=7,L=5, 也就是说内部节点最多有7个CF(CF90下的圆),而叶子节点最多有5个CF(CF90到CF94)。叶子节点是通过双向链表连通的。
4)Birch算法函数
a)sklearn.cluster.Birch
b)主要参数(详细参数)
n_clusters :聚类的目标个数。(可选)
threshold :扫描半径(个人理解,官方说法比较绕口),设置小了分类就多。
branches_factor:每个节点中CF子集群的最大数量,默认为50。
c)主要属性
labels_ :每个数据点的分类
5) 算法示例:代码中有详细讲解内容
importnumpy as npimportmatplotlib.pyplot as pltfrom sklearn.datasets.samples_generator importmake_blobsfrom sklearn.cluster importBirch#X为样本特征,Y为样本簇类别, 共1000个样本,每个样本2个特征,共4个簇,簇中心在[-1,-1], [0,0],[1,1], [2,2]
X, y = make_blobs(n_samples=1000, n_features=2, centers=[[-1,-1], [0,0], [1,1], [2,2]], cluster_std=[0.4, 0.3, 0.4, 0.3],
random_state=9)##设置birch函数
birch = Birch(n_clusters =None)##训练数据
y_pred =birch.fit_predict(X)##绘图
plt.scatter(X[:, 0], X[:, 1], c=y_pred)
plt.show()
View Code
6)效果图:分别为n_clusters = None 和n_clusters = 4
图14图15
8.GaussianMixtureModel(补)
1)概述
正太分布也叫高斯分布,正太分布的概率密度曲线也叫高斯分布概率曲线。
GaussianMixtureModel(混合高斯模型,GMM)。
聚类算法大多数通过相似度来判断,而相似度又大多采用欧式距离长短作为衡量依据。而GMM采用了新的判断依据:概率,即通过属于某一类的概率大小来判断最终的归属类别。
GMM的基本思想就是:任意形状的概率分布都可以用多个高斯分布函数去近似,也就是说GMM就是有多个单高斯密度分布(Gaussian)组成的,每个Gaussian叫一个"Component",这些"Component"线性加成在一起就组成了 GMM 的概率密度函数,也就是下面的函数。
2)数学公式
这里不讲公式的具体推导过程,也不实现具体算法。列出来公式只是方便理解下面的函数中为什么需要那些参数。
K:模型的个数,即Component的个数(聚类的个数)
为第k个高斯的权重
p(x |k) 则为第k个高斯概率密度,其均值为μk,方差为σk
上述参数,除了K是直接给定之外,其他参数都是通过EM算法估算出来的。(有个参数是指定EM算法参数的)
3)GaussianMixtureModel 算法函数
a)from sklearn.mixture.GaussianMixture
b)主要参数(详细参数)
n_components :高斯模型的个数,即聚类的目标个数
covariance_type : 通过EM算法估算参数时使用的协方差类型,默认是"full"
full:每个模型使用自己的一般协方差矩阵
tied:所用模型共享一个一般协方差矩阵
diag:每个模型使用自己的对角线协方差矩阵
spherical:每个模型使用自己的单一方差
4)算法示例:代码中有详细讲解内容
import matplotlib.pyplot aspltfromsklearn.datasets.samples_generator import make_blobsfromsklearn.mixture import GaussianMixture
# X为样本特征,Y为样本簇类别, 共1000个样本,每个样本2个特征,共4个簇,簇中心在[-1,-1], [0,0],[1,1], [2,2]
X, y= make_blobs(n_samples=1000, n_features=2, centers=[[-1,-1], [0,0], [1,1], [2,2]], cluster_std=[0.4, 0.3, 0.4, 0.3],
random_state= 0)
##设置gmm函数
gmm= GaussianMixture(n_components=4, covariance_type='full').fit(X)
##训练数据
y_pred=gmm.predict(X)
##绘图
plt.scatter(X[:,0], X[:, 1], c=y_pred)
plt.show()
View Code
5)效果图
图(16)
跟图15对比可以看出,虽然使用同样的数据,但是不同的算法的聚类效果是不一样的