常见的聚类算法有:kmeans、fuzzy c-means、EM、hierarchical clustering、graph theoretic、self organizing map
参考文章:A Review on Image Segmentation Clustering Algorithms
其中LZ对Kmeans和EM比较熟悉,图论和自组织映射相关的资料比较少,主要学习下模糊C均值聚类和层次聚类。
fuzzy c-means
在k-means中,每个元素只能属于所有类别中的一类。那这样会带来一些问题:
因为从根本上,对于属于一个类的所有元素来说,在k-means中是无法将他们区别开的(如果非要用距离什么的来区分也可以,但是这部分功能不是k-mean擅长的)。而在fuzzy c-means中,元素可能属于任何一类,不同的是它们之间的可能性是不同的。
Fuzzy C-means算法主要是比较RGB空间的每个像素值与Cluster中的每个中心点值,最终给每个像素指派一个值(0~1之间)说明该像素更接近于哪里Cluster的中心点,模糊规则是该像素对所有cluster的值之和为1。简单的举例:假设图像中有三个聚类cluster1,cluster2,cluster3,像素A对三个聚类的值分别为a1, a2, a3, 根据模糊规则a1 + a2 + a3 = 1。更进一步,如果a1最大,则该像素比较接近于Cluster1。计算总的对象值J:
二:算法流程
初始输入参数:
a. 指定的聚类个数numberOfClusters,
b. 指定的最大循环次数maxIteration
c. 指定的最小终止循环差值deltaValue
大致流程如下:
1. 初始化所有像素点值与随机选取每个Cluster的中心点,初始化每个像素点P[i]对应Cluster的模糊值p[i][k]并计算cluster index。
2. 计算对象值J
3. 计算每个Cluster的颜色值,产生新的图像像素
4. 计算每个像素的对应每个cluster的模糊值,更新每个像素的Cluster Index
5. 再次计算对象值J,并与第二步的对象值相减,如果差值小于deltaValue或者达到最大循环数,停止计算输出结果图像,否则继续2 ~ 4
原文地址:http://blog.csdn.net/jia20003/article/details/8800197
层次聚类
不管是GMM,还是k-means,都面临一个问题,就是k的个数如何选取?比如在bag-of-words模型中,用k-means训练码书,那么应该选取多少个码字呢?为了不在这个参数的选取上花费太多时间,可以考虑层次聚类。
假设有N个待聚类的样本,对于层次聚类来说,基本步骤就是:
1、(初始化)把每个样本归为一类,计算每两个类之间的距离,也就是样本与样本之间的相似度;
2、寻找各个类之间最近的两个类,把他们归为一类(这样类的总数就少了一个);
3、重新计算新生成的这个类与各个旧类之间的相似度;
4、重复2和3直到所有样本点都归为一类,结束。
整个聚类过程其实是建立了一棵树,在建立的过程中,可以通过在第二步上设置一个阈值,当最近的两个类的距离大于这个阈值,则认为迭代可以终止。另外关键的一步就是第三步,如何判断两个类之间的相似度有不少种方法。这里介绍一下三种:
SingleLinkage:又叫做 nearest-neighbor ,就是取两个类中距离最近的两个样本的距离作为这两个集合的距离,也就是说,最近两个样本之间的距离越小,这两个类之间的相似度就越大。容易造成一种叫做 Chaining 的效果,两个 cluster 明明从“大局”上离得比较远,但是由于其中个别的点距离比较近就被合并了,并且这样合并之后 Chaining 效应会进一步扩大,最后会得到比较松散的 cluster 。
CompleteLinkage:这个则完全是 Single Linkage 的反面极端,取两个集合中距离最远的两个点的距离作为两个集合的距离。其效果也是刚好相反的,限制非常大,两个 cluster 即使已经很接近了,但是只要有不配合的点存在,就顽固到底,老死不相合并,也是不太好的办法。这两种相似度的定义方法的共同问题就是指考虑了某个有特点的数据,而没有考虑类内数据的整体特点。
Average-linkage:这种方法就是把两个集合中的点两两的距离全部放在一起求一个平均值,相对也能得到合适一点的结果。
average-linkage的一个变种就是取两两距离的中值,与取均值相比更加能够解除个别偏离样本对结果的干扰。
这种聚类的方法叫做agglomerative hierarchical clustering(自下而上)的,描述起来比较简单,但是计算复杂度比较高,为了寻找距离最近/远和均值,都需要对所有的距离计算个遍,需要用到双重循环。另外从算法中可以看出,每次迭代都只能合并两个子类,这是非常慢的。尽管这么算起来时间复杂度比较高,但还是有不少地方用到了这种聚类方法,在《数学之美》一书的第14章介绍新闻分类的时候,就用到了自顶向下的聚类方法。
是这样的,谷歌02年推出了新闻自动分类的服务,它完全由计算机整理收集各个网站的新闻内容,并自动进行分类。新闻的分类中提取的特征是主要是词频因为对不同主题的新闻来说,各种词出现的频率是不一样的, 比如科技报道类的新闻很可能出现的词就是安卓、平板、双核之类的,而军事类的新闻则更可能出现钓鱼岛、航母、歼15、歼20这类词汇。一般对每篇文章提取TF-IDF(词频-逆文本频率值)特征,组成一个高维的特征向量(每一维表示一个词出现的TF-IDF值),然后采用监督学习或者非监督学习的方法对新闻进行分类。在已知一些新闻类别的特征的情况下,采用监督学习的方法是很OK的。但是在未知的情况下,就采用这种agglomerative hierarchical clustering进行自动分类。 这种分类方法的动机很有意思。1998年雅让斯基是某个国际会议的程序委员会主席,需要把提交上来的几百篇论文发给各个专家去评审是否录用。虽然论文的作者自己给定了论文的方向,但方向还是太广,没有什么指导意义。雅让斯基就想到了这个将论文自动分类的方法,由他的学生费罗里安很快实现了。
另外有一种聚类方法叫做divisive hierarchical clustering(自顶而下),过程恰好是相反的,一开始把所有的样本都归为一类,然后逐步将他们划分为更小的单元,直到最后每个样本都成为一类。在这个迭代的过程中通过对划分过程中定义一个松散度,当松散度最小的那个类的结果都小于一个阈值,则认为划分可以终止。这种方法用的不普遍,原文也没有做更多介绍。
由于这种层次结构,普通的k-means也被称为一种flat clustering。
原文地址: http://blog.csdn.net/jwh_bupt/article/details/7685809