K-means 算法【基本概念篇】

写在前面的话

k-means 算法是一个聚类的算法 也就是clustering 算法。是属于无监督学习算法,也是就样本没有label(标签)的算分,然后根据某种规则进行“分割”, 把相同的或者相近的objects 物体放在一起。

在这里K就是我们想要分割的的聚类的个数。

当然了,很多资料都会说这个算法吧,毕竟简单粗暴可依赖

算法描述

首先我们有以下的几个点

A1 (2,10)
A2 (2,5)
A3 (8,4)
A4 (5,8)
A5 (7,5)
A6 (6,4)
A7 (1,2)
A8 (4,9)

这个算法不能帮助我们自动分类,所以我们需要指定我们需要的个数。其实在很多实际应用当中,我们很难知道我们的数据是什么分布的,应该分成几类比较好。这也是k-means自身的一个缺陷,所以不能帮助我们自动的聚类。

注:如果我在本文中说了分类,其实是分割的意思,我想表达的意思是聚类。
中文和英文切换,在意思上表达真的有点差距。

现在假设我们需要把上面的数据点分成三类。我们需要遵循下面的几个步骤

  1. 选取三个类的初始中心
  2. 计算剩余点到这三个中心的距离
  3. 将距离中心点距离最短的点归为一类
  4. 依次划分好所有的数据点
  5. 重新计算中心
  6. 重复2-5 个步骤,直到中心点不会在变化为止

现在看完步骤,其实可能会有一些疑问:
1. 怎么选择我们的初始中心点?
2. 怎么计算点之间的距离呢。

选择中心点

中心点怎么选择,一般情况下我们是随机的从我们的数据集中选择的。当然还会有其他的方法,我们在之后的文章中可能会讨论。如果我还有时间去写的话,一般我会有时间写的。

甚至这个中心点的选择可以是完全随机的,甚至都不需要从我们的数据集中选取,在这里,我们的数据集是一个二维的,所以我们可以选择在XY坐标上的任意三个点,随你高兴都是可以的

注意:中心点的选取不同,最后的聚类结果可能大不相同

在这里我们假设我们的三个初始点是A,
在这里我们选取的初始点是A1,A4,A7

在这里我们定义两个点之间的距离用曼哈顿聚类距离,也可以叫做城市街区距离。
在这里插入图片描述

在这里我们是二维坐标,所以我们可以按照下面这个公式:
在这里插入图片描述

下面是一个例子:
在这里插入图片描述

计算的一般过程:

我们先看第一轮:

在这里插入图片描述
选取距离最近的归为一类
这个时候我们得到的聚类的结果:
在这里插入图片描述

得到了第一轮的结果我们需要重新的计算每个聚类的中心

cluster1
对于第一个聚类只有一个点所以它的聚类的中心就是它自己。

Cluster2
X:
(8+5+7+6+4)/5 = 6
Y:
(4+8+5+4+9)/5 = 6

这个时候它的中心就变成了(6,6)

Cluster3:
X:
(2+1)/2 = 1.5
Y:
(5+2)/2 = 3.5

这个时候在进行第二轮迭代:
在这里插入图片描述

这个时候再次计算中心:

在这里插入图片描述

这个时候用我们的新的中心再来计算一遍:

在这里插入图片描述

这个时候我们在重新根据新的聚类重新计算我们的中心:

在这里插入图片描述

得到新的点之后我们在重新计算新的聚类

在这里插入图片描述

这个时候发现和上一次的结果是一致的,这个时候我们就可以停止我们的算法了。

下面我们来看一下这个迭代过程的图谱。

这个是我们的的初始过程
在这里插入图片描述

之后是我们选取中心点:
在这里插入图片描述

依次迭代的过程:

在这里插入图片描述

在这里插入图片描述




写在后面的话

无意中发现了一个巨牛的人工智能教程,忍不住分享一下给大家。教程不仅是零基础,通俗易懂,而且非常风趣幽默,像看小说一样!觉得太牛了,所以分享给大家。点这里可以跳转到教程 https://www.cbedai.net/chichoxian

喜欢的,你懂的~
救救孩子吧
在这里插入图片描述
在这里插入图片描述

Reference:

https://www.youtube.com/watch?v=_S5tvagaQRU

你可能感兴趣的:(【机器学习】)