机器学习基础 聚类算法

文章目录

  • 一、聚类算法简介
    • 1. 认识聚类算法
      • 1.1 聚类算法在现实中的应用
      • 1.2 聚类算法的概念
      • 1.3 聚类算法与分类算法最大的区别
    • 2 小结
  • 二、聚类算法api初步使用
    • 1. api介绍
    • 2. 案例
      • 2.1流程分析
      • 2.2 代码实现
    • 3. 小结
  • 三、聚类算法实现流程
    • 1. k-means聚类步骤
    • 2. 案例练习
    • 3. 小结
  • 四、模型评估
    • 1. 误差平方和(SSE \The sum of squares due to error):
    • 2 “肘”方法 (Elbow method) — K值确定
    • 3. 轮廓系数法(Silhouette Coefficient)
    • 4. CH系数(Calinski-Harabasz Index)
    • 5. 小结
  • 五、算法优化
    • 1. Canopy算法配合初始聚类
      • 1.1 Canopy算法配合初始聚类实现流程
      • 1.2 Canopy算法的优缺点
    • 2. K-means++
    • 3. 二分k-means
    • 4. k-medoids(k-中心聚类算法)
    • 5. Kernel k-means(了解)
    • 6. ISODATA(了解)
    • 7. Mini Batch K-Means(了解)
    • 8. 小结
  • 六、 案例:探究用户对物品类别的喜好细分
    • 1. 需求
    • 2. 分析
    • 3. 完整代码

一、聚类算法简介

1. 认识聚类算法

机器学习基础 聚类算法_第1张图片

机器学习基础 聚类算法_第2张图片

使用不同的聚类准则,产生的聚类结果不同

1.1 聚类算法在现实中的应用

  • 用户画像,广告推荐,Data Segmentation,搜索引擎的流量推荐,恶意流量识别

  • 基于位置信息的商业推送,新闻聚类,筛选排序

  • 图像分割,降维,识别;离群点检测;信用卡异常消费;发掘相同功能的基因片段

机器学习基础 聚类算法_第3张图片

1.2 聚类算法的概念

聚类算法:

一种典型的无监督学习算法,主要用于将相似的样本自动归到一个类别中。

在聚类算法中根据样本之间的相似性,将样本划分到不同的类别中,对于不同的相似度计算方法,会得到不同的聚类结果,常用的相似度计算方法有欧式距离法。

1.3 聚类算法与分类算法最大的区别

聚类算法是无监督的学习算法,而分类算法属于监督的学习算法。

2 小结

  • 聚类算法分类【了解】
    • 粗聚类
    • 细聚类
  • 聚类的定义【了解】
    • 一种典型的无监督学习算法,
    • 主要用于将相似的样本自动归到一个类别中
    • 计算样本和样本之间的相似性,一般使用欧式距离

二、聚类算法api初步使用

1. api介绍

  • sklearn.cluster.KMeans(n_clusters=8)
    • 参数:
      • n_clusters:开始的聚类中心数量
        • 整型,缺省值=8,生成的聚类数,即产生的质心(centroids)数。
  • 方法:
    • estimator.fit(x)
    • estimator.predict(x)
    • estimator.fit_predict(x)
      • 计算聚类中心并预测每个样本属于哪个类别,相当于先调用fit(x),然后再调用predict(x)

2. 案例

随机创建不同二维数据集作为训练集,并结合k-means算法将其聚类,你可以尝试分别聚类不同数量的簇,并观察聚类效果:

机器学习基础 聚类算法_第4张图片

聚类参数n_cluster传值不同,得到的聚类结果不同

2.1流程分析

机器学习基础 聚类算法_第5张图片

2.2 代码实现

1.创建数据集

import matplotlib.pyplot as plt
from sklearn.datasets.samples_generator import make_blobs
from sklearn.cluster import KMeans
from sklearn.metrics import calinski_harabaz_score

# 创建数据集
# X为样本特征,Y为样本簇类别, 共1000个样本,每个样本2个特征,共4个簇,
# 簇中心在[-1,-1], [0,0],[1,1], [2,2], 簇方差分别为[0.4, 0.2, 0.2, 0.2]
X, y = make_blobs(n_samples=1000, n_features=2, centers=[[-1, -1], [0, 0], [1, 1], [2, 2]],
                  cluster_std=[0.4, 0.2, 0.2, 0.2],
                  random_state=9)

# 数据集可视化
plt.scatter(X[:, 0], X[:, 1], marker='o')
plt.show()

2.使用k-means进行聚类,并使用CH方法评估

y_pred = KMeans(n_clusters=2, random_state=9).fit_predict(X)
# 分别尝试n_cluses=2\3\4,然后查看聚类效果
plt.scatter(X[:, 0], X[:, 1], c=y_pred)
plt.show()

# 用Calinski-Harabasz Index评估的聚类分数
print(calinski_harabaz_score(X, y_pred))

3. 小结

  • api:sklearn.cluster.KMeans(n_clusters=8)【知道】
    • 参数:
      • n_clusters:开始的聚类中心数量
    • 方法:
      • estimator.fit_predict(x)
        • 计算聚类中心并预测每个样本属于哪个类别,相当于先调用fit(x),然后再调用predict(x)

三、聚类算法实现流程

K-means其实包含两层内容:

  • ​ K : 初始中心点个数(计划聚类数)
  • ​ means:求中心点到其他数据点距离的平均值

1. k-means聚类步骤

  • 1、随机设置K个特征空间内的点作为初始的聚类中心
  • 2、对于其他每个点计算到K个中心的距离,未知的点选择最近的一个聚类中心点作为标记类别
  • 3、接着对着标记的聚类中心之后,重新计算出每个聚类的新中心点(平均值)
  • 4、如果计算得出的新中心点与原中心点一样(质心不再移动),那么结束,否则重新进行第二步过程
    通过下图解释实现流程:

机器学习基础 聚类算法_第6张图片

k聚类动态效果图

2. 案例练习

  • 案例:
    机器学习基础 聚类算法_第7张图片

1、随机设置K个特征空间内的点作为初始的聚类中心(本案例中设置p1和p2)
机器学习基础 聚类算法_第8张图片

2、对于其他每个点计算到K个中心的距离,未知的点选择最近的一个聚类中心点作为标记类别

机器学习基础 聚类算法_第9张图片

机器学习基础 聚类算法_第10张图片

3、接着对着标记的聚类中心之后,重新计算出每个聚类的新中心点(平均值)

机器学习基础 聚类算法_第11张图片

4、如果计算得出的新中心点与原中心点一样(质心不再移动),那么结束,否则重新进行第二步过程【经过判断,需要重复上述步骤,开始新一轮迭代】

机器学习基础 聚类算法_第12张图片

机器学习基础 聚类算法_第13张图片

5、当每次迭代结果不变时,认为算法收敛,聚类完成,K-Means一定会停下,不可能陷入一直选质心的过程

机器学习基础 聚类算法_第14张图片

3. 小结

  • K-means聚类实现流程【掌握】
    • 事先确定常数K,常数K意味着最终的聚类类别数;
    • 随机选定初始点为质心,并通过计算每一个样本与质心之间的相似度(这里为欧式距离),将样本点归到最相似的类中,
    • 接着,重新计算每个类的质心(即为类中心),重复这样的过程,直到质心不再改变
    • 最终就确定了每个样本所属的类别以及每个类的质心。
    • 注意:
      • 由于每次都要计算所有的样本与每一个质心之间的相似度,故在大规模的数据集上,K-Means算法的收敛速度比较慢。

四、模型评估

1. 误差平方和(SSE \The sum of squares due to error):

举例:(下图中数据-0.2, 0.4, -0.8, 1.3, -0.7, 均为真实值和预测值的差)

机器学习基础 聚类算法_第15张图片

在k-means中的应用:

机器学习基础 聚类算法_第16张图片

公式各部分内容:

机器学习基础 聚类算法_第17张图片

上图中: k=2

  • SSE图最终的结果,对图松散度的衡量.(eg: SSE(左图)
  • SSE随着聚类迭代,其值会越来越小,直到最后趋于稳定:

  • 如果质心的初始值选择不好,SSE只会达到一个不怎么好的局部最优解.

2 “肘”方法 (Elbow method) — K值确定

机器学习基础 聚类算法_第18张图片

(1)对于n个点的数据集,迭代计算k from 1 to n,每次聚类完成后计算每个点到其所属的簇中心的距离的平方和;

(2)平方和是会逐渐变小的,直到k==n时平方和为0,因为每个点都是它所在的簇中心本身。

(3)在这个平方和变化过程中,会出现一个拐点也即“肘”点,下降率突然变缓时即认为是最佳的k值

在决定什么时候停止训练时,肘形判据同样有效,数据通常有更多的噪音,在增加分类无法带来更多回报时,我们停止增加类别。

3. 轮廓系数法(Silhouette Coefficient)

结合了聚类的凝聚度(Cohesion)和分离度(Separation),用于评估聚类的效果:

机器学习基础 聚类算法_第19张图片

目的:

内部距离最小化,外部距离最大化

机器学习基础 聚类算法_第20张图片

计算样本i到同簇其他样本的平均距离ai,ai 越小样本i的簇内不相似度越小,说明样本i越应该被聚类到该簇。

计算样本i到最近簇Cj 的所有样本的平均距离bij,称样本i与最近簇Cj 的不相似度,定义为样本i的簇间不相似度:bi =min{bi1, bi2, …, bik},bi越大,说明样本i越不属于其他簇。

求出所有样本的轮廓系数后再求平均值就得到了平均轮廓系数

平均轮廓系数的取值范围为[-1,1],系数越大,聚类效果越好。

簇内样本的距离越近,簇间样本距离越远

案例

下图是500个样本含有2个feature的数据分布情况,我们对它进行SC系数效果衡量:

机器学习基础 聚类算法_第21张图片

n_clusters = 2 The average silhouette_score is : 0.7049787496083262

n_clusters = 3 The average silhouette_score is : 0.5882004012129721

n_clusters = 4 The average silhouette_score is : 0.6505186632729437

n_clusters = 5 The average silhouette_score is : 0.56376469026194

n_clusters = 6 The average silhouette_score is : 0.4504666294372765

n_clusters 分别为 2,3,4,5,6时,SC系数如下,是介于[-1,1]之间的度量指标:

每次聚类后,每个样本都会得到一个轮廓系数,当它为1时,说明这个点与周围簇距离较远,结果非常好,当它为0,说明这个点可能处在两个簇的边界上,当值为负时,暗含该点可能被误分了

从平均SC系数结果来看,K取3,5,6是不好的,那么2和4呢?

k=2的情况:

机器学习基础 聚类算法_第22张图片

k=4的情况:

机器学习基础 聚类算法_第23张图片

n_clusters = 2时,第0簇的宽度远宽于第1簇;

n_clusters = 4时,所聚的簇宽度相差不大,因此选择K=4,作为最终聚类个数。

4. CH系数(Calinski-Harabasz Index)

Calinski-Harabasz

类别内部数据的协方差越小越好,类别之间的协方差越大越好(换句话说:类别内部数据的距离平方和越小越好,类别之间的距离平方和越大越好),

这样的Calinski-Harabasz分数s会高,分数s高则聚类效果越好。

机器学习基础 聚类算法_第24张图片

tr为矩阵的迹, Bk为类别之间的协方差矩阵,Wk为类别内部数据的协方差矩阵;

m为训练集样本数,k为类别数。

机器学习基础 聚类算法_第25张图片

使用矩阵的迹进行求解的理解:

矩阵的对角线可以表示一个物体的相似性

在机器学习里,主要为了获取数据的特征值,那么就是说,在任何一个矩阵计算出来之后,都可以简单化,只要获取矩阵的迹,就可以表示这一块数据的最重要的特征了,这样就可以把很多无关紧要的数据删除掉,达到简化数据,提高处理速度。

CH需要达到的目的:

用尽量少的类别聚类尽量多的样本,同时获得较好的聚类效果

5. 小结

  • sse【知道】
    • 误差平方和的值越小越好
  • 肘部法【知道】
    • 下降率突然变缓时即认为是最佳的k值
  • SC系数【知道】
    • 取值为[-1, 1],其值越大越好
  • CH系数【知道】
    • 分数s高则聚类效果越好
    • CH需要达到的目的:用尽量少的类别聚类尽量多的样本,同时获得较好的聚类效果

五、算法优化

k-means算法小结

优点

​ 1.原理简单(靠近中心点),实现容易

​ 2.聚类效果中上(依赖K的选择)

​ 3.空间复杂度o(N),时间复杂度o(IKN)

N为样本点个数,K为中心点个数,I为迭代次数

缺点

​ 1.对离群点,噪声敏感 (中心点易偏移)

​ 2.很难发现大小差别很大的簇及进行增量计算

​ 3.结果不一定是全局最优,只能保证局部最优(与K的个数及初值选取有关)

1. Canopy算法配合初始聚类

1.1 Canopy算法配合初始聚类实现流程

机器学习基础 聚类算法_第26张图片

1.2 Canopy算法的优缺点

优点:

​ 1.Kmeans对噪声抗干扰较弱,通过Canopy对比,将较小的NumPoint的Cluster直接去掉有利于抗干扰。

​ 2.Canopy选择出来的每个Canopy的centerPoint作为K会更精确。

​ 3.只是针对每个Canopy的内做Kmeans聚类,减少相似计算的数量。

缺点:

​ 1.算法中 T1、T2的确定问题 ,依旧可能落入局部最优解

2. K-means++

机器学习基础 聚类算法_第27张图片

其中:

在这里插入图片描述

为方便后面表示,把其记为A

机器学习基础 聚类算法_第28张图片

kmeans++目的,让选择的质心尽可能的分散

如下图中,如果第一个质心选择在圆心,那么最优可能选择到的下一个点在P(A)这个区域(根据颜色进行划分)

机器学习基础 聚类算法_第29张图片

建议参考:https://nulls.blog.csdn.net/article/details/107055635

3. 二分k-means

实现流程:

  • 1.所有点作为一个簇
  • 2.将该簇一分为二
  • 3.选择能最大限度降低聚类代价函数(也就是误差平方和)的簇划分为两个簇。
  • 4.以此进行下去,直到簇的数目等于用户给定的数目k为止。

机器学习基础 聚类算法_第30张图片

隐含的一个原则

因为聚类的误差平方和能够衡量聚类性能,该值越小表示数据点越接近于他们的质心,聚类效果就越好。所以需要对误差平方和最大的簇进行再一次划分,因为误差平方和越大,表示该簇聚类效果越不好,越有可能是多个簇被当成了一个簇,所以我们首先需要对这个簇进行划分。

二分K均值算法可以加速K-means算法的执行速度,因为它的相似度计算少了并且不受初始化问题的影响,因为这里不存在随机点的选取,且每一步都保证了误差最小

4. k-medoids(k-中心聚类算法)

K-medoids和K-means是有区别的,不一样的地方在于中心点的选取

  • K-means中,将中心点取为当前cluster中所有数据点的平均值,对异常点很敏感!
  • K-medoids中,将从当前cluster 中选取到其他所有(当前cluster中的)点的距离之和最小的点作为中心点。

机器学习基础 聚类算法_第31张图片

算法流程:

( 1 )总体n个样本点中任意选取k个点作为medoids

( 2 )按照与medoids最近的原则,将剩余的n-k个点分配到当前最佳的medoids代表的类中

( 3 )对于第i个类中除对应medoids点外的所有其他点,按顺序计算当其为新的medoids时,代价函数的值,遍历所有可能,选取代价函数最小时对应的点作为新的medoids

( 4 )重复2-3的过程,直到所有的medoids点不再发生变化或已达到设定的最大迭代次数

( 5 )产出最终确定的k个类

k-medoids对噪声鲁棒性好

例:当一个cluster样本点只有少数几个,如(1,1)(1,2)(2,1)(1000,1000)。其中(1000,1000)是噪声。如果按照k-means质心大致会处在(1,1)(1000,1000)中间,这显然不是我们想要的。这时k-medoids就可以避免这种情况,他会在(1,1)(1,2)(2,1)(1000,1000)中选出一个样本点使cluster的绝对误差最小,计算可知一定会在前三个点中选取。

k-medoids只能对小样本起作用,样本大,速度就太慢了,当样本多的时候,少数几个噪音对k-means的质心影响也没有想象中的那么重,所以k-means的应用明显比k-medoids多。

5. Kernel k-means(了解)

kernel k-means实际上,就是将每个样本进行一个投射到高维空间的处理,然后再将处理后的数据使用普通的k-means算法思想进行聚类。

机器学习基础 聚类算法_第32张图片

6. ISODATA(了解)

类别数目随着聚类过程而变化;

对类别数会进行合并,分裂,

“合并”:(当聚类结果某一类中样本数太少,或两个类间的距离太近时)

“分裂”:(当聚类结果中某一类的类内方差太大,将该类进行分裂)

7. Mini Batch K-Means(了解)

适合大数据的聚类算法

大数据量是什么量级?通常当样本量大于1万做聚类时,就需要考虑选用Mini Batch K-Means算法。

Mini Batch KMeans使用了Mini Batch(分批处理)的方法对数据点之间的距离进行计算。

Mini Batch计算过程中不必使用所有的数据样本,而是从不同类别的样本中抽取一部分样本来代表各自类型进行计算。由于计算样本量少,所以会相应的减少运行时间,但另一方面抽样也必然会带来准确度的下降。

该算法的迭代步骤有两步:

(1)从数据集中随机抽取一些数据形成小批量,把他们分配给最近的质心

(2)更新质心

​ 与Kmeans相比,数据的更新在每一个小的样本集上。对于每一个小批量,通过计算平均值得到更新质心,并把小批量里的数据分配给该质心,随着迭代次数的增加,这些质心的变化是逐渐减小的,直到质心稳定或者达到指定的迭代次数,停止计算。

8. 小结

  • k-means算法优缺点总结【知道】
    • 优点
      • ​ 1.原理简单(靠近中心点),实现容易
      • ​ 2.聚类效果中上(依赖K的选择)
      • ​ 3.空间复杂度o(N),时间复杂度o(IKN)
    • 缺点
      • ​ 1.对离群点,噪声敏感 (中心点易偏移)
      • ​ 2.很难发现大小差别很大的簇及进行增量计算
      • ​ 3.结果不一定是全局最优,只能保证局部最优(与K的个数及初值选取有关)
  • 优化方法【知道】

机器学习基础 聚类算法_第33张图片

六、 案例:探究用户对物品类别的喜好细分

机器学习基础 聚类算法_第34张图片

数据如下:

  • order_products__prior.csv:订单与商品信息
    • 字段:order_id, product_id, add_to_cart_order, reordered
  • products.csv:商品信息
    • 字段:product_id, product_name, aisle_id, department_id
  • orders.csv:用户的订单信息
    • 字段:order_id,user_id,eval_set,order_number,….
  • aisles.csv:商品所属具体物品类别
    • 字段: aisle_id, aisle

1. 需求

机器学习基础 聚类算法_第35张图片

机器学习基础 聚类算法_第36张图片

2. 分析

  • 1.获取数据
  • 2.数据基本处理
    • 2.1 合并表格
    • 2.2 交叉表合并
    • 2.3 数据截取
  • 3.特征工程 — pca
  • 4.机器学习(k-means)
  • 5.模型评估
    • sklearn.metrics.silhouette_score(X, labels)
      • 计算所有样本的平均轮廓系数
      • X:特征值
      • labels:被聚类标记的目标值

3. 完整代码

import pandas as pd
from sklearn.decomposition import PCA
from sklearn.cluster import KMeans
from sklearn.metrics import silhouette_score

1.获取数据

order_product = pd.read_csv("./data/instacart/order_products__prior.csv")
products = pd.read_csv("./data/instacart/products.csv")
orders = pd.read_csv("./data/instacart/orders.csv")
aisles = pd.read_csv("./data/instacart/aisles.csv")

2.数据基本处理

  • 2.1 合并表格
    # 2.1 合并表格
    table1 = pd.merge(order_product, products, on=["product_id", "product_id"])
    table2 = pd.merge(table1, orders, on=["order_id", "order_id"])
    table = pd.merge(table2, aisles, on=["aisle_id", "aisle_id"])
    
  • 2.2 交叉表合并
    table = pd.crosstab(table["user_id"], table["aisle"])
    
  • 2.3 数据截取
    table = table[:1000]
    

3.特征工程 — pca

transfer = PCA(n_components=0.9)
data = transfer.fit_transform(table)

4.机器学习(k-means)

estimator = KMeans(n_clusters=8, random_state=22)
estimator.fit_predict(data)

5.模型评估

silhouette_score(data, y_predict)

你可能感兴趣的:(人工智能,聚类,机器学习,算法,人工智能)