目录
Kmeans聚类算法介绍:
1.聚类概念:
2.Kmeans算法:
定义:
大概步骤:
Kmeans距离测定方式:
3.如何确定最佳的k值(类别数):
手肘法:
python实现Kmeans算法:
1.代码如下:
2.代码结果展示:
聚类可视化图:
手肘图:
运行结果:
文章参考:
手肘法:K-means聚类最优k值的选取_qq_15738501的博客-CSDN博客_kmeans聚类k的选取
matplotlib.pyplot.scatter散点图的画法:
将物理或抽象对象的集合分成由类似的对象组成的多个类的过程被称为聚类。由聚类所生成的簇是一组数据对象的集合,这些对象与同一个簇中的对象彼此相似,与其他簇中的对象相异。
kmeans算法又名k均值算法,K-means算法中的k表示的是聚类为k个簇,means代表取每一个聚类中数据值的均值作为该簇的中心,或者称为质心,即用每一个的类的质心对该簇进行描述。
欧式距离:
曼哈顿距离:
余弦相似度:
A与B表示向量(x1,y1),(x2,y2)
分子为A与B的点乘,分母为二者各自的L2相乘,即将所有维度值的平方相加后开方。
本文选取手肘法
对于每一个k值,计算它的误差平方和(SSE):
其中N是点的个数,Xi 是第i 个点,ci 是Xi 对应的中心。
import numpy as np
import matplotlib.pyplot as plt
import math
k = eval(input("请输入想要划分的类别个数")) #规定类别数
n = eval(input("请输入要循环的次数"))#规定循环次数
sw = eval(input("请输入想要查询的元素在数据中的位置"))
def readdata():#获取data数据中坐标值
data = np.loadtxt("E:\\Python\\Lab4\\Lab4.dat")#读取dat数据
x_data = data[:,0]#横坐标
y_data = data[:,1]#纵坐标
return data,x_data,y_data
def init(k):#初始化生成k个随机类别中心
data,x_data,y_data = readdata()
class_center = []
for i in range(k):
#在数据的最大值与最小值间给出随机值
x = np.random.randint(np.min(x_data),np.max(x_data))
y = np.random.randint(np.min(y_data),np.max(y_data))
class_center.append(np.array([x,y]))#以数组方式添加,方便后面计算距离
return class_center
def dist(a,b):#计算两个坐标间的欧氏距离
dist = math.sqrt(math.pow((a[0] - b[0]),2) + math.pow((a[1] - b[1]),2))
return dist
def dist_rank(center,data):#得到与类中心最小距离的类别位置索引
tem = []
for m in range(k):
d = dist(data, center[m])
tem.append(d)
loc = tem.index(min(tem))
return loc
def means(arr):#计算类的平均值当作类的新中心
sum_x,sum_y =0,0
for n in arr:
sum_x += n[0]
sum_y += n[1]
mean_x = sum_x / len(arr)
mean_y = sum_y / len(arr)
return [mean_x,mean_y]
def divide(center,data):#将每一个二维坐标分到与之欧式距离最近的类里
cla_arr = [[]]
for i in range(k-1):#创建与k值相同维度的空数组存取坐标
cla_arr.append([])
for j in range(len(data)):
loc = dist_rank(center,data[j])
cla_arr[loc].append(list(data[j]))
return cla_arr
def new_center(cla):#计算每类平均值更新类中心
new_cen = []
for g in range(k):
new = means(cla[g])
new_cen.append(new)
return new_cen
def index_element(arr,data,sw):#索引第sw个元素对应的类别
index = []
for i in range(len(data)):#遍历每一个数据
for j in range(k):#遍历每一个类别
tem = arr[j]
for d in range(len(tem)):#遍历类别内的每一个数据
if data[i][0] == tem[d][0] and data[i][1] == tem[d][1]:#如果横纵坐标数值都相等
index.append((j + 1))#归为j+1类
else:
continue
return index[sw]
def Kmeans(n,sw):#获取n次更新后类别中心以及第sw个元素对应的类别
data, x_data, y_data = readdata()#读取数据
center = init(k) # 获取初始类别中心
while n > 0:
cla_arr = divide(center,data)# 将数据分到随机选取的类中心的里
center = new_center(cla_arr)#更新类别中心
n -= 1
sse1 = 0
for j in range(k):
for i in range(len(cla_arr[j])): # 计算每个类里的误差平方
# 计算每个类里每个元素与元素中心的误差平方
dist1 = math.pow(dist(cla_arr[j][i], center[j]), 2)
sse1 += dist1
sse1 = sse1 / len(data)
index = index_element(cla_arr,data,sw)
return center,index,sse1,cla_arr
center_l, index,sse1, cla_arr = Kmeans(n,sw)
print("类别中心为:",center_l)
print("所查元素属于类别:",index)
print('k值为{0}时的误差平方和为{1}'.format(k,sse1))#format格式化占位输出误差平方和
def visualization(cla):#聚类可视化展现
cla_x = [[]]
cla_y = [[]]
for m in range(k-1):#创建与k值相同维度的空数组存取x坐标和y坐标
cla_x.append([])
cla_y.append([])
for i in range(k):#遍历k次读取k个类别
for j in cla[i]:#遍历每一类存取横纵坐标
cla_x[i].append(j[0])
cla_y[i].append(j[1])
plt.rcParams['axes.unicode_minus'] = False
plt.rcParams['font.sans-serif']=['SimHei']#解决中文不能显示的问题
plt.figure()
plt.xlabel("x")
plt.ylabel("y")
plt.title("聚类图")
plt.scatter(cla_x[0],cla_y[0],c = 'r',marker = 'h')
plt.scatter(cla_x[1], cla_y[1], c='y', marker='.')
plt.scatter(cla_x[2], cla_y[2], c='g', marker='o')
plt.scatter(cla_x[3], cla_y[3], c='b', marker=',')
plt.scatter(cla_x[4], cla_y[4], c='k', marker='p')
plt.show()
visualization(cla_arr)
def hand():#画出手肘图
#sse列表是循环次数为3,改变k从2到8一个一个人工测得存入
sse = [17.840272113687078,12.116153021227769,8.563862232332205,4.092534331364449,3.573312882789776,3.42794767600246,3.2880646083752185]
x = np.linspace(2,8,7)#创建等间距大小为7的数组
plt.xlabel("k值")#横坐标名称
plt.ylabel("误差平方和")#纵坐标名称
plt.title("手肘图")#曲线名
plt.plot(x,sse)#画出曲线
plt.show()
hand()
PYthon——plt.scatter各参数详解_yuanCruise-CSDN博客_plt.scatter