K-means代码实现(sklearn)

K-means代码实现(sklearn)

载入数据
设置k值

k = 4

训练模型

# 训练模型
model = KMeans(n_clusters=k)
model.fit(data)

分类中心点坐标

centers = model.cluster_centers_
print(centers)

预测结果

result = model.predict(data)
print(result)

可视化.

# 画出各个数据点,用不同颜色表示分类
mark = ['or', 'ob', 'og', 'oy']
for i, d in enumerate(data):
    plt.plot(d[0], d[1], mark[result[i]])
# 画出各个分类的中心点
mark = ['*r', '*b', '*g', '*y']
for i, center in enumerate(centers):
    plt.plot(center[0], center[1], mark[i], markersize=20)
plt.show()
# 获取数据值所在的范围
x_min, x_max = data[:, 0].min() - 1, data[:, 0].max() + 1
y_min, y_max = data[:, 1].min() - 1, data[:, 1].max() + 1
# 生成网格矩阵
xx, yy = np.meshgrid(np.arange(x_min, x_max, 0.02), 
                     np.arange(y_min, y_max, 0.02))
z = model.predict(np.c_[xx.ravel(), yy.ravel()])
z = z.reshape(xx.shape)
# 等高线图
cs = plt.contourf(xx, yy, z)
# 显示结果
mark = ['or', 'ob', 'og', 'oy']
for i, d in enumerate(data):
    plt.plot(d[0], d[1], mark[result[i]])
# 画出各个分类的中心点
mark = ['*r', '*b', '*g', '*y']
for i, center in enumerate(centers):
    plt.plot(center[0], center[1], mark[i], markersize=20)
plt.show()

K-means代码实现(sklearn)_第1张图片
K-means代码实现(sklearn)_第2张图片
K-means代码实现(sklearn)_第3张图片
数据量非常大的时候,可以考虑采用Mini Bath K-means算法
它具有更快的收敛速度,但同时降低了聚类的效果。

只需修改训练模型即可:

model = MiniBatchKMeans(n_clusters=k)
model.fit(data)

你可能感兴趣的:(python,算法,机器学习)