python数据挖掘——聚类

划分聚类

Kmeans

原理

(1)任意选择k个对象作为初始的簇中心;(2)根据距离(欧式距离)中心最近原则,将其他对象分配到相应类中;(3) 更新簇的质心,即重新计算每个簇中对象的平均值;(4) 重新分配所有对象,直到质心不再发生变化

python数据挖掘——聚类_第1张图片 

 调包实现

import time
import pandas as pd
from sklearn import preprocessing

data = pd.read_csv("/.../iris.csv")
iris = data.iloc[:,:4] # 获取iris数据
target = data.iloc[:,4:] # 单独存放species属性

# 预处理
# 将species转换成数字
class_encoder = preprocessing.LabelEncoder()
target['species'] = class_encoder.fit_transform(target['species'].values)
# K-means
from sklearn.cluster import KMeans
# 将数据聚为3类
kms = KMeans(n_clusters = 3)
# 训练数据
kms.fit(iris)
# 预测结果
kms_label = kms.labels_
kms_label = pd.DataFrame(kms_label,columns=["聚类结果"])
kms_iris = iris.copy()
kms_iris["聚类结果"] = kms_label
kms_iris

python数据挖掘——聚类_第2张图片

参数调优

# 肘方法确定参数
SSE_list = []
for n in range(1,10):
    kms = KMeans(n_clusters=n)
    kms.fit(iris)
    SSE_list.append(kms.inertia_)
    
plt.xlabel = "n_clusters"
plt.ylabel = "SSE"
plt.plot(range(1,10),SSE_list,"o-")

python数据挖掘——聚类_第3张图片 

结果可视化

kms_cc = pd.DataFrame(kms.cluster_centers_,
                      index=[0,1,2],
                      columns=['sepal_length','sepal_width','petal_length','petal_width'])
kms_iris = pd.concat([kms_iris,kms_cc])
fig = plt.figure()
ax = fig.add_subplot()
ax.scatter(x=kms_iris.iloc[:150,1:2],y=kms_iris.iloc[:150,3:4],c=kms.labels_,label=[1,2,0])
ax.scatter(x=kms_iris.iloc[150:,1:2],y=kms_iris.iloc[150:,3:4],c=[0,1,2],marker='*')
plt.show()

python数据挖掘——聚类_第4张图片

自己实现 

python数据挖掘——聚类_第5张图片

python数据挖掘——聚类_第6张图片  

python数据挖掘——聚类_第7张图片  

python数据挖掘——聚类_第8张图片

 python数据挖掘——聚类_第9张图片

python数据挖掘——聚类_第10张图片  

K-Medoids

不采用簇中对象的平均值作为参照点,  而是选用簇中位置最中心的对象,  即中心点作为参照点

PAM算法

反复地用非代表对象替代代表对象,以改进聚类的质量

CLARA算法

随机地抽取多个样本,针对每一个样本寻找代表对象medoids,并进行全部数据对象的聚类,然后从中选择质量最好的聚类结果作为最终结果,并分配其余对象。


层次聚类

分裂型层次聚类法

分割最不相似的两个部分,从所有的对象归属在唯一的一个簇中开始,逐层向下分解,直到每一个对象形成一个簇。

凝聚型AGNES

(1)首先将每一个对象独立地作为一个簇。 (2)然后根据各个簇之间的相似程度(距离)逐层向上聚结,形成越来越大的簇。 (3)最终形成包含全部对象的唯一的一个簇,也可以在满足一定的聚结终止条件时终止聚结。 

python数据挖掘——聚类_第11张图片

 代码实现

# AGNES聚类
from sklearn.cluster import AgglomerativeClustering
# 将数据聚为3类
ac = AgglomerativeClustering(linkage='complete',n_clusters=3)
# 训练数据
ac.fit(iris)
# 得到结果
ac_label = ac.labels_
ac_label = pd.DataFrame(ac_label,columns=["聚类结果"])
ac_iris = iris.copy()
ac_iris["聚类结果"] = ac_label
# 数据匹配
ac_iris["聚类结果"].loc[ac_iris["聚类结果"]==2] = 'x'
ac_iris["聚类结果"].loc[ac_iris["聚类结果"]==0] = 2
ac_iris["聚类结果"].loc[ac_iris["聚类结果"]==1] = 0
ac_iris["聚类结果"].loc[ac_iris["聚类结果"]=='x'] = 1
ac_iris

python数据挖掘——聚类_第12张图片

python数据挖掘——聚类_第13张图片

 层次聚类树

# 层次聚类树
from scipy.cluster import hierarchy
plt.figure(figsize=(15,5)) 
# 生成聚类树
Z = hierarchy.linkage(ac_iris,method='weighted',metric='euclidean')
hierarchy.dendrogram(Z)
plt.show()

python数据挖掘——聚类_第14张图片

 BIRCH算法

假设在给定的一个簇中,有n个m维的数据点,i = 1, 2, ..., n

该簇的聚类特征向量CF = (N, LS, SS):(1) N是该类中的数据点数目;(2) LS是该n个数据点的线性和,即 \sum_{i=1}^{N}x_{i};(3) SS是该n个数据点的平方和,即 \sum_{i=1}^{N}x_{i}^{2}


密度聚类

DBSCAN

关键概念:核心对象、直接密度可达、密度可达、密度相连、簇与噪声

调包实现

# DBSCAN
from sklearn.cluster import DBSCAN
# 设置邻域半径为0.81,MinPts为10
db = DBSCAN(eps=0.81, min_samples=10)
# 训练数据
db.fit(iris)
# 得到结果
db_label = db.labels_
db_label = pd.DataFrame(db_label,columns=["聚类结果"])
db_iris = iris.copy()
db_iris["聚类结果"] = db_label
db_iris

python数据挖掘——聚类_第15张图片

由于聚类是无监督学习,聚类结果可能与本身的标签不匹配,所以还需要做数据匹配。下图还没有做数据匹配,可以通过颜色看出聚类结果与本身标签并不对应。 

python数据挖掘——聚类_第16张图片

参数调优

# 确定最佳参数
db_list = []
for each_eps in np.arange(0.01,10,0.10):
    for each_minpts in range(5,11):
        db = DBSCAN(eps=each_eps,min_samples=each_minpts)
        # 训练模型
        db.fit(iris)
        db_label = db.labels_
        db_label = pd.DataFrame(db_label,columns=["聚类结果"])
        n = pd.DataFrame(db.labels_).value_counts().size-1 # 簇数
        db_iris = iris.copy()
        db_iris["聚类结果"] = db_label
        try:
            score = silhouette_score(db_iris,db.labels_) # 轮廓系数
            db_list.append({'eps':each_eps,'min_samples':each_minpts,
                           'n_clusters':n,'轮廓系数':score})
        except:
            continue

python数据挖掘——聚类_第17张图片  

所以设置邻域半径为0.81,MinPts为10

 自己实现(待完善)

python数据挖掘——聚类_第18张图片

python数据挖掘——聚类_第19张图片 

python数据挖掘——聚类_第20张图片 

python数据挖掘——聚类_第21张图片  

OPTICS算法

优先选择最小的\varepsilon值密度可达的对象, 以便高密度的聚类能被首先完成


聚类评价

下图是已经做过数据匹配之后的结果,p4是原分类结果

python数据挖掘——聚类_第22张图片

 兰德系数

python数据挖掘——聚类_第23张图片

FMI 

python数据挖掘——聚类_第24张图片 

DBI python数据挖掘——聚类_第25张图片

你可能感兴趣的:(聚类,python,数据挖掘)