聚类划分
是指使用聚类算法将数据分为K类,需要自己设定K值大小。从而把同属一类的数值标记为相同标签。目前常用的聚类划分方法是Kmeans算法。
聚类划分的实现使用Python中sklearn库的KMeans ( ) 函数,其基本格式如下:
KMeans(n_clusters=8, init='k-means++', n_init=10, max_iter=300, tol=0.0001, precompute_distances='auto', verbose=0, random_state=None, copy_x=True, n_jobs=1, algorithm='auto')
关键参数详解:
KMeans是最简单的聚类算法之一,但是运用十分广泛。KMeans一般在数据分析前期使用,选取适当的k,将数据分类后,然后分类研究不同聚类下数据的特点。
掌握对数据进行KMeans聚类划分的操作。
数据使用鸢尾花数据集。
导入实验数据集。
使用KMean( )函数对数据进行聚类划分并可视化展示出来。
步骤 1 导入数据集
iris是150*4的数据集,为实验过程更易被理解。特取其中2-4列的数据进行聚类划分实验。
import numpy as np
from sklearn.datasets import load_iris
iris=load_iris()
# 只取数据集中的 3列【petal length (cm)】、4列【petal width (cm)】的数据
X = iris.data[:, 2:4]
X的部分结果如下:
array([[1.4, 0.2],
[1.4, 0.2],
[1.3, 0.2],
[1.5, 0.2],
[1.4, 0.2],
[1.7, 0.4],
[1.4, 0.3],
[1.5, 0.2],
[1.4, 0.2],
步骤 2 聚类划分
# 导入 KMeans 包
from sklearn.cluster import KMeans
# 构造聚类器实例
estimator = KMeans(n_clusters=3)
# 聚类
estimator.fit(X)
# 获取聚类标签
label_pred = estimator.labels_
补充:
label_pred
的结果如下:
array([0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
0, 0, 0, 0, 0, 0, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2,
2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 2, 2, 2, 2, 2, 1, 2, 2, 2, 2,
2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 1, 1, 1, 1, 1, 1, 2, 1, 1, 1,
1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 1, 1, 1, 1, 1, 1, 2, 1, 1, 1, 1, 1,
1, 1, 1, 1, 1, 1, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1])
打印 label_pred==0
的值:
x0 = X[label_pred == 0]
x0
部分结果显示如下:
array([[1.4, 0.2],
[1.4, 0.2],
[1.3, 0.2],
[1.5, 0.2],
[1.4, 0.2],
[1.7, 0.4],
[1.4, 0.3],
[1.5, 0.2],
[1.4, 0.2],
[1.5, 0.1],
[1.5, 0.2],
[1.6, 0.2],
解释: label_pred
的元素个数与 X
的行数是一样的(因为一个标签,对应一行数据), label_pred
的元素值如果为0,则为True, X[label_pred == 0]
其实就是把为True的对应位置的元素保留了下来,所以就相当于实现了筛选。
步骤 3 可视化展示聚类划分结果
# 导入可视化包
import matplotlib.pyplot as plt
# 可视化 k-means 结果
# 设置测试数据
x0 = X[label_pred == 0]
x1 = X[label_pred == 1]
x2 = X[label_pred == 2]
# 设置绘制的图像为散点图,输入数据 x0,散点的颜色为红色,散点的形状为 o,标签为label0
plt.scatter(x0[:, 0], x0[:, 1], c="red", marker='o',
label='label0')
# 设置绘制的图像为散点图,输入数据 x1,散点的颜色为绿色,散点的形状为*,标签为label1
plt.scatter(x1[:, 0], x1[:, 1], c="green", marker='*',
label='label1')
# 设置绘制的图像为散点图,输入数据 x2,散点的颜色为蓝色,散点的形状为+,标签为label2
plt.scatter(x2[:, 0], x2[:, 1], c="blue", marker='+',
label='label2')
# 设置 x 轴标题为'petal length'
plt.xlabel('petal length')
# 设置 y 轴标题为'petal width'
plt.ylabel('petal width')
# 设置图例显示的位置为左上角
plt.legend(loc=2)
# 显示可视化结果
plt.show()
下面是一些常用的estimator属性和方法:
labels_
:聚类标签。它是一个大小为 n_samples
的一维数组,表示每个样本所属的聚类簇的标签。
label_pred = estimator.labels_
cluster_centers_
:聚类中心。它是一个大小为 (n_clusters, n_features)
的二维数组,表示每个聚类簇的中心点的坐标。
centers = estimator.cluster_centers_
inertia_
:聚类内部的平方和误差 (SSE)
。它是一个标量值,表示所有样本到其所属聚类中心的距离的总和。
sse = estimator.inertia_
n_clusters
:聚类的 数量
。它是一个整数,表示聚类器指定的聚类簇的个数。
num_clusters = estimator.n_clusters
fit(X)
:对数据进行聚类。X是一个大小为 (n_samples, n_features)
的二维数组,表示输入的特征数据。
estimator.fit(X)
fit_predict(X)
:对数据进行聚类,并返回聚类 标签
。
labels = estimator.fit_predict(X)
整理成表格如下:
属性/方法 | 描述 |
---|---|
labels_ |
聚类标签。大小为 n_samples 的一维数组,表示每个样本所属的聚类簇的标签。 |
cluster_centers_ |
聚类中心。大小为 (n_clusters, n_features) 的二维数组,表示每个聚类簇的中心点的坐标。 |
inertia_ |
聚类内部平方和误差(SSE)。标量值,表示所有样本到其所属聚类中心的距离的总和。 |
n_clusters |
聚类的数量 。整数,表示聚类器指定的聚类簇的个数。 |
fit(X) |
对数据进行聚类。X 是一个大小为 (n_samples, n_features) 的二维数组,表示输入的特征数据。 |
fit_predict(X) |
对数据进行聚类,并返回聚类标签 。 |
这些属性和方法可以帮助你使用KMeans聚类器进行聚类操作,并获取聚类结果、聚类中心以及聚类质量的评估。你可以根据具体的需求选择适当的属性或方法来处理聚类结果。
由上述实验结果可知,使用 k-means
方法对鸢尾花部分数据集进行聚类划分之后将数据的分成了三类,几乎没有数据点是异常的。
等宽划分
是指把连续变量按照相同的区间间隔划分几等份。换句话说,就是根据连续变量的 最大值
和 最小值
,将变量划分为N等份。
等宽划分的实现使用Python中pandas库的cut ( ) 函数,其基本格式如下:
pandas.cut(x,bins,right=True,labels=None,retbins=False,precision=3,include_lowest=False)
关键参数详解:
一维数组
。可以使用cut( )函数进行等宽划分,按照相同宽度将数据分成几等份。缺点是受到异常值的影响比较大。
掌握对数据进行等宽划分的操作。
实验使用鸢尾花数据集。
步骤 1 数据准备
import pandas as pd
from sklearn.datasets import load_iris
iris=load_iris()
X=iris.data[:,1]
步骤 2 等宽划分
#指定分段的段数为 5
x=pd.cut(X,5)
x
输出结果如下:
[(3.44, 3.92], (2.96, 3.44], (2.96, 3.44], (2.96, 3.44], (3.44, 3.92], ..., (2.96, 3.44], (2.48, 2.96], (2.96, 3.44], (2.96, 3.44], (2.96, 3.44]]
Length: 150
Categories (5, interval[float64]): [(1.998, 2.48] < (2.48, 2.96] < (2.96, 3.44] < (3.44, 3.92] < (3.92, 4.4]]
扩展:加上retbins=True
pd.cut(X, 5, retbins = True)
则多打印一行:
array([1.9976, 2.48 , 2.96 , 3.44 , 3.92 , 4.4 ]))
上面这六个数,其实就是分隔区间的边界值。
系统自动将数据划分为(1.998, 2.48]、 (2.48, 2.96] 、(2.96, 3.44] 、(3.44, 3.92] 、(3.92, 4.4]五个等宽区间,并将原本的数据集中的 数据对应的区间显
示出来。
思考:为什么精度是3位小数,但是结果有一些是3位,有一些是两位,有一些是一位?
回答:precision参数可以控制分箱边界的最大小数位数,但实际的小数位数还取决于数据的分布。比如4.400其实也就是4.4,就没必要写4.400了。
把连续变量划分几等份,保证每份的数值个数相同。具体来说,假设共有M个数值,划分N份,每份包含(M/N)个数值,使用Python中pandas库的qcut() 函数,其基本格式如下:
qcut(x, q, labels=None, retbins=False, precision=3, duplicates='raise')
关键参数详解:
一维数组
。我们可以使用qcut( )函数进行等频划分,将数据分成几等份,每等份数据里面的个数是一样的。
掌握使用qcut函数实现数据的等频划分。
实验使用鸢尾花数据集。
导入实验数据集。
使用qcut ( )函数对数据进行等频划分。
步骤 1 数据准备
iris是150*4的数据集,特取其中一个属性进行等频划分实验。
import pandas as pd
from sklearn.datasets import load_iris
iris=load_iris()
X=iris.data[:,1]
步骤 2 等频划分
#指定分段的段数为 5
x=pd.qcut(X,5)
x
输出结果如下:
[(3.4, 4.4], (2.7, 3.0], (3.1, 3.4], (3.0, 3.1], (3.4, 4.4], ..., (2.7, 3.0], (1.999, 2.7], (2.7, 3.0], (3.1, 3.4], (2.7, 3.0]]
Length: 150
Categories (5, interval[float64]): [(1.999, 2.7] < (2.7, 3.0] < (3.0, 3.1] < (3.1, 3.4] < (3.4, 4.4]]
系统自动将数据划分为(1.999, 2.7] 、(2.7, 3.0] 、(3.0, 3.1] 、(3.1, 3.4] 、(3.4, 4.4]五个等频区间。
补充一(precision参数的说明):
例如,如果我们有一个数据范围从0.123456到1.123456,我们想要将其划分为两个箱子,那么:
如果我们设置precision=2,那么我们得到的箱子边界将是(0.12, 0.62]和(0.62, 1.12]。
如果我们设置precision=3,那么我们得到的箱子边界将是(0.123, 0.623]和(0.623, 1.123]。
因此,precision参数影响了分箱标签的精度,这可能会影响我们对数据的理解和解释。但是,它并不会改变实际的分箱过程,也就是说,数据仍然会被均匀地分配到每个箱子中。
补充二(什么是等距分箱?什么是等频分箱):
等距分箱:是最为常用的分箱方法之一,从最小值到最大值之间,均分为N等份,如果A,B为最小最大值,则每个区间的长度为W=(B−A)/N,则区间边界值为A+W,A+2W,….A+(N−1)W。这里只考虑边界,每个等份里面的实例数量可能不等。
等频分箱:区间的边界值要经过选择,使得每个区间包含大致相等的实例数量。比如说 N=10,每个区间应该包含大约10%的实例。
这两种分箱方法都是无监督的分箱方法,只根据变量值的分布来划分区间,不需要有目标变量(标签)。
该方法是一种自底向上的方法,运用卡方检验的策略,自底向上合并数值进行有监督离散化,核心操作是Merge。将数据集里的数值当做单独区间,递归找出可合并的最佳临近区间。判断可合并区间用到卡方统计量来检测两个区间的相关性,对符合所设定阀值的区间进行合并。常用的方法有ChiMerge、Chi2、Chi-Square Measure,下面对Chi2方法详细说明。
基于卡方检验的数值特征离散化的实现使用Python中scipy.stats统计函数库中的chi2 ( ) 函数,其基本使用格式如下:
chi2(X, y)
关键参数详解:
我们可以使用chi2 ( )函数进行卡方检验,这是一种基础的常用假设检验方法。
掌握使用chi2 ( )函数实现数据集的卡方分箱操作。
实验使用鸢尾花数据集。
步骤 1 导入数据集
import pandas as pd
from sklearn.datasets import load_iris
iris=load_iris()
# 对数据集做基于卡方检验的有监督连续变量的离散化。
from sklearn.feature_selection import SelectKBest
from sklearn.feature_selection import chi2
# 选择 K 个最好的特征,返回选择特征后的数据
SelectKBest(chi2, k=2).fit_transform(iris.data, iris.target)
输出的部分结果如下:
# 输出结果
array([[1.4, 0.2],
[1.4, 0.2],
[1.3, 0.2],
[1.5, 0.2],
[1.4, 0.2],
[1.7, 0.4],
由上述实验结果可知,原先没有规律的数据经过卡方检验操作后,对每个样本进行了有监督连续变量的离散化,从 Iris 数据集中选择的两个最佳特征是 “花瓣长度 (cm)” 和 “花瓣宽度 (cm)”。这两个特征被认为与目标变量具有较高的相关性,因此被选择作为特征子集。提示,虽然特征选择可能是数据预处理的一部分,但它着重于选择最重要的特征,而不是对数据进行转换或清洗。因此,在上述例子中,我们可以将其归类为特征选择相关的知识。