KNN 回归

K 近邻回归(K-Nearest Neighbors Regression)是一种基于实例的回归算法,用于预测连续数值型的输出变量。它的基本思想是通过找到与给定测试样本最近的 K 个训练样本,并使用它们的输出值来预测测试样本的输出。它与 K 最近邻分类类似,但是用于解决回归问题而不是分类问题。

K 近邻回归算法的基本步骤:

  1. 数据准备:首先,我们需要准备训练集和测试集的特征数据和对应的目标变量。特征数据可以包括数值型、分类型或二元型的特征。目标变量是我们要预测的连续数值。
  2. 选择 K 值和距离度量方法:K 值是指选择的最近邻居的数量,通常通过交叉验证等方法来选择最优的 K 值。距离度量方法用于计算样本之间的距离,常见的方法有欧氏距离、曼哈顿距离等。
  3. 计算距离:对于给定的测试样本,我们计算它与训练集中所有样本的距离。距离的计算方法取决于选择的距离度量方法。
  4. 选择最近的 K 个邻居:根据距离的计算结果,选择与测试样本最近的 K 个训练样本作为邻居。可以使用排序算法(如快速排序)来加快寻找最近邻居的过程。
  5. 预测输出:对于回归问题,根据这 K 个邻居的输出值,可以采用平均值或加权平均值作为预测输出。通常,距离较近的邻居会被赋予更高的权重。
  6. 模型评估:使用回归评估指标(如均方误差、平均绝对误差等)来评估模型的性能。可以使用交叉验证等方法来获取更准确的模型评估结果。

需要注意的是,K 值的选择对算法的性能有重要影响。较小的 K 值会导致模型过拟合,而较大的 K 值可能会导致模型欠拟合。因此,通常需要通过交叉验证等方法来选择最优的 K 值。

K 近邻回归算法的基本思想就是,在给定一个新的数据点,它的输出值由其 K 个最近邻数据点的输出值的平均值(或加权平均值)来预测。

简单地说,KNN 回归使用多个近邻(即 k > 1)时,预测结果为这些邻居的对应目标值的平均值。

KNN 回归也可以用 score 方法进行模型评估,返回的是 R 2 R^2 R2 分数。 R 2 R^2 R2(R-squared)分数也叫做决定系数,是用来评估模型拟合优度的指标,它表示因变量的方差能够被自变量解释的比例。 R 2 R^2 R2 的取值范围在 0 到 1 之间,越接近 1 表示模型对数据的拟合越好,即模型能够解释更多的因变量的方差。当 R 2 R^2 R2 接近 0 时,说明模型无法解释因变量的方差,拟合效果较差。简单地说, R 2 = 1 R^2 = 1 R2=1 对应完美预测, R 2 = 0 R^2 = 0 R2=0 对应常数模型,即总是预测训练集响应(y_train)的平均值。

R 2 = 1 − ( S S R / S S T ) = 1 − ∑ i = 1 n ( y i − y i ′ ) 2 ∑ i = 1 n ( y i − y m e a n ) 2 R^2 = 1 - (SSR / SST) = 1 - \frac{\displaystyle\sum_{i=1}^{n}(y_i - y'_i)^2}{\displaystyle\sum_{i=1}^{n}(y_i - y_{mean})^2} R2=1(SSR/SST)=1i=1n(yiymean)2i=1n(yiyi)2

其中, y y y 为实际观测值, y ′ y' y 为预测值, y m e a n y_{mean} ymean 为实际观测值的均值。

SSR 与 SST:

  • SSR(Sum of Squares Residual)为残差平方和,表示模型预测值与实际观测值之间的差异。
  • SST(Total Sum of Squares)为总平方和,表示实际观测值的方差。

一般来说,KNN 分类器有 2 个重要参数:邻居个数以及数据点之间距离的度量方法。在实践中,使用较小的邻居个数(比如 3 个或 5 个)往往可以得到较好的结果,但在不同问题中应根据具体情况调节这个参数。数据点之间的距离度量方法默认使用欧式距离,它在许多情况下的效果都很好。

如果训练集很大(特征数很多或样本数很大),KNN 模型的预测速度可能会比较慢。
使用 KNN 算法时,对数据进行预处理是很重要的。
这一算法对于有很多特征(几百或更多)的数据集往往效果不好,对于大多数特征的大多数取值都为 0 的数据集(所谓的稀疏数据集)来说,这一算法的效果尤其不好。

在 sklearn 中调用 KNN 回归模型:

from sklearn.neighbors import KNeighborsRegressor

reg = KNeighborsRegressor(n_neighbors=3)
reg.fit(X_train, y_train)
y_pred = reg.predict(X_new)

你可能感兴趣的:(机器学习,回归,数据挖掘,人工智能)