机器学习之KNN(三)带权回归底层实现

KNN

  • 邻近算法,或者说K最近邻(kNN,k-NearestNeighbor)分类算法是数据挖掘分类技术中最简单的方法之一。所谓K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表。
  • kNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。
  • kNN方法在类别决策时,只与极少量的相邻样本有关。由于kNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,kNN方法较其他方法更为适合。

带权重的KNN回归模型

  • 统一权重的KNN模型是找到k个最近邻的点,求标签的均值。
  • 带权重的KNN模型更有利于算法的运行,我们设计决策时,距离和权重成反比,距离越近,权重越大,越接近实际情况。

题目以代码如下

'''
    带权回归
'''
# 数据集
import math
T = [
    [3, 104, 98],
    [2, 100, 93],
    [1, 81, 95],
    [101, 10, 16],
    [99, 5, 8],
    [98, 2, 7]
]
# 预测集
x = [18, 90]
# k
k = 4

# 创建空数据集用于保存预测样本到每个训练样本的距离 和其标签
dis = []
for i in T:
    dis.append([math.sqrt((x[0] - i[0]) ** 2 + (x[1] - i[1]) ** 2),i[2]])

# 排序
dis.sort(key=lambda i:i[0])

dis = [[1/i[0],i[1]]for i in dis][0:k]
theta = 1/sum([i[0] for i in dis])
res = sum([i[0] * i[1] for i in dis])

print(res * theta)

>># 结果是
>>91.02775527644329

你可能感兴趣的:(机器学习算法思想及代码实现)