K近邻算法

  k最近邻(k-Nearest Neighbor, KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一类别,则该样本也属于这个类别。
  用官方的话来讲,所谓K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到于该实例最邻近的K个实例(也就是上面说的K个邻居),这K个实例的多数属于某各类,就把该输入实例分类到这个类中。
  KNN算法本身简单有效,它是一种lazy-learning算法,分类器不需要使用训练集进行训练,训练复杂度为0。KNN分类的计算复杂度和训练集中的文档数目成正比,也就是说,如果训练集中的文档总数为n,那么KNN的分类复杂度为O(n)。
  KNN方法虽然从原理上也依赖于极限定理,但在类别决策时,只与极少量的相邻样本有关。由于KNN方法主要依靠周围有限的邻近样本,而不是靠判断类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合。
  K近邻算法使用的模型实际上对应于对特征空间的划分。K值的选择,距离度量和分类决策规则是该算法的三个基本要素:

  1. K值的选择会对算法的结果产生重大的影响。K值越小意味着只有与输入实例接近的训练实例才会对预测结果起作用,但容易发生过拟合;如果K值越大,优点是可以减少学习的估计误差,但缺点是学习的近似误差增大,这时与输入实例较远的训练实例也会对预测起作用,使预测发生错误。在实际应用中,K值一般选择一个较小的数值,通常采用交叉验证的方法来选择最优的K值。随着训练实例数目趋向无穷和K = 1时,误差率不会超过贝叶斯误差率的2倍,如果K也趋向于无穷,则误差率趋向于贝叶斯误差率。
  2. 该算法中的分类决策规则往往是多数表决,即输入实例的K个最邻近的训练实例中的多数类决定输入实例的类别
  3. 距离度量一般采用Lp距离,当p = 2时,即为欧式距离,在度量之前,应该将每个属性的值规范化,这样有助于防止具有较大初始值域的属性比具有较小初始值域的属性的权重过大。

  KNN算法不仅可以用于分类,还可以用于回归。通过找出一个样本的k个最近邻居,将这些邻居的属性的平均值赋给该样本,就可以得到该样本的属性。更有用的方法是将不同距离的邻居对该样本产生的影响给予不同的权重(weight),如权值与距离成反比。该算法在分类时有个主要的不足是,当样本不平衡时,如一个样本容量很大,而其他样本容量很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数。该算法只计算“最近的”邻居样本,某一类的样本数量很大,那么或者这类样本并不接近于目标样本,或者这类样本很靠近目标样本。无论怎样,数量并不能影响运行结果。可以采用权值的方法(和该样本距离小的邻居权值大)来改进。
  该方法的另一个不足之处就是计算量较大,因为对每一个待分类的文本都要计算它到全体已知样本的距离,才能求得他的K个最近邻点。目前常用的解决方法是事先对已知样本点进行剪辑,事先去除对分类作用不大的样本。该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易产生误分。
  实现K近邻算法时,主要考虑的问题是如何对训练数据进行快速K近邻搜索,这在特征空间维数大及训练数据容量大时非常必要。

不足:

  • 分类器必须记住所有的训练数据并将其存储起来,以便于未来测试数据用于比较。这在存储空间上是低效的,数据集的大小很容易就以GB计。
  • 对一个测试图像进行分类需要和所有训练图像做比较,算法计算资源耗费高。

你可能感兴趣的:(K近邻算法)