KNN最邻近规则分类-邻近取样

1. 综述

 1.1 Cover和Hart在1968年提出了最初的邻近算法
 1.2 分类(classification)算法
 1.3 输入基于实例的学习(instance-based learning), 懒惰学习(lazy learning)

基于实例(根据已有的例子学习),懒惰学习(没有模型)
根据距离进行学习

2. 例子:

KNN最邻近规则分类-邻近取样_第1张图片
Paste_Image.png

未知电影属于什么类型?

KNN最邻近规则分类-邻近取样_第2张图片
Paste_Image.png
前三个为一组,后三个为一组,k为3
KNN最邻近规则分类-邻近取样_第3张图片
Paste_Image.png

3. 算法详述

 3.1 步骤:
 为了判断未知实例的类别,以所有已知类别的实例作为参照
 选择参数K(距离最近的个数的考虑范围)
 计算未知实例与所有已知实例的距离
 选择最近K个已知实例
 根据少数服从多数的投票法则(majority-voting),让未知实例归类为K个最邻近样本中最多数的类别
KNN最邻近规则分类-邻近取样_第4张图片
Paste_Image.png

3.2 细节:
关于K(K很重要,决定了参考类别的数量),通常为奇数
关于距离的衡量方法:
3.2.1 Euclidean Distance 定义

KNN最邻近规则分类-邻近取样_第5张图片
Paste_Image.png
Paste_Image.png

其他距离衡量:余弦值(cos), 相关度 (correlation), 曼哈顿距离 (Manhattan distance)
3.3 举例

KNN最邻近规则分类-邻近取样_第6张图片
Paste_Image.png

4. 算法优缺点:

 4.1 算法优点
      简单
      易于理解
      容易实现
      通过对K的选择可具备丢噪音数据的健壮性

4.2 算法缺点

KNN最邻近规则分类-邻近取样_第7张图片
Paste_Image.png

(1)需要 大量空间储存所有已知实例(需要存储所有点计算距离)
(2)算法复杂度高(需要比较所有已知实例与要分类的实例)
(3)当其样本分布不平衡时,比如其中一类样本过大(实例数量过多)占主导的时候,新的未知实例容易被归类为这个主导样本,因为这类样本实例的数量过大,但这个新的未知实例实际并木接近目标样本

5. 改进版本

  考虑距离,根据距离加上权重
  比如: 1/d (d: 距离)

你可能感兴趣的:(KNN最邻近规则分类-邻近取样)