K近邻算法原理与实践

K近邻算法原理与实践

  • K近邻算法原理
    • 常用距离公式
      • 欧式距离
      • 曼哈顿距离
      • 切比雪夫距离
      • 闵可夫斯基距离
      • 标准化欧氏距离
      • 马氏距离
      • 夹角余弦
      • 汉明距离
      • 杰卡德距离
      • 杰卡德相似系数
      • 相关系数
      • 相关距离
      • 信息熵
    • K近邻算法实践
      • 电影分类实战

K近邻算法原理

k近邻算法(k-nearest neighbor,k-NN)是1967年由Cover T和Hart
P提出的一种基本分类与回归方法。它的工作原理是:存在一个样本数据集合,也称作为训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一个数据与所属分类的对应关系。输入没有标签的新数据后,将新的数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本最相似数据(最近邻)的分类标签。一般来说,我们只选择样本数据集中前k个最相似的数据,这就是k-近邻算法中k的出处,通常k是不大于20的整数。最后,选择k个最相似数据中出现次数最多的分类,作为新数据的分类,k近邻算法样本相似程度是通过样本之间的距离进行度量的。

我举个栗子
K近邻算法原理与实践_第1张图片
我们可以使用k-近邻算法分类一个电影是爱情片,动作片还是混合片,我们有训练样本集如表1所示
表1:训练样本集

电影名称 动作镜头 亲密镜头 电影类别
电影一 100 8 动作片
电影二 2 120 爱情片
电影三 150 4 动作片
电影四 3 134 爱情片
电影五 56 78 混和片
电影六 88 82 混和片

这个数据集有2个特征,分别为feature 1 — 动作镜头,feature 2 — 亲密镜头,根据我们的经验将样本集打上分类标签,动作镜头远远大于亲密镜头的电影我们打上动作片的标签,亲密镜头远远大于动作镜头的电影我们打上爱情片的标签,动作镜头数量与亲密镜头数量差不多的电影我们打上混合片的标签。
训练样本准备完毕,接下来就可以进行电影分类了,假设目前我们有3个待分类样本,其特征分别如表2所示
表2:待分类样本集

电影名称 动作镜头 亲密镜头
待分类电影一 125 2
待分类电影二 3 156
待分类电影三 78 85

则通过k-NN算法可以做出如下分类
表3:k-NN分类结果

电影名称 动作镜头 亲密镜头 电影类别
待分类电影一 125 2 动作片
待分类电影二 3 156 爱情片
待分类电影三 78 85 混合片

常用距离公式

欧式距离

曼哈顿距离

切比雪夫距离

闵可夫斯基距离

标准化欧氏距离

马氏距离

夹角余弦

汉明距离

杰卡德距离

杰卡德相似系数

相关系数

相关距离

信息熵

K近邻算法实践

电影分类实战

取表1作为训练样本集,表2为待分类样本集

  1. scikit-learn 实现
//导入numpy
import numpy as np
//从sklearn导入KNN分类器
from sklearn.neighbors import KNeighborsClassifier
//创建样本集
group = np.array([[100, 8],[2, 120],[150, 4], [3, 134], [56, 78], [88, 82]])
//给样本集打上标签
label = ['动作片', '爱情片', '动作片', '爱情片', '混和片', '混和片']
//指定近邻数为2
clf = KNeighborsClassifier(n_neighbors = 2)
//训练样本集
clf.fit(group, label)
//待分类的样本
predict = np.array([[125, 2], [3, 156], [78, 85]])
//预测结果
clf.predict(predict)
//预测结果:array(['动作片', '爱情片', '混和片'], dtype='

你可能感兴趣的:(机器学习算法,K近邻算法)