python分类算法_KNN分类算法及python代码实现

KNN分类算法(先验数据中就有类别之分,未知的数据会被归类为之前类别中的某一类!)

1、KNN介绍

K最近邻(k-Nearest Neighbor,KNN)分类算法是最简单的机器学习算法。

机器学习,算法本身不是最难的,最难的是:

1、数学建模:把业务中的特性抽象成向量的过程;

2、选取适合模型的数据样本。

这两个事都不是简单的事。算法反而是比较简单的事。

本质上,KNN算法就是用距离来衡量样本之间的相似度。

2、算法图示

◊ 从训练集中找到和新数据最接近的k条记录,然后根据多数类来决定新数据类别。

◊算法涉及3个主要因素:

1) 训练数据集

2) 距离或相似度的计算衡量

3) k的大小

1110462-20170711153919150-2044110591.png

◊算法描述

1) 已知两类“先验”数据,分别是蓝方块和红三角,他们分布在一个二维空间中

2) 有一个未知类别的数据(绿点),需要判断它是属于“蓝方块”还是“红三角”类

3) 考察离绿点最近的3个(或k个)数据点的类别,占多数的类别即为绿点判定类别

3、算法要点

3.1、计算步骤

1)算距离:给定测试对象,计算它与训练集中的每个对象的距离

2)找邻居:圈定距离最近的k个训练对象,作为测试对象的近邻

3)做分类:根据这k个近邻归属的主要类别,来对测试对象分类

3.2、相似度的度量

◊距离越近应该意味着这两个点属于一个分类的可能性越大。

但,距离不能代表一切,有些数据的相似度衡量并不适合用距离

◊相似度衡量方法:包括欧式距离、夹角余弦等。

(简单应用中,一般使用欧氏距离,但对于文本分类来说,使用余弦(cosine)来计算相似度就比欧式(Euclidean)距离更合适)

3.3、类别的判定

◊简单投票法:少数服从多数,近邻中哪个类别的点最多就分为该类。

◊加权投票法:根据距离的远近,对近邻的投票进行加权,距离越近则权重越大(权重为距离平方的倒数)

3.4、算法不足

样本不平衡容易导致结果错误

◊如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数。

◊改善方法:对此可以采用权值的方法(和该样本距离小的邻居权值大)来改进。

计算量较大

◊因为对每一个待分类的文本都要计算它到全体已知样本的距离,才能求得它的K个最近邻点。

◊改善方法:事先对已知样本点进行剪辑,事先去除对分类作用不大的样本。

该方法比较适用于样本容量比较大的类域的分类,而那些样本容量较小的类域采用这种算法比较容易产生误分。

4、KNN分类算法python实现(python2.7)

需求:

有以下先验数据,使用knn算法对未知类别数据分类

属性1

属性2

类别

1.0

0.9

A

1.0

1.0

A

0.1

0.2

B

0.0

0.1

B

未知类别数据

属性1

属性2

类别

1.2

1.0

?

0.1

0.3

?

python实现:

KNN.py脚本文件

1 #!/usr/bin/python

2 #coding=utf-8

3 #########################################

4 #kNN: k Nearest Neighbors

5

6 #输入: newInput: (1xN)的待分类向量

7 #dataSet: (NxM)的训练数据集

8 #labels: 训练数据集的类别标签向量

9 #k: 近邻数

10

11 #输出: 可能性最大的分类标签

12 #########################################

13

14 from numpy import *

15 importoperator16

17 #创建一个数据集,包含2个类别共4个样本

18 defcreateDataSet():19 #生成一个矩阵,每行表示一个样本

20 group = array([[1.0, 0.9], [1.0, 1.0], [0.1, 0.2], [0.0, 0.1]])21 #4个样本分别所属的类别

22 labels = ['A', 'A', 'B', 'B']23 returngroup, labels24

25 #KNN分类算法函数定义

26 defkNNClassify(newInput, dataSet, labels, k):27 numSamples = dataSet.shape[0] #shape[0]表示行数

28

29 ## step 1: 计算距离[

30 #假如:

31 #Newinput:[1,0,2]

32 #Dataset:

33 #[1,0,1]

34 #[2,1,3]

35 #[1,0,2]

36 #计算过程即为:

37 #1、求差

38 #[1,0,1] [1,0,2]

39 #[2,1,3] -- [1,0,2]

40 #[1,0,2] [1,0,2]

41 #=

42 #[0,0,-1]

43 #[1,1,1]

44 #[0,0,-1]

45 #2、对差值平方

46 #[0,0,1]

47 #[1,1,1]

48 #[0,0,1]

49 #3、将平方后的差值累加

50 #[1]

51 #[3]

52 #[1]

53 #4、将上一步骤的值求开方,即得距离

54 #[1]

55 #[1.73]

56 #[1]

57 #58 #]

59 #tile(A, reps): 构造一个矩阵,通过A重复reps次得到

60 #the following copy numSamples rows for dataSet

61 diff = tile(newInput, (numSamples, 1)) - dataSet #按元素求差值

62 squaredDiff = diff ** 2 #将差值平方

63 squaredDist = sum(squaredDiff, axis = 1) #按行累加

64 distance = squaredDist ** 0.5 #将差值平方和求开方,即得距离

65

66 ## step 2: 对距离排序

67 #argsort() 返回排序后的索引值

68 sortedDistIndices =argsort(distance)69 classCount = {} #define a dictionary (can be append element)

70 for i inxrange(k):71 ## step 3: 选择k个最近邻

72 voteLabel =labels[sortedDistIndices[i]]73

74 ## step 4: 计算k个最近邻中各类别出现的次数

75 #when the key voteLabel is not in dictionary classCount, get()

76 #will return 0

77 classCount[voteLabel] = classCount.get(voteLabel, 0) + 1

78

79 ## step 5: 返回出现次数最多的类别标签

80 maxCount =081 for key, value inclassCount.items():82 if value >maxCount:83 maxCount =value84 maxIndex =key85

86 return maxIndex

KNNTest.py测试文件

1 #!/usr/bin/python

2 #coding=utf-8

3 importKNN4 from numpy import *

5 #生成数据集和类别标签

6 dataSet, labels =KNN.createDataSet()7 #定义一个未知类别的数据

8 testX = array([1.2, 1.0])9 k = 3

10 #调用分类函数对未知数据分类

11 outputLabel = KNN.kNNClassify(testX, dataSet, labels, 3)12 print "Your input is:", testX, "and classified to class:", outputLabel13

14 testX = array([0.1, 0.3])15 outputLabel = KNN.kNNClassify(testX, dataSet, labels, 3)16 print "Your input is:", testX, "and classified to class:", outputLabel

运行结果:

1110462-20170711155722743-1979934365.png

你可能感兴趣的:(python分类算法)