在李航的《统计学习方法》中,详细讲解了一中分类算法:K近邻(K Nearest Neighbor),具体的算法过程和关键点可以参考这篇文章:
统计学习方法 | k近邻法
算法的理论基础有了,下一步就是自己动手去实现了。
今天我们的文章就是利用python去实现KNN算法,利用这套算法可以做什么呢?
比如,我们已经知道一组鸢尾花的花瓣、花萼长宽以及对应的鸢尾花品种,那么利用KNN算法,我们就可以判断一朵拥有一定长宽的花瓣花萼属于鸢尾花的哪个品种
同样地,利用KNN算法,可以根据经验数据(训练集),判断贷款客户的风险高低,决定是否贷款给客户等等。
本文利用以下两种方式在python中实现KNN算法:
python自带的sklearn包是一个非常强大的机器学习包,其中包含了knn算法,主要包含以下几个函数。
1. 引入sklearn包中的knn类
from sklearn.neighbors import KNeighborsClassifier
2. 取得knn分类器,并使用内置参数调整KNN三要素
knn=KNeighborsClassifier(weights="distance",n_neighbors=10)
这里说明一下此分类器各参数的意义(先了解KNN算法原理,再看参数更容易理解)
3. 使用knn.fit()对训练集进行训练
knn.fit(),训练函数,它是最主要的函数。接收参数只有1个,就是训练数据集,每一行是一个样本,每一列是一个属性。它返回对象本身,即只是修改对象内部属性,因此直接调用就可以了,后面用该对象的预测函数取预测自然及用到了这个训练的结果。
knn.fit(iris_x_train,iris_y_train)
4. 调用knn.predict()预测新输入的类别
knn.predict(),预测函数 接收输入的数组类型测试样本,一般是二维数组,每一行是一个样本,每一列是一个属性。返回数组类型的预测结果。
iris_y_predict=knn.predict(iris_x_test)
5. 调用knn.predict_proba(),显示每个测试集样本对应各个分类结果的概率
knn.predict_proba(),基于概率的软判决,也是预测函数,只是并不是给出某一个样本的输出是哪一个值,而是给出该输出是各种可能值的概率各是多少。
knn.predict_proba(iris_x_test)
6. 调用knn.score()计算预测的准确率
knn.score(),计算准确率的函数,接受参数有3个。输出为一个float型数,表示准确率。内部计算是按照predict()函数计算的结果记性计算的。
接收的3个参数:
score=knn.score(iris_x_test,iris_y_test,sample_weight=None)
完成!
利用sklearn实现KNN算法,训练集为130个鸢尾花的训练集,包含了鸢尾花的花瓣花萼长宽以及对应的品种,输入为20个鸢尾花的花瓣花萼长宽,输出为这20个鸢尾花的品种预测,运行结果如下
iris_y_predict=
['Iris-setosa' 'Iris-setosa' 'Iris-setosa' 'Iris-versicolor'
'Iris-versicolor' 'Iris-setosa' 'Iris-virginica' 'Iris-virginica'
'Iris-versicolor' 'Iris-virginica' 'Iris-setosa' 'Iris-virginica'
'Iris-versicolor' 'Iris-virginica' 'Iris-setosa' 'Iris-virginica'
'Iris-versicolor' 'Iris-virginica' 'Iris-versicolor' 'Iris-setosa']
iris_y_test=
['Iris-setosa' 'Iris-setosa' 'Iris-setosa' 'Iris-versicolor'
'Iris-versicolor' 'Iris-setosa' 'Iris-virginica' 'Iris-virginica'
'Iris-versicolor' 'Iris-virginica' 'Iris-setosa' 'Iris-virginica'
'Iris-versicolor' 'Iris-versicolor' 'Iris-setosa' 'Iris-virginica'
'Iris-versicolor' 'Iris-virginica' 'Iris-versicolor' 'Iris-setosa']
accuracy is= 95.0 %
预测结果准确率为95%
完整代码我放在了github上,欢迎交流
KNN的sklearn实现
下面我们升级难度,甩开别人喂到你面前的饭菜,自己动手写一个KNN分类器。
在此之前,你需要非常了解KNN算法原理。
本KNN分类器原理如下:
计算输入x与训练集各点的距离distance(这里numpy数组的元素级计算高效率凸显!)
按distance排序,取distance最近的k个点(k为分类器参数)
对k个点的类别归类计数,x归为多数类(多数表决)
或者对k个点的类别按1/distance权重归类计数,x归为计数大的类(加权表决)
基于上面的算法原理,下面直接给出我写的KNN分类器代码,此分类器特征如下:
自定义KNN分类器
# newInput: 新输入的待分类数据(x_test),本分类器一次只能对一个新输入分类
# dataset:输入的训练数据集(x_train),array类型,每一行为一个输入训练集
# labels:输入训练集对应的类别标签(y_train),格式为['A','B']而不是[['A'],['B']]
# k:近邻数
# weight:决策规则,"uniform" 多数表决法,"distance" 距离加权表决法
def KNNClassify(newInput, dataset, labels, k, weight):
numSamples=dataset.shape[0]
"""step1: 计算待分类数据与训练集各数据点的距离(欧氏距离:距离差值平方和开根号)"""
diff=np.tile(newInput,(numSamples,1)) - dataset # 凸显numpy数组的高效性——元素级的运算
squaredist=diff**2
distance = (squaredist.sum(axis=1))**0.5 # axis=1,按行累加
"""step2:将距离按升序排序,并取距离最近的k个近邻点"""
# 对数组distance按升序排序,返回数组排序后的值对应的索引值
sortedDistance=distance.argsort()
# 定义一个空字典,存放k个近邻点的分类计数
classCount={}
# 对k个近邻点分类计数,多数表决法
for i in range(k):
# 第i个近邻点在distance数组中的索引,对应的分类
votelabel=labels[sortedDistance[i]]
if weight=="uniform":
# votelabel作为字典的key,对相同的key值累加(多数表决法)
classCount[votelabel]=classCount.get(votelabel,0)+1
elif weight=="distance":
# 对相同的key值按距离加权累加(加权表决法)
classCount[votelabel]=classCount.get(votelabel,0)+(1/distance[sortedDistance[i]])
else:
print ("分类决策规则错误!")
print ("\"uniform\"多数表决法\"distance\"距离加权表决法")
break
# 对k个近邻点的分类计数按降序排序,返回得票数最多的分类结果
sortedClassCount=sorted(classCount.items(),key=operator.itemgetter(1),reverse=True)
if weight=="uniform":
print ("新输入到训练集的最近%d个点的计数为:"%k,"\n",classCount)
print ("新输入的类别是:", sortedClassCount[0][0])
elif weight=="distance":
print ("新输入到训练集的最近%d个点的距离加权计数为:"%k,"\n",classCount)
print ("新输入的类别是:", sortedClassCount[0][0])
return sortedClassCount[0][0]
下面对自定义的KNN分类器进行测试,还是使用鸢尾花数据集.
1. 建立训练集、测试集
iris=pd.read_csv("E:\python\practice\iris.txt")
iris.head()
iris_x=iris.iloc[:,[0,1,2,3]]
iris_y=iris.iloc[:,[4]]
np.random.seed(7)
indices=np.random.permutation(len(iris_x))
iris_x_train=iris_x.iloc[indices[0:130]]
iris_y_train=iris_y.iloc[indices[0:130]]
iris_x_test=iris_x.iloc[indices[130:150]]
iris_y_test=iris_y.iloc[indices[130:150]]
# 将dataframe格式的数据转换为numpy array格式,便于 调用函数计算
iris_x_train=np.array(iris_x_train)
iris_y_train=np.array(iris_y_train)
iris_x_test=np.array(iris_x_test)
iris_y_test=np.array(iris_y_test)
# 将labels的形状设置为(130,)
iris_y_train.shape=(130,)
2. 将训练集、测试集带入自定义KNN分类器进行分类
test_index=12
predict=KNNClassify(iris_x_test[test_index],iris_x_train,iris_y_train,20,"distance")
print (predict)
print ("新输入的实际类别是:", iris_y_test[test_index])
print ("\n")
if predict==iris_y_test[test_index]:
print ("预测准确!")
else:
print ("预测错误!")
随意选择一个测试数据,预测结果如下
新输入到训练集的最近20个点的距离加权计数为:
{'Iris-versicolor': 45.596003202769246}
新输入的类别是: Iris-versicolor
Iris-versicolor
新输入的实际类别是: ['Iris-versicolor']
预测准确!
完整代码我放在了github上,欢迎交流
KNN的自定义函数实现
本文结合KNN算法原理,利用python实现了KNN,使用了两种方式:
下期将利用python实现朴素贝叶斯算法,敬请期待~