KNN应用

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档


一.计算已知类别数据集中的点与当前点之间的距离

        采用欧氏距离公式计算:

KNN应用_第1张图片

 

 

二.选取与当前点距离最小的k个点

        将所得距离降序排序后取前k个点:

               Dk=\sum_{i=1}^{k}di           d=distances.argsort()  

三.确定前k个点所在类别的出现频率

        将前k个点所在类别出现次数相加并进行降序排序

                voteIlabel = labels[sortedDistIndices[i]]    ( i=\sum_{1}^{k})

四.返回前k个点所出现频率最高的类别作为当前点的预测分类

        返回降序排序完的频率字典首位即当前点的预测分类:

                return sortedClassCount[0][0]

五.代码实现。

        

# -*- coding: UTF-8 -*-
import numpy as np
import operator

def createDataSet():
    #二维特征
    group = np.array([[1,101],[5,89],[108,5],[115,8],[20,200],[35,155]])
    #标签
    labels = ['爱情片','爱情片','动作片','动作片','爱情片','爱情片']
    return group, labels

def classify0(inX, dataSet, labels, k):
    #numpy函数shape[0]返回dataSet的行数
    dataSetSize = dataSet.shape[0]
    #在列向量方向上重复inX共1次(横向),行向量方向上重复inX共dataSetSize次(纵向)
    diffMat = np.tile(inX, (dataSetSize, 1)) - dataSet
    #二维特征相减后平方
    sqDiffMat = diffMat**2
    #sum()所有元素相加,sum(0)列相加,sum(1)行相加
    sqDistances = sqDiffMat.sum(axis=1)
    #开方,计算出距离
    distances = sqDistances**0.5
    #返回distances中元素从小到大排序后的索引值
    sortedDistIndices = distances.argsort()
    #定一个记录类别次数的字典
    classCount = {}
    for i in range(k):
        #取出前k个元素的类别
        voteIlabel = labels[sortedDistIndices[i]]
        #dict.get(key,default=None),字典的get()方法,返回指定键的值,如果值不在字典中返回默认值。
        #计算类别次数
        classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
    #key=operator.itemgetter(1)根据字典的值进行排序
    #key=operator.itemgetter(0)根据字典的键进行排序
    #reverse降序排序字典
    sortedClassCount = sorted(classCount.items(),key=operator.itemgetter(1),reverse=True)
    #返回次数最多的类别,即所要分类的类别
    return sortedClassCount[0][0]

if __name__ == '__main__':
    #创建数据集
    group, labels = createDataSet()
    #测试集
    test = [100,20]
    #kNN分类
    test_class = classify0(test, group, labels, 1)
    #打印分类结果
    print(group,labels)
    print(test,test_class)

        KNN应用_第2张图片


 

总结

         优点 1. 可以处理分类问题,算法简单易懂 2. 可以免去训练过程 3. KNN还可以处理回归问题,也就是预测 

        缺点 1. 效率低,每一次分类都要对训练数据进行计算 2. 对训练数据依赖度特别大,过拟合、欠拟合问题难以权衡 3. 存在维数灾难问

你可能感兴趣的:(python,人工智能)