kNN算法

理想环境下的kNN


计算距离 ->取最近的K个值 -> 选取占比高的类别

1. 计算距离

kNN算法_第1张图片
原始数据:9条数据,2个属性,2个类别

对于待分类的点**(61,20) **, 可以得到对于每个点的距离,使用曼哈顿距离公式.我不是为了偷懒,就是用这个

项目 X1 X2 X3 X4 X5 X6 X7 X8 X9
距离 11 20 6 14 3 81 68 86 71
类别 A A A A B B B B B

2. 最近k个

最近的三个依次是X5-B,X3-A,X1-A

3. 判断类别

A占66%,B占33%
所以待分类点**(61,20) **是A类别

4. 简单py实现

计算机负责计算,可以舍弃曼哈顿距离了,用最经典的欧几里得距离

# -*- coding: utf-8 -*-

__author__ = 'Matter-YYF'

from numpy import *
import operator

def createDataSet():
    # numpy的array可以初始化矩阵
    group = array([[50.0,20.0],[53.0,32.0],[60.0,25.0],
                  [65.0,30.0],[58.0,20.0],[10.0,50.0],
                  [20.0,47.0],[15.0,60.0],[25.0,55.0]])
    label = ['A','A','A','A','B','B','B','B','B',]
    return group,label

def classify0(inX, dataSet, labels, k):
    # shape属性是行列数
    dataSetSize = dataSet.shape[0]
    # 用tile创建重复数组,此处用于创建矩阵 tile([61.0,20.0],(9,1))
    diffMat = tile(inX,(dataSetSize,1))-dataSet

    sqDiffMat = diffMat ** 2
    # 矩阵每行相加
    sqDistance = sqDiffMat.sum(axis=1)
    distance = sqDistance ** 0.5
    # 字典key排序
    sortedDistIndex = distance.argsort()
    classCount = {}
    for i in range(k):
        voteLabel = labels[sortedDistIndex[i]]
        # XX.get(a,b):有key=a的则取对应value,没有则为b
        classCount[voteLabel] = classCount.get(voteLabel,0)+1
    # 前k个类别的排序
    sortedClassCount = sorted(classCount.iteritems(),
                              key=operator.itemgetter(1),
                              reverse=True)
    # 返回占比例最高的类别
    return sortedClassCount[0][0]

dataSet,label = createDataSet()
resultKNN = classify0([61.0,20.0],dataSet,label,3)
print resultKNN

欢迎回到现实世界


1. 手输数据是有多蛋疼...

kNN算法_第2张图片
劳资是程序猿,不干low活

得从文件读数据啊


def file2matrix(filename):
    fr = open(filename)
    arrayOfLines = fr.readlines()
    numberOfLines = len(arrayOfLines)
    returnMat = zeros((numberOfLines,3))    # 生成一个空白矩阵,3列
    classLabelVector = []
    index = 0
    for line in arrayOfLines:
        line = line.strip()                 # 删除空白符:'\n','\r','\t',' '
        listFromLine = line.split('\t')     # 以制表符为分割生成列表
        returnMat[index,:] = listFromLine[0:3]              # 前三个项目是数据属性
        classLabelVector.append(int(listFromLine[-1]))      # 最后是类别标签
        index+=1
    return returnMat, classLabelVector

2. 数据怎么跨度这么大...

kNN算法_第3张图片
10w和25在一起,好别扭

归归归归一化

线性函数归一化(Min-Max scaling)
def autoNorm(dataSet):
    minVals = dataSet.min(0)        # 所有列里各自最小值
    maxVals = dataSet.max(0)        # 所有列里各自最大值

    ranges = maxVals -minVals       # 归一化计算公式分母
    normDataSet = zeros(shape(dataSet))

    m = dataSet.shape[0]            # 数据行数
    normDataSet = dataSet-tile(minVals,(m,1))       # 分子
    normDataSet = normDataSet/tile(ranges,(m,1))    #计算结果
    return normDataSet, ranges, minVals

你可能感兴趣的:(kNN算法)