KNN 算法学习小结

1. KNN 算法小结

  1. 这是一个分类的算法
  2. 基于输入实例的学习, 是一种懒惰学习方式, 不需要进行任何训练 , 可用于 人脸检测, 手写数字识别等
  3. 有一个非常形象的图:
    KNN 算法学习小结_第1张图片
  4. 算法描述:
    1. 为了判断未知实例的类别,以所有已知类别的实例作为参照
    2. 选择参数K
    3. 计算未知实例与所有已知实例的距离
    4. 选择最近K个已知实例
    5. 根据少数服从多数的投票法则(majority-voting),让未知实例归类为K个最邻近样本中最多数的类别
  5. 另外, 距离的衡量有多种(欧式距离, 曼哈顿距离, 夹角余弦,相关度etc)
  6. 算法优点:
    1. 简单
    2. 易于实现
    3. 易于理解
    4. 通过对K 的选择可以具备数据的健壮性
  7. 算法缺点:
    1. 需要大量存储所有已知的实例
    2. 算法复杂度高
    3. 当样本分布不均衡的时候, 如果某一方占据主导, 新的实例容易被归类为这个类别中去
  8. 可以考虑使用距离权重 (如: 1/d , d 为距离)

2. 实现

2.1 sklearn 实现

本质上, 使用sklearn 中的 neighbors 的 KNeighborsClassifier 进行对 datasets 中的数据进行分类

# -*- coding: utf-8 -*-
"""
Created on Sun Dec 25 20:54:26 2016

@author: Administrator
"""

from sklearn import neighbors
from sklearn import datasets

knn = neighbors.KNeighborsClassifier()
iris = datasets.load_iris()
print(dir(iris))

#save data
with open("iris.data.csv", "w") as f:
    f.write(str(iris))
    f.close()

print(iris)

knn.fit(iris.data, iris.target)

predictedLabel = knn.predict([0.1, 0.2, 0.3, 0.4])
print(predictedLabel)

2.2 自己的实现方式

Created with Raphaël 2.1.0 开始 准备已知数据和需要分类的数据 选择 K (可用于抑制噪声) 计算需要分类的点 与 已知的所有点之间的距离 选择 距离待分类点最近的 K 个数据点 根据这K个邻居 的类别进行投票, 确定当前点的类别(少数服从多数) 验证正确率 结束
# -*- coding: utf-8 -*-
"""
Created on Sun Dec 25 21:06:40 2016

@author: Administrator
"""

import csv
import random
import math
import operator

# 载入数据并 划分 测试集 与 训练集
def loadDataSet(filename, split, trainingSet = [], testSet = []):
    with open(filename, 'r') as csvfile:
        lines = csv.reader(csvfile)
        dataset = list(lines)
        for x in range(len(dataset) - 1):
            for y in range(4):
                dataset[x][y] = float(dataset[x][y])
            if random.random() < split:
                trainingSet.append(dataset[x])
            else:
                testSet.append(dataset[x])

# 欧式距离计算
def euclideanDistance(instance1, instance2, length):
    distance = 0
    for x in range(length):
        distance += pow((instance1[x] - instance2[x]), 2)
    return math.sqrt(distance)

# 获取其 最接近的 K 个邻居
def getNeighbors(trainingSet, testInstance, k):
    distances = []
    length = len(testInstance) - 1
    for x in range(len(trainingSet)):
        dist = euclideanDistance(testInstance, trainingSet[x], length)
        distances.append((trainingSet[x], dist))
    distances.sort(key=operator.itemgetter(1))
    neighbors = []
    for x in range(k):
        neighbors.append(distances[x][0])
        return neighbors

# 获取 K 个距离最近的邻居中 投票最多的那个类别
def getResponse(neighbors):
    classVotes = {}
    for x in range(len(neighbors)):
        response = neighbors[x][-1]
        if response in classVotes:
            classVotes[response] += 1
        else:
            classVotes[response] = 1
    sortedVotes = sorted(classVotes.items(), key = operator.itemgetter(1), reverse = True)
    return sortedVotes[0][0]

# 获取正确率
def getAccuracy(testSet, predictions):
    correct = 0
    for x in range(len(testSet)):
        if testSet[x][-1] == predictions[x]:
            correct += 1
    return (correct / float(len(testSet))) * 100.0


def main():
    # prepare data
    trainingSet = []
    testSet = []
    split = 0.67
    loadDataSet('irisdata.txt', split, trainingSet, testSet)
    print("Train set: " + repr(len(trainingSet)))
    print("Test set: " + repr(len(testSet)))

    # generate predictions
    predictions = []
    k = 3
    for x in range(len(testSet)):
        neighbors = getNeighbors(trainingSet, testSet[x], k)
        result = getResponse(neighbors)
        predictions.append(result)
        print(">predicted= " + repr(result) + ', actual = ' + repr(testSet[x][-1]))
    print("predictions: " + repr(predictions))
    accuracy = getAccuracy(testSet, predictions)
    print("Accuracy: " + repr(accuracy) + "%")

if __name__=="__main__":
    main()

你可能感兴趣的:(机器学习,python)