分类算法-KNN(原理+代码+结果)

KNN,即K最邻近算法,是数据挖掘分类技术中比较简单的方法之一,简单来说,就是根据“最邻近”这一特征对样本进行分类。

1、K-means和KNN区别

   K-means是一种比较经典的聚类算法,本质上是无监督学习,而KNN是分类(或回归)算法,是监督学习。K-means算法的训练过程需要反复迭代的操作(寻找新的质心),但是KNN不需要。K-means中的K代表的是簇中心,KNN的K代表的是选择与新测试样本距离最近的前K个训练样本数。

2、KNN的算法思想

     KNN(k-NearestNeighbor)又被称为近邻算法,它的核心思想是:物以类聚,人以群分。假设一个未知样本数据x需要归类,总共有ABC三个类别,那么离x距离最近的有k个邻居,这k个邻居里有k1个邻居属于A类,k2个邻居属于B类,k3个邻居属于C类,如果k1>k2>k3,那么x就属于A类,也就是说x的类别完全由邻居来推断出来。

3、算法步骤

(1)计算测试对象到训练集中每个对象的距离

(2)按照距离的远近排序

(3)选取与当前测试对象最近的K的训练对象,作为该测试对象的邻居。

(4)统计这K个邻居的类别概率

(5)K个邻居里频率最高的类别,即为测试对象的类别

4、KNN算法的优缺点

优点:非常简单的分类算法没有之一,人性化,易于理解,易于实现适合处理多分类问题,比如推荐用户

缺点:属于懒惰算法,时间复杂度较高,因为需要计算未知样本到所有已知样本的距离,样本平衡度依赖高,当出现极端情况样本不平衡时,分类绝对会出现偏差。可解释性差,无法给出类似决策树那样的规则。向量的维度越高,欧式距离的区分能力就越弱。

5、数据集

名称:Prostate_Cancer

提取:链接:https://pan.baidu.com/s/1xv8r54qaLpH8RiMRkcrzyA 
提取码:66hg 

展示:

分类算法-KNN(原理+代码+结果)_第1张图片

 

6、代码实现

from sklearn.neighbors import KNeighborsClassifier
import numpy as np
import random
import pandas as pd

def knn():
    K = 8
    data=pd.read_csv(r"C:\Users\Lenovo\Desktop\course\Prostate_Cancer.csv")
    n = len(data) // 3
    test_set = data[0:n]
    train_set = data[n:]
    train_set = np.array(train_set)
    test_set = np.array(test_set)
    A = [i for i in range(0, len(train_set))]
    B = [i for i in range(2, 10)]
    C = [i for i in range(n)]
    D = [1]
    x_train = train_set[A]
    x_train = x_train[:, B]
    y_train = train_set[A]
    y_train = y_train[:, D]
    x_test = test_set[C]
    x_test = x_test[:, B]
    y_test = test_set[C]
    y_test = y_test[:, D]
    # 训练模型
    model = KNeighborsClassifier(n_neighbors=K)
    model.fit(x_train, y_train)
    score = model.score(x_test, y_test)
    print("准确率为:", score)

if __name__=='__main__':
    knn()

分类算法-KNN(原理+代码+结果)_第2张图片

分类算法-KNN(原理+代码+结果)_第3张图片 

7、结果

 当k=8时候,结果为 0.7575757575757576

当k=5时候,结果为0.8181818181818182

8、总结

KNN是一种快速高效的分类算法,其逻辑简单,易于理解。但当训练数据集很大时,需要大量的存储空间,而且需要计算训练样本和测试样本的距离,计算量较大。个人认为,这是由于KNN是一种懒惰的学习法,简单的认为“物以类聚,人以群分”,但实际上,无论是人际交往还是数据事实,可能并不完全符合这个逻辑。而SVM追求类别超平面边界距离最大化过程中,是基于严格的数学推导,因而更具有可靠性,所以取得了更好的分类结果。但我们不能简单的定义一个SVM要优于KNN,要结合具体问题去具体分析。

你可能感兴趣的:(分类,算法,机器学习)