机器学习 - k近邻法

k 近邻法

1、K近邻法定义

给定一个训练数据集,对于新输入的实例,在训练数据集中找到与该实例距离最近的K个实例,看这K个实例多数属于某个类,则将该实例分为这个类。

2.K近邻法算法

2.1 k近邻算法步骤

输入:数据集,其中 ,,;实例特征向量
输出:实例所属的类
步骤:
(1)根据给定的距离度量,在训练集中找出与最近邻的K个点,涵盖着K个点的x的邻域记作;
(2)在中,根据分类决策规则(例如多数表决)决定所属于的类别:

其中为指示函数,即当时,为1,否则为0。
K近邻算法没有显示的学习过程。k近邻法的特殊情况是K=1的情形,称为最近邻算法。

2.2实现

import numpy as np

# 1.数据集(扩充perceptron中的数据),6个正例,3个负例
data_coord = np.asarray(((3, 3), (4, 3), (5, 5), (4.5), (5, 4), (3, 5),
                         (1, 1), (0.0), (1, -1)))
data_label = np.asarray((1, 1, 1, 1, 1, 1,
                         -1, -1, -1))

# 2.测试数据
test_data = np.asarray((0.3,0.4))
K = 2

# 计算两点的距离(两个向量)
def get_dis(a,b):
    return np.linalg.norm(a - b)


# knn
def knn(test_data, train_data,train_label, K):
    max_distance = np.Inf
    # test_data k个邻居的距离
    knn_list = list((max_distance-i) for i in range(K))
    # test_data k个邻居,的下标
    label_list = list(-1 for i in range(K))
    label = 0

    for i in range(len(train_label)):
        vec_train = train_data[i]
        label_train = train_label[i]
        # 计算train集合中,每个点与test_data的距离
        test_train_dist = get_dis(test_data, vec_train)
        curr_max_knn = np.argmax(knn_list)
        curr_max_dist = knn_list[curr_max_knn]
        # 找到train集合中,跟test_data距离最近的K个点
        if test_train_dist < curr_max_dist:
            knn_list[curr_max_knn] = curr_max_dist
            label_list[curr_max_knn] = label_train

    # 在knn_list中,“投票表决”
    print("label_list = ",label_list)
    outcome = np.sum(label_list)
    if outcome > 0:
        label = 1
    elif outcome < 0:
        label = -1
    print("label = ",label)
    return label;

# run it
knn(test_data = test_data,train_data=data_coord,train_label=data_label,K=K)

结果:test_data属于-1类

参考与致谢:
[1]《统计学习方法》
[2] WenDesi/lihang_book_algorithm

你可能感兴趣的:(机器学习 - k近邻法)