@[toc]
机器学习相关概念
出现的代码资源和jupyter记事本源代码戳这边下载源码和数据)
机器学习定义
人工智能(Artificial Intelligence, AI):是指由人工制造出来的系统所表现出来的智能。类似于电影中终结者、阿尔法狗这类的具有一定的和人类智慧同样本质的一类智能的物体。
机器学习(Machine Learning, ML):是人工智能的一个分支,是实现人工智能的一个途径,即以机器学习为手段解决人工智能中的问题。让一个计算机程序针对某一个特定任务,从经验中学习,并且越来越好。
深度学习(Deep Learning, DL):是机器学习拉出的分支。是机器学习算法中的一种算法,一种实现机器学习的技术和学习方法。
一、概述
k-近邻算法(k-Nearest Neighbour algorithm),又称为KNN算法,是数据挖掘技术中原理最简单的算法。KNN 的工作原理:给定一个已知标签类别的训练数据集,输入没有标签的新数据后,在训练数据集中找到与新数据最邻 近的k个实例,如果这k个实例的多数属于某个类别,那么新数据就属于这个类别。可以简单理解为:由那些离X最 近的k个点来投票决定X归为哪一类。
[图片上传失败...(image-474992-1576573964139)]
图1中有红色三角和蓝色方块两种类别,我们现在需要判断绿色圆点属于哪种类别
当k=3时,绿色圆点属于红色三角这种类别;
当k=5时,绿色圆点属于蓝色方块这种类别。
举个简单的例子,可以用k-近邻算法分类一个电影是爱情片还是动作片。(打斗镜头和接吻镜头数量为虚构)
电影名称 | 打斗镜头 | 接吻镜头 | 电影类型 |
---|---|---|---|
无问西东 | 1 | 101 | 爱情片 |
后来的我们 | 5 | 89 | 爱情片 |
前任3 | 12 | 97 | 爱情片 |
红海行动 | 108 | 5 | 动作片 |
唐人街探案 | 112 | 9 | 动作片 |
战狼2 | 115 | 8 | 动作片 |
新电影 | 24 | 67 | ? |
上表就是我们已有的数据集合,也就是训练样本集。这个数据集有两个特征——打斗镜头数和接吻镜头数。除此之 外,我们也知道每部电影的所属类型,即分类标签。粗略看来,接吻镜头多的就是爱情片,打斗镜头多的就是动作 片。以我们多年的经验来看,这个分类还算合理。如果现在给我一部新的电影,告诉我电影中的打斗镜头和接吻镜 头分别是多少,那么我可以根据你给出的信息进行判断,这部电影是属于爱情片还是动作片。而k-近邻算法也可以 像我们人一样做到这一点。但是,这仅仅是两个特征,如果把特征扩大到N个呢?我们人类还能凭经验“一眼看出”电影的所属类别吗?这是一个非常困难的事情,但算法可以,这就是算法的魅力所在,因为计算机算力足啊 = =。
我们已经知道k-近邻算法的工作原理,根据特征比较,然后提取样本集中特征最相似数据(最近邻)的分类标签。 那么如何进行比较呢?比如表1中新出的电影,我们该如何判断他所属的电影类别呢?如图2所示。
我们可以从散点图中大致推断,这个未知电影有可能是爱情片,因为看起来距离已知的三个爱情片更近一点。k-近 邻算法是用什么方法进行判断呢?没错,就是距离度量。这个电影分类例子中有两个特征,也就是在二维平面中计 算两点之间的距离,就可以用我们高中学过的距离计算公式:
如果是多个特征扩展到N维空间,怎么计算?没错,我们可以使用欧氏距离(也称欧几里得度量),如下所示
通过计算可以得到训练集中所有电影与未知电影的距离,如下表所示
与未知电影的距离计算结果
电影名称 | 与未知电影的距离 |
---|---|
无问西东 | 41.0 |
后来的我们 | 29.1 |
前任3 | 32.3 |
红海行动 | 104.4 |
唐人街探案 | 105.4 |
战狼2 | 108.5 |
通过上表的计算结果,我们可以知道绿点标记的电影到爱情片《后来的我们》距离最近,为29.1。如果仅仅根据这 个结果,判定绿点电影的类别为爱情片,这个算法叫做最近邻算法,而非k-近邻算法。k-近邻算法步骤如下:
- 计算已知类别数据集中的点与当前点之间的距离;
- 按照距离递增次序排序;
- 选取与当前点距离最小的k个点;
- 确定前k个点所在类别的出现频率;
- 返回前k个点出现频率最高的类别作为当前点的预测类别。
比如,现在K=4,那么在这个电影例子中,把距离按照升序排列,距离绿点电影最近的前4个的电影分别是《后来的我们》、《前任3》、《无问西东》和《红海行动》,这四部电影的类别统计为爱情片:动作片=3:1,出现频率最 高的类别为爱情片,所以在k=4时,绿点电影的类别为爱情片。这个判别过程就是k-近邻算法。
二、k-近邻算法的Python实现
在了解k-近邻算法的原理及实施步骤之后,我们用python将这些过程实现。
1.算法实现
1.1 构建已经分类好的原始数据集
为了方便验证,这里使用python的字典dict构建数据集,然后再将其转化成DataFrame格式。
import pandas as pd
rowdata={'电影名称':['无问西东','后来的我们','前任3','红海行动','唐人街探案','战狼2'],
'打斗镜头':[1,5,12,108,112,115],
'接吻镜头':[101,89,97,5,9,8],
'电影类型':['爱情片','爱情片','爱情片','动作片','动作片','动作片']}
movie_data= pd.DataFrame(rowdata) movie_data
1.2 计算已知类别数据集中的点与当前点之间的距离
new_data = [24,67]
dist = list((((movie_data.iloc[:6,1:3]-new_data)**2).sum(1))**0.5)
print(dist)
1.3 将距离升序排列,然后选取距离最小的k个点
dist_l = pd.DataFrame({'dist': dist, 'labels': (movie_data.iloc[:6, 3])})
dr = dist_l.sort_values(by = 'dist')[: 4]
print(dr)
1.4 确定前k个点所在类别的出现频率
re = dr.loc[:,'labels'].value_counts()
print(re)
1.5 选择频率最高的类别作为当前点的预测类别
result = []
result.append(re.index[0])
print(result)
2.封装函数
完整的流程已经实现了,下面我们需要将这些步骤封装成函数,方便我们后续的调用
import pandas as pd
"""
函数功能:KNN分类器参数说明:
new_data:需要预测分类的数据集
dataSet:已知分类标签的数据集(训练集)
k:k-近邻算法参数,选择距离最小的k个点
返回:
result:分类结果
"""
def classify0(inX,dataSet,k):
result = []
dist = list((((dataSet.iloc[:,1:3]-inX)**2).sum(1))**0.5)
dist_l = pd.DataFrame({'dist':dist,'labels':(dataSet.iloc[:, 3])})
dr = dist_l.sort_values(by = 'dist')[: k]
re = dr.loc[:, 'labels'].value_counts() result.append(re.index[0])
return result
测试函数运行结果
inX = new_data
dataSet = movie_data
k = 3
classify0(inX,dataSet,k)
这就是我们使用k-近邻算法构建的一个分类器,根据我们的“经验”可以看出,分类器给的答案还是比较符合我们的 预期的。
有人可能会问:”分类器何种情况下会出错?“或者”分类器给出的答案是否永远都正确?“答案一定是 否定的,分类器并不会得到百分百正确的结果,我们可以使用很多种方法来验证分类器的准确率。此外,分类器的 性能也会受到很多因素的影响,比如k的取值就在很大程度上影响了分类器的预测结果,还有分类器的设置、原始 数据集等等。为了测试分类器的效果,我们可以把原始数据集分为两部分,一部分用来训练算法(称为训练集), 一部分用来测试算法的准确率(称为测试集)。同时,我们不难发现,k-近邻算法没有进行数据的训练,直接使用 未知的数据与已知的数据进行比较,得到结果。因此,可以说,k-近邻算法不具有显式的学习过程(所以是惰性算法)。
三、k-近邻算法之约会网站配对效果判定
海伦一直使用在线约会网站寻找适合自己的约会对象,尽管约会网站会推荐不同的人选,但她并不是每一个都喜 欢,经过一番总结,她发现曾经交往的对象可以分为三类:
- 不喜欢的人
- 魅力一般的人
- 极具魅力得人
海伦收集约会数据已经有了一段时间,她把这些数据存放在文本文件datingTestSet.txt中,其中各字段分别为:
- 每年飞行常客里程
- 玩游戏视频所占时间比
- 每周消费冰淇淋公升数
1. 准备数据
datingTest = pd.read_table('datingTestSet.txt',header=None)
datingTest.head()
datingTest.shape
datingTest.info()
2. 分析数据
使用 Matplotlib 创建散点图,查看各数据的分布情况
%matplotlib inline import matplotlib as mpl
import matplotlib.pyplot as plt
#把不同标签用颜色区分Colors = []
for i in range(datingTest.shape[0]):
m = datingTest.iloc[i,-1]
if m=='didntLike':
Colors.append('black')
if m=='smallDoses':
Colors.append('orange')
if m=='largeDoses':
Colors.append('red')
#绘制两两特征之间的散点图
plt.rcParams['font.sans-serif']=['Simhei'] #图中字体设置为黑体
pl=plt.figure(figsize=(12,8)) #设置总的画布大小
fig1=pl.add_subplot(221) #第一个子图
plt.scatter(datingTest.iloc[:,1],datingTest.iloc[:,2],marker='.',c=Colors)
plt.xlabel('玩游戏视频所占时间比')
plt.ylabel('每周消费冰淇淋公升数')
fig2=pl.add_subplot(222)
plt.scatter(datingTest.iloc[:,0],datingTest.iloc[:,1],marker='.',c=Colors)
plt.xlabel('每年飞行常客里程')
plt.ylabel('玩游戏视频所占时间比')
fig3=pl.add_subplot(223)
plt.scatter(datingTest.iloc[:,0],datingTest.iloc[:,2],marker='.',c=Colors)
plt.xlabel('每年飞行常客里程')
plt.ylabel('每周消费冰淇淋公升数')
plt.show()
3. 数据归一化
下表是提取的4条样本数据,如果我们想要计算样本1和样本2之间的距离,可以使用欧几里得计算公式:
序号 | 每年飞行常客里程 | 玩游戏视频所占时间比 | 每周消费冰淇淋公升数 | 分类 |
---|---|---|---|---|
1 | 40920 | 8.3 | 1.0 | largeDoses |
2 | 14488 | 7.2 | 1.7 | smallDoses |
3 | 26052 | 1.4 | 0.8 | didntLike |
4 | 75136 | 13.1 | 0.4 | didntLike |
我们很容易发现,上面公式中差值最大的属性对计算结果的影响最大,也就是说每年飞行常客里程对计算结果的影 响远远大于其他两个特征,原因仅仅是因为它的数值比较大,但是在海伦看来这三个特征是同等重要的,所以接下 来我们要进行数值归一化的处理,使得这三个特征的权重相等。
数据归一化的处理方法有很多种,比如0-1标准化、Z-score标准化、Sigmoid压缩法等等,在这里我们使用最简单 的0-1标准化,公式如下:
将我们的数据集带入函数,进行归一化处理
"""
函数功能:归一化参数说明:
dataSet:原始数据集
返回: 0-1标准化之后的数据集
"""
def minmax(dataSet):
minDf = dataSet.min()
maxDf = dataSet.max()
normSet = (dataSet - minDf )/(maxDf - minDf)
return normSet
datingT = pd.concat([minmax(datingTest.iloc[:, :3]), datingTest.iloc[:,3]], axis=1)
datingT.head()
4. 划分训练集和测试集
为了测试分类器的效果,我们可以把原始数据集分为训练集和测试集两部分,训练集用 来训练模型,测试集用来验证模型准确率。
关于训练集和测试集的切分函数,网上一搜一大堆,Scikit Learn官网上也有相应的函数比如model_selection 类中的train_test_split 函数也可以完成训练集和测试集的切分。
通常来说,我们只提供已有数据的90%作为训练样本来训练模型,其余10%的数据用来测试模型。这里需要注意的10%的测试数据一定要是随机选择出来的,由于海伦提供的数据并没有按照特定的目的来排序,所以我们这里可以 随意选择10%的数据而不影响其随机性。
"""
函数功能:切分训练集和测试集参数说明:
dataSet:原始数据集
rate:训练集所占比例
返回: 切分好的训练集和测试集
"""
def randSplit(dataSet,rate=0.9):
n = dataSet.shape[0]
m = int(n*rate)
train = dataSet.iloc[:m,:]
test = dataSet.iloc[m:,:]
test.index = range(test.shape[0]) #索引重新排序,从0开始
return train,test
train,test = randSplit(datingT)
train
test
5. 分类器针对于约会网站的测试代码
接下来,我们一起来构建针对于这个约会网站数据的分类器,上面我们已经将原始数据集进行归一化处理然后也切 分了训练集和测试集,所以我们的函数的输入参数就可以是train、test和k(k-近邻算法的参数,也就是选择的距离 最小的k个点)。
"""
函数功能:k-近邻算法分类器参数说明:
train:训练集
test:测试集
k:k-近邻参数,即选择距离最小的k个点
返回: 预测好分类的测试集
"""
def datingClass(train,test,k):
n = train.shape[1] - 1
m = test.shape[0]
result = []
for i in range(m):
dist = list((((train.iloc[:, :n] - test.iloc[i, :n]) ** 2).sum(1))**5)
dist_l = pd.DataFrame({'dist': dist, 'labels': (train.iloc[:, n])})
dr = dist_l.sort_values(by = 'dist')[: k]
re = dr.loc[:, 'labels'].value_counts() result.append(re.index[0])
result = pd.Series(result) test['predict'] = result
acc = (test.iloc[:,-1]==test.iloc[:,-2]).mean()
print(f'模型预测准确率为{acc}')
return test
最后,测试上述代码能否正常运行,使用上面生成的测试集和训练集来导入分类器函数之中,然后执行并查看分类结果。
datingClass(train,test,5)
6. 用sklearn实现
from sklearn.neighbors import KNeighborsClassifier
train_data = train.iloc[:,:-1]
train_label = train.iloc[:,-1]
test_data = test.iloc[:,:-1]
test_label = test.iloc[:,-1]
#初始化模型
knn = KNeighborsClassifier(n_neighbors=5)
#拟合
knn.fit(train_data,train_label)
knn.score(test_data,test_label)
#0.95得分
最后结果95%的准确率,模型的准确率还不错,这是一个不错的结果了。
四、k-近邻算法之手写数字识别
为了简单起见,这里构造的系统只能识别数字0到9。需要识别的数字已经使用图形处理软件,处理成具有相同的色 彩和大小:宽高是32像素x32像素的黑白图像。尽管采用本文格式存储图像不能有效地利用内存空间,但是为了方 便理解,我们将图片转换为文本格式,数字的文本格式如图3所示。
1.准备数据
实际图像存储在源代码的digits目录内,其中包含了两个子目录:目录trainingDigits中存放的是训练样本,目录testDigits中存放的是测试样本。虽然训练样本和测试样本已经分好了,但是这些样本存储在一个个的文本文件中,我们没办法拿来直接建模,所以我们需要构建能够使用的训练集和测试集(也就是分类器能够识别的格式)。
观察目录中的样本信息,我们会发现,这些文本格式存储的数字的文件命名也很有特点,格式为:数字的值_该数 字的样本序号
import os
"""
函数功能:得到标记好的训练集
"""
def get_train():
path='digits/trainingDigits'
trainingFileList = os.listdir(path)
train = pd.DataFrame()
img = []
labels =[]
for i in range(len(trainingFileList)):
filename = trainingFileList[i]
txt = pd.read_csv(f'digits/trainingDigits/{filename}',header=None)
num = ''
for i in range(txt.shape[0]):
num += txt.iloc[i,:]
img.append(num[0])
filelabel = filename.split('_')[0]
labels.append(filelabel)
train['img'] = img train['labels'] = labels
return train
"""
函数功能:得到标记好的测试集
"""
def get_test():
path='digits/testDigits'
testFileList = os.listdir(path)
test=pd.DataFrame()
img = [] labels =[]
for i in range(len(testFileList)):
filename = testFileList[i]
txt = pd.read_csv(f'digits/testDigits/{filename}',header=None)
num = ''
for i in range(txt.shape[0]):
num += txt.iloc[i,:]
img.append(num[0])
filelabel = filename.split('_')[0]
labels.append(filelabel)
test['img'] = img test['labels'] = labels
return test
生成训练集,查看训练集相关属性
#生成训练集
train = get_train()
#查看训练集相关属性train.head()
train.iloc[:,-1].value_counts()
len(train.iloc[4,0])
生成测试集,查看测试集相关属性
#生成测试集test=get_test()
#查看测试集相关属性test.head()
test.iloc[:,-1].value_counts()
len(test.iloc[2,0])
2. 分类器针对于手写数字的测试代码
有了训练集和测试集,我们就可以开始构建分类器了,但是在构建分类器之前,我们要先确定距离如何计算,因为 在k-近邻算法中距离的确定是很重要的一部分。
2.1 Levenshtein安装
这里我们使用的是 Levenshtein 包里面的 hamming 函数,简单介绍一下这个包的安装,首先点击链接,即可找到并下载相对应的 whl 文件:Unofficial Windows Binaries for Python Extension Packages
选择适合自己的版本,我用的是Python3.6版本,电脑为64位,则找到 python_Levenshtein-0.12.0-cp36-cp36m-win_amd64.whl 文件进行下载即可。然后将下载好的文件放到本地磁盘中,复制路径。
在cmd中,用pip install “文件路径+whl文件名”即可成功安装对应的whl文件。
测试是否安装成功,在jupyter lab中导入Levenshtein包
import Levenshtein
2.2 距离计算公式
汉明距离的计算方式:计算两个等长字串之间对应位置上不同字符的个数。也就是说要求输入的两个字符串必须长 度一致。
from Levenshtein import hamming
#Levenshtein.hamming(str1, str2) #汉明距离格式
hamming('abc', 'aac')
hamming('0010', '1111')
通过结果,我们可以看出这两个字符串越相近汉明距离就越小。
2.3 构建分类器
"""
函数功能:k-近邻算法实现手写数字分类参数说明:
train:训练集
test:测试集
k:k-近邻参数,即选择距离最小的k个点
返回: 预测好分类的测试集
"""
def handwritingClass(train,test,k):
n = train.shape[0]
m = test.shape[0] result = []
for i in range(m):
dist = []
for j in range(n):
d =str(hamming(train.iloc[j,0], test.iloc[i,0]))
dist.append(d)
dist_l = pd.DataFrame({'dist': dist, 'labels': (train.iloc[:, 1])})
dr = dist_l.sort_values(by = 'dist')[: k]
re = dr.loc[:, 'labels'].value_counts()
result.append(re.index[0])
result = pd.Series(result)
test['predict'] = result
acc = (test.iloc[:,-1]==test.iloc[:,-2]).mean()
print(f'模型预测准确率为{acc}')
return test
五、 Sklearn中的KNN算法
如果使用Sklearn中的KNN,用法如下。
我们要使用sklearn中的KNN的话使用neighbours.KNeighboursClassifier来执行KNN
from sklearn import neighbors
neighbors.KNeighborsClassifier(n_neighbors=5, weights='uniform', algorithm='auto', leaf_size=30,p=2, metric=’minkowski’, metric_params=None, n_jobs=1)
参数:
- n_neighbours 用来确定多数投票中的k值,也就是选择最近邻的n个值。
- weights 这个参数很有意思,它的作用是在进行分类判断的时候给最近邻的点加上权重,它的默认值是'uniform',也就是等权重,所以在这种情况下我们就可以使用多数投票规则来判断输入实例的类别预测。还有一个选择是'distance',是按照距离的倒数给定权重。在这种情况下,距离输入实例最近点的类别情况比其他点类别情况更具有说服力。举个例子假如距离询问点最近的三个数据点中,有 1 个 A 类和 2 个 B 类,并且假设 A 类离询问点非常近,而两个 B 类距离则稍远。在等权加权中,K(3)NN 会判断问题点为 B 类;而如果使用距离加权,那么 A 类有更高的权重(因为更近),如果它的权重高于两个 B 类的权重的总和(类别于多数投票规则使用个数,这里只需要大于B类权重的和就可以了),那么算法会判断问题点为 A 类。权重功能的选项应该视应用的场景而定。还有最后一种情况就是用户自己设定权重的设置方法。
- algorithm 是分类时采取的算法,有 {‘auto’, ‘ball_tree’, ‘kd_tree’, ‘brute’},一般情况下选择auto就可以,它会自动进行选择最合适的算法。
- p 在机器学习系列中,我们知道p=1时,距离方法定义为曼哈顿距离,在p=2的时候我们定为欧几里得距离。默认值为2。
实际案例
首先我们先拿我们在机器学习系列中的KNN算法中的电影分裂举例。我们在那个系列中自己实现了一个KNN分类器,采取的是欧几里得的距离,这里我们直接使用sklearn库中的函数来实现KNN算法,大家可以参考两者来看。
import numpy as np
import sklearn
from sklearn import datasets
from sklearn.neighbors import KNeighborsClassifier
X_train = np.array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]]) #这里是数组形式哦,要注意哦,如果输入的dataframe(因为一般我们导入文件的话都是使用csv模式,导入进来一般是形成dataframe模式,我们需要在fit()函数中使用 X_train.values,y_train.values)
y_train=['A','A','B','B']
knn=KNeighborsClassifier(n_neighbors=1)
knn.fit(X_train,y_train)
knn.predict([[5,0],[4,0]])#要注意哦,预测的时候也要上使用数组形式的
六、算法总结
k-近邻 | |
---|---|
算法功能 | 分类(核心),回归 |
算法类型 | 有监督学习 - 惰性学习,距离类模型 |
数据输入 | 包含数据标签y,且特征空间中至少包含k个训练样本 (k>=1)特征空间中各个特征的量纲需统一 若不统一则需要进行归一化处理自定义的超参数k (k>=1) |
模型输出 | 在KNN分类中,输出是标签中的某个类别 |
在KNN回归中,输出是对象的属性值,该值是距离输入的数据最近的k个训练样本标签的平均值
1. 优点
- 简单好用,容易理解,精度高,理论成熟,既可以用来做分类也可以用来做回归
- 可用于数值型数据和离散型数据
- 无数据输入假定
- 适合对稀有事件进行分类
2.缺点
- 计算复杂性高;空间复杂性高;
- 计算量太大,所以一般数值很大的时候不用这个,但是单个样本又不能太少,否则容易发生误分。
- 样本不平衡问题(即有些类别的样本数量很多,而其它样本的数量很少)
- 可理解性比较差,无法给出数据的内在含义
参考《机器学习实战》 Peter Harrington