前言
本系列主要对机器学习上算法的原理进行解读,给大家分享一下我的观点和总结。
本篇前言
开一个新系列,另外现在开学了,忙起来了,所以更新会很慢。
目录结构
机器学习两大经典任务分类与回归。
即我们所认知的对某个东西进行分类。
用线性回归来解释,就是如下图:
即直线会趋于各个点的中间值。
损失函数,也可以称之为目标函数、优化目标等等,是机器学习中的一个重要概念。
简单来说,我们有一个任务,对它进行分析后,得到一个最终的函数f(x)
,我们的目标就是求f(x)
的最小值。那么对于我们来说,f(x)
就是损失函数/目标函数(其实不太严谨,不过大概就是这意思)。
回归任务常用的损失函数就是MAE、MSE损失,即我们熟悉的均值误差和均方差误差,公式如下:
而对于分类任务而言,常用的是交叉熵损失函数,二分类形式为:(其中y^ 为概率值,y为真实值,取值{0/1})
另外,上式其实可以使用KL散度
进行推导,这里先不说,后面讲解逻辑回归的时候进行说明。
这里我先介绍三个最为常用的距离度量,至于KL"距离"
后面讲。
两点的直线距离,公式:
又称城市街区距离,即只允许走水平/垂直的路线:
公式如下:
又称棋盘距离,即它可以向国际象棋里面的棋子一样可以走最大差值距离,公式如下:
归一化/标准化,其实差不多,都是让某个变量符合你选定的分布,这里介绍机器学习里常用的min-max归一化、z-score归一化。(深度学习中常用的是批量归一化等)
前两个作用好理解,但是为什么可以加速收敛呢?
假设损失函数受两个参数w1\w2
影响,并且假设w1为主参数,权重大,w2为次参数,权重小,那么损失值图是三维的图,我们投影到二维就是等高线图,如下:
那么,我们开始优化损失函数,假设起点在五角星位置
,由于w1参数比w2参数重要,这意味着优化的时候w1方向走得快,w2走得慢,那么优化过程便如下图:
但是,归一化后,两个参数一样重要,那么等高线图和优化过程如下:
可以明显看出,收敛速度加快。
公式如下:
特点:
公式如下:
特点:
拟合这个概念本身是对于回归问题来说的。比如只有几个点:
让你去用条线满足这三个点,你肯定能想到一条二次曲线,如下图:
这就是拟合。但是在实际中,拟合并不局限于回归问题,还可以用于分类任务。
看我这篇文章,说得很详细——深入机器学习1:详解正则表达式。
我们都知道,机器学习/深度学习是来解决数据问题的,特别是大数据问题。而对于大数据问题,有一个很难的点就是很难求出解析解。针对这种情况,就提出了各种各样的优化器,这里我们来说说其中最典型的梯度下降算法。
对于一段山势图:
假设,你在四角星的位置,那么问:如何你才能最快的下山?这个答案显而易见,就是走梯度方向。
那么将上述这段话体现为数学公式,如下:
其中θ是我们的待优化参数,α是我们下山步长,称之为学习率,J(θ)
就是损失函数,对其求导就是梯度方向。
其可以分为三类:
不难看出,其具有一定的缺点:
这里说说数据集的划分。
训练集,即用于机器学习模型训练的数据集合。这里补充一下,训练有时候不仅仅训练一次,有时候可以对数据进行多次训练。
验证集,每次训练完毕后用于验证训练效果如何。
测试集,所有训练完后用于检测模型效果如何,这是模拟真实使用情景。
补充说明:验证集一般在深度学习中常用,机器学习还是用得比较少。
直接将数据集划分为两个互斥的集合,一个作为训练集,一个作为测试机,常用的比例为7/3、8/2
。
随机将训练样本拆分成K个互不相交大小相同的子集,然后用K-1个子集作为训练集训练模型,用剩余的子集验证模型,对K中选择重复进行,最终选出K次测评中的平均测试误差最小的模型。常用的k值有 5、10、20等。
比如,5折交叉验证如下图所示:
想要实现机器学习其实有很多编程语言都可以,不过现在主流的还是python
,因此推荐大家使用python进行编程。而在python中主要实现机器学习的库是sklearn
,这个库集成了大部分的常见机器学习算法,使用起来非常简单,想要了解的可以看我这篇文章。
有时候我们拿到的数据,A类别有400条,B类别只有100条,这样的数据,我直接定义一个学习器只输出A类别,它的准确率都有80%。因此,针对这样类别不平衡的数据(分类数据),我们需要进行数据的平衡处理。
降采样
有一个最简单的思路:把数据多的类别降采样到和类别少的一样的数据量即可。比如上面我们直接从400个A数据中抽样100个A数据,这样A和B的数据量就相同了。
它的优缺点非常明显:
过采样
好的,不能降采样,那么我们直接对数据量少的类别过采样总行吧。
但是,如何过采样呢?最简单的思路就是重复一些样本,但是这样非常容易导致过拟合,比如你100条B类别,现在你重复采样,变为了400条B类别,最低的比例都是每条数据重复4次。
因此,这样的思路不可取,而常用的过采样思路是SMOTE算法,它通过对训练集的少样本对象进行差值计算来产生新的样例。
基于学习的策略
第三种思路是基于学习的策略来调整。
一个思路如下:
我们知道在分类的时候,实际上是把模型输出值y
与一个阈值进行比较(比如0.5),大于这个阈值则为正例,小于则为负例。那么,几率y/1-y
就是正例概率与负例概率的比值,原先针对y
阈值为0.5,那么这里变为了1
(0.5 / (1-0.5) = 1)。
而由于正反例数据量不同,我们可以设置一个观测几率,其值为m+ / m-
,其中m+表示正例数量,m-表示负例数量
。
那么,可以认为:(下式是关注了数量关系)
y/1-y > m+/1- ,认为是正例
但是,实际上却是:(下式只是符合客观印象)
y/1-y > 1 ,认为是正例
因此,可以做出一定的修整:
基于上述原理,我们可以先让模型直接学习不平衡的数据,但是在进行决策的时候按照上述公式进行决策,这样相当于对数据进行了一定程度的缩放,实现了解决类别不平衡的目的。
即我们前面讲解过的MAE、MSE等都是它的评价指标,主要衡量真实值与预测值之间的差距。
除此之外,还有一个评价指标,衡量拟合程度好坏的指标,称之为相关系数/决定系数,或者R2,公式如下:
分类任务常用评价指标。
矩阵形式如下:
可以得出以下几个指标:
两者是一对矛盾的量,一者大另外一者就偏小。
将两者的值画作曲线,称之为P-R曲线
:
上图中一个曲线被另外一个曲线包住,说明了前者性能低于后者(从查全率和查准率的值可以看出来),而所谓的平衡点就是查全率等于查准率的点而已。
我们算法讲解的时候,为了方便起见,一般都是以二分类任务为例子进行讲解的,那么二分类任务如何拓展到多分类任务呢?
简称为OvO(看起来就像表情包<_<),中文称为一对一。
假设有N个类别,我们可以将这N个类别随机抽取两个组成一个二分类任务,那么一共有N*(N-1)/2
个分类任务,也可以得到N*(N-1)/2
个分类结果,那么最终的结果就是有投票表决,即哪一个类别出现的次数最多,说明就是哪个类别。
简称OvR,中文称为一对剩余。
即N个类别,每次抽取1个类别,并将其他类别作为一个整体,分类器就判断是否属于这个类别就行。那么,一共产生N个分类器,那么最终结果就是分类器输出该类别的类别(分类器输出Yes表示为该类别,No表示为其他类别)。
简称MvM,中文称为多对多。
即,每次抽取诺干为正例,诺干为负例,当然,抽取是根据一定规则抽取的,不过具体的规则有很多,这里就不细说了,有兴趣的可以看看西瓜书等资料。
本篇主要讲解了一些机器学习的基础前置知识,当然上面的内容肯定没有包含全,后期我想起来了也会继续补充的。
下一篇,讲解线性回归的原理。