【机器学习】支持向量机 SVM(非常详细)

【机器学习】支持向量机 SVM(非常详细)

阿泽

阿泽

复旦大学 计算机技术硕士

创作声明:内容包含虚构创作

原文路径:https://zhuanlan.zhihu.com/p/77750026

【机器学习】支持向量机 SVM(非常详细)_第1张图片

SVM 是一个非常优雅的算法,具有完善的数学理论,虽然如今工业界用到的不多,但还是决定花点时间去写篇文章整理一下。

1. 支持向量

1.1 线性可分

首先我们先来了解下什么是线性可分。

【机器学习】支持向量机 SVM(非常详细)_第2张图片

在二维空间上,两类点被一条直线完全分开叫做线性可分。

严格的数学定义是:

1.2 最大间隔超平面支持向量

【机器学习】支持向量机 SVM(非常详细)_第3张图片

  • 两类样本分别分割在该超平面的两侧;
  • 两侧距离超平面最近的样本点到超平面的距离被最大化了。

1.3 支持向量

【机器学习】支持向量机 SVM(非常详细)_第4张图片

样本中距离超平面最近的一些点,这些点叫做支持向量。

1.4 SVM 最优化问题

SVM 想要的就是找到各类样本点到超平面的距离最远,也就是找到最大间隔超平面。任意超平面可以用下面这个线性方程来描述:

【机器学习】支持向量机 SVM(非常详细)_第5张图片

如图所示,根据支持向量的定义我们知道,支持向量到超平面的距离为 d,其他点到超平面的距离大于 d。

【机器学习】支持向量机 SVM(非常详细)_第6张图片

于是我们有这样的一个公式:

【机器学习】支持向量机 SVM(非常详细)_第7张图片

 至此我们就可以得到最大间隔超平面的上下两个超平面:

【机器学习】支持向量机 SVM(非常详细)_第8张图片

每个支持向量到超平面的距离可以写为:

【机器学习】支持向量机 SVM(非常详细)_第9张图片

 所以得到的最优化问题是:

2. 对偶问题

2.1 拉格朗日乘数法

2.1.1 等式约束优化问题

本科高等数学学的拉格朗日程数法是等式约束优化问题:

【机器学习】支持向量机 SVM(非常详细)_第10张图片

2.1.2 不等式约束优化问题

       而我们现在面对的是不等式优化问题,针对这种情况其主要思想是将不等式约束条件转变为等式约束条件,引入松弛变量,将松弛变量也是为优化变量。

【机器学习】支持向量机 SVM(非常详细)_第11张图片

以我们的例子为例:

【机器学习】支持向量机 SVM(非常详细)_第12张图片

 由等式约束优化问题极值的必要条件对其求解,联立方程:

【机器学习】支持向量机 SVM(非常详细)_第13张图片

 由此方程组转换为:

【机器学习】支持向量机 SVM(非常详细)_第14张图片

   【机器学习】支持向量机 SVM(非常详细)_第15张图片

2.2 强对偶性

【机器学习】支持向量机 SVM(非常详细)_第16张图片

3. SVM 优化

我们已知 SVM 优化的主问题是:

 那么求解线性可分的 SVM 的步骤为:

步骤 1

构造拉格朗日函数:

 步骤 2

利用强对偶性转化:

 现对参数 w 和 b 求偏导数:

【机器学习】支持向量机 SVM(非常详细)_第17张图片

 得到:

【机器学习】支持向量机 SVM(非常详细)_第18张图片

 我们将这个结果带回到函数中可得:

【机器学习】支持向量机 SVM(非常详细)_第19张图片

步骤 3

由步骤 2 得:

【机器学习】支持向量机 SVM(非常详细)_第20张图片

       我们可以看出来这是一个二次规划问题,问题规模正比于训练样本数,我们常用 SMO(Sequential Minimal Optimization) 算法求解。

SMO(Sequential Minimal Optimization),序列最小优化算法,其核心思想非常简单:每次只优化一个参数,其他参数先固定住,仅求当前这个优化参数的极值。我们来看一下 SMO 算法在 SVM 中的应用。

我们刚说了 SMO 算法每次只优化一个参数,但我们的优化目标有约束条件:   ,没法一次只变动一个参数。所以我们选择了一次选择两个参数。具体步骤为:

【机器学习】支持向量机 SVM(非常详细)_第21张图片

步骤 4 :

我们求偏导数时得到:

【机器学习】支持向量机 SVM(非常详细)_第22张图片

将新本点导入到决策函数中既可得到样本的分类。 

4. 软间隔

4.1 解决问题

       在实际应用中,完全线性可分的样本是很少的,如果遇到了不能够完全线性可分的样本,我们应该怎么办?比如下面这个:

【机器学习】支持向量机 SVM(非常详细)_第23张图片

      于是我们就有了软间隔,相比于硬间隔的苛刻条件,我们允许个别样本点出现在间隔带里面,比如:

【机器学习】支持向量机 SVM(非常详细)_第24张图片

我们允许部分样本点不满足约束条件:

【机器学习】支持向量机 SVM(非常详细)_第25张图片

 对应如下图所示:

【机器学习】支持向量机 SVM(非常详细)_第26张图片

4.2 优化目标及求解

增加软间隔后我们的优化目标变成了:

【机器学习】支持向量机 SVM(非常详细)_第27张图片

 接下来我们将针对新的优化目标求解最优化问题:

步骤 1

构造拉格朗日函数:

【机器学习】支持向量机 SVM(非常详细)_第28张图片

步骤 2

【机器学习】支持向量机 SVM(非常详细)_第29张图片

步骤 3 :

【机器学习】支持向量机 SVM(非常详细)_第30张图片

5. 核函数

5.1 线性不可分

我们刚刚讨论的硬间隔和软间隔都是在说样本的完全线性可分或者大部分样本点的线性可分。

但我们可能会碰到的一种情况是样本点不是线性可分的,比如:

这种情况的解决方法就是:将二维线性不可分样本映射到高维空间中,让样本点在高维空间线性可分,比如:

对于在有限维度向量空间中线性不可分的样本,我们将其映射到更高维度的向量空间里,再通过间隔最大化的方式,学习得到支持向量机,就是非线性 SVM。

【机器学习】支持向量机 SVM(非常详细)_第31张图片

5.2 核函数的作用

我们不禁有个疑问:只是做个内积运算,为什么要有核函数的呢?

这是因为低维空间映射到高维空间后维度可能会很大,如果将全部样本的点乘全部计算好,这样的计算量太大了。

【机器学习】支持向量机 SVM(非常详细)_第32张图片

 然后在进行内积计算,才能与多项式核函数达到相同的效果。

可见核函数的引入一方面减少了我们计算量,另一方面也减少了我们存储数据的内存使用量。

5.3 常见核函数

我们常用核函数有:

【机器学习】支持向量机 SVM(非常详细)_第33张图片

 这三个常用的核函数中只有高斯核函数是需要调参的。

6. 优缺点

6.1 优点

  • 有严格的数学理论支持,可解释性强,不依靠统计方法,从而简化了通常的分类和回归问题;
  • 能找出对任务至关重要的关键样本(即:支持向量);
  • 采用核技巧之后,可以处理非线性分类/回归任务;
  • 最终决策函数只由少数的支持向量所确定,计算的复杂性取决于支持向量的数目,而不是样本空间的维数,这在某种意义上避免了“维数灾难”。

6.2 缺点

  • 训练时间长。当采用 SMO 算法时,由于每次都需要挑选一对参数,因此时间复杂度为   ,其中 N 为训练样本的数量;
  • 当采用核技巧时,如果需要存储核矩阵,则空间复杂度为   ;
  • 模型预测时,预测时间与支持向量的个数成正比。当支持向量的数量较大时,预测计算复杂度较高。

因此支持向量机目前只适合小批量样本的任务,无法适应百万甚至上亿样本的任务。

你可能感兴趣的:(机器学习&深度学习,机器学习,支持向量机,算法,人工智能)