机器学习——支持向量机(SVM)

支持向量机(Support Vector Machine,SVM)是一种用于分类问题的监督算法。支持向量机试图在数据点之间绘制两条线,它们之间的边距最大。为此,我们将数据项绘制为 n 维空间中的点,其中,n 是输入特征的数量。在此基础上,支持向量机找到一个最优边界,称为超平面(Hyperplane),它通过类标签将可能的输出进行最佳分离。


首先来了解一下什么是支持向量,下面举一个简单的例子。

机器学习——支持向量机(SVM)_第1张图片

如上图,对于一个二分类场景,可以有无数线将其分开。被虚线截到的一个或者多个样本就叫做支持向量。


1.1 线性可分的SVM

如果有一个线性函数能够将样本分开,就称这些数据样本是线性可分的。线性函数,简单说来,在二维空间中就是一条直线,三维空间中就是一个平面。高于三维,我们统称为 超平面

关于上面图中存在的一个问题:就是可以有无数条直线将样本分开,所以需要找出一条可以正确分开样本并且结果是最优的。

最优化的原则就是所有的样本能正确分类并且不同样本之间的间隔要最大。转化为所有的支持向量到线性函数(超平面)的距离最大,这样就能保证最优结果,并且此结果下只可能有一条最优线将样本分开。

![在这里插入图片描述](https://img-blog.csdnimg.cn/c66bf52ef35c496eb85de79f7c9725dd.png#pic_center
机器学习——支持向量机(SVM)_第2张图片

接下来应该要怎样计算间隔呢?

用如下线性方程来描述超平面 WT x+b=0; 其中W为法向量,决定了超平面的方向,b为位移量,决定了超平面与原点的距离。假设对于样本(xi,yi),用yi =+1来表示正样本,yi =-1来表示负样本。(当然可以的+1,-1不是肯定的,你也可以取2,3,4… -2,-3,-4…).说明一下:yi 是标签值。可以得到如下图结果:

image-20220613194803782

通过放缩,可以使在支持向量x0上有|wTx0+b| = 1,而在非支持向量上有|wTx0+b| >1.

所有有一个支持向量点x0到超平面的距离:
d = ∣ w T x 0 + b ∣ ∣ ∣ w ∣ ∣ = 1 ∣ ∣ w ∣ ∣ d=\frac{|wTx0+b|}{||w||} = \frac{1}{||w||} d=wwTx0+b=w1

所 以 r = 2 d = 2 ∣ ∣ w ∣ ∣ 这 里 的 ∣ ∣ w ∣ ∣ 是 2 范 数 , 关 于 范 数 , 不 懂 的 地 方 可 以 搜 索 一 下 。 所以r = 2d = \frac{2}{||w||} 这里的||w||是2范数,关于范数,不懂的地方可以搜索一下。 r=2d=w2w2

最终最大化支持向量到超平面的距离就等价于最小化||w||,为了放方便求导等原因,最小化||w||转化为最小化1/2||w||2 。此时可以写出支持向量机的限制条件 :

argmin 1/2||w||2 st. yi(wTxi+b)>=1

1.2 线性不可分的SVM

线性不可分意味着某些样本点(xi,yi)不能满足间隔大于等于1的条件。如下图:

机器学习——支持向量机(SVM)_第3张图片

一种思路是对每个样本点引入一个松弛变量δi>0,使得间隔加上松弛变量大于等于1,最优化问题变为求解1/2||w||2 +C*Σδi,其中C>0为惩罚一个参数;约束条件就变为 yi(wTxi+b) > 1 - δi 。这样将非线性问题转而和线性可分问题的一样求解过程。


处理非线性问题的另外一种思路就是利用核函数,通过将数据映射到高维空间来解决原视空间线性不可分的情况。在线性不可分的情况下,SVM首先在低纬空间中完成计算,然后通过核函数将输入空间映射到高维特征空间,最后在高维特征空间中构造出最优分离超平面,从而把平面上本身不好分的非线性数据分开。

机器学习——支持向量机(SVM)_第4张图片

如上,对于异或问题线性不可分,通过选择合适的核函数将二维映射到三维,找到一个超平面是其线性可分。

机器学习——支持向量机(SVM)_第5张图片
最优化问题和受限条件转化为如上式子

机器学习——支持向量机(SVM)_第6张图片
下面是一些常见的核函数
机器学习——支持向量机(SVM)_第7张图片

你可能感兴趣的:(机器学习,机器学习,支持向量机,人工智能)