支持向量机(support vector machines, SVM)是一种二分类模型。基本模型是定义在特征空间上的间隔最大的线性分类器;学习策略:间隔最大化;学习算法:求解凸二次规划的最优化算法。
支持向量机分为线性可分支持向量机(linear support vector machine in linearly separable case)、线性支持向量机(linear support vector machine)、非线性支持向量机(non-linear support vector machine)。
n n n 维空间的超平面 ( w T x + b = 0 \left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}+b=0\right. (wTx+b=0,其中 w , x ∈ R n ) \left.\boldsymbol{w}, \boldsymbol{x} \in \mathbb{R}^n\right) w,x∈Rn) :
r = ∣ w T x + b ∣ ∥ w ∥ r=\frac{\left|\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}+b\right|}{\|\boldsymbol{w}\|} r=∥w∥ wTx+b
如下图所示,分类目标是将两类样本分开。
二分类问题中,划分超平面应满足(以下条件可扩充至高维的情形):
根据划分超平面的满足条件,推导支持向量机的数学模型。
定义数据及标签
给定训练数据集 D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , … , ( x m , y m ) } D=\left\{\left(\boldsymbol {x_1}, y_1\right),\left(\boldsymbol {x_2}, y_2\right), \ldots,\left(\boldsymbol {x_m}, y_m\right)\right\} D={(x1,y1),(x2,y2),…,(xm,ym)},共有两类标签 y i ∈ { − 1 , + 1 } y_i \in\{-1,+1\} yi∈{−1,+1}, y i = − 1 y_i=-1 yi=−1 为反例, y i = + 1 y_i=+1 yi=+1 为正例。
划分超平面的线性模型
划分超平面线性模型: w T x + b = 0 \boldsymbol{w}^{\boldsymbol{T}} \boldsymbol{x}+b=0 wTx+b=0。其中, w = ( w 1 , w 2 , … , w d ) T \boldsymbol{w}= \left(w_1, w_2, \ldots, w_d\right)^\mathrm{T} w=(w1,w2,…,wd)T 为法向量,决定超平面的方向; b b b 为偏移项,决定超平面与原点间的距离。划分超平面可简记为 ( w , b ) \left(\boldsymbol{w}, b\right) (w,b)。
正确线性划分
假设超平面 ( w , b ) (\boldsymbol{w}, b) (w,b) 能将训练样本正确分类,
从划分超平面来看,对于 ( x i , y i ) ∈ D \left(\boldsymbol{x}_i, y_i\right) \in D (xi,yi)∈D,若 y i = y_i= yi= + 1 +1 +1,则有 w T x i + b ⩾ 0 \boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_i+b \geqslant 0 wTxi+b⩾0;若 y i = − 1 y_i=-1 yi=−1, 则有 w T x i + b < 0 \boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_i+b<0 wTxi+b<0。简写为:
y i [ w T x i + b ] ⩾ 0 (1) y_i [\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_i+b ] \geqslant 0 \tag 1 yi[wTxi+b]⩾0(1)
从穿过「支持向量」且平行于「划分超平面」的两个超平面来看,对于 ( x i , y i ) ∈ D \left(\boldsymbol{x}_i, y_i\right) \in D (xi,yi)∈D,若 y i = + 1 y_i=+1 yi=+1,则有 w T x i + b ⩾ + 1 \boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_i+b \geqslant+1 wTxi+b⩾+1;
若 y i = − 1 y_i=-1 yi=−1,则有 w T x i + b ⩽ − 1 \boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_i+b \leqslant-1 wTxi+b⩽−1。简写为:
y i [ w T x i + b ] ⩾ 1 (2) y_i [\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_i+b ] \geqslant 1 \tag 2 yi[wTxi+b]⩾1(2)
确定划分超平面时只有支持向量起作用,其他样本点不起作用。如果移动支持向量将改变所求的解;但移动、去掉其他样本点,解不会改变,因此采用公式 (2) 来表示正确线性划分更好。
间隔最大
从两类支持向量所在超平面间的距离
或支持向量到划分超平面的距离*2
两个角度,可得异类支持向量到划分超平面的距离和为:
γ = 2 ∣ ∣ w ∣ ∣ \gamma = \frac{2}{|| \boldsymbol{w} ||} γ=∣∣w∣∣2
综上,可得支持向量机数学模型:
min w , b 1 2 ∥ w ∥ 2 s.t. y i ( w T x i + b ) ⩾ 1 , i = 1 , 2 , … , m . \begin{align} \min _{\boldsymbol{w}, b} & \frac{1}{2}\|\boldsymbol{w}\|^2 \tag{3a} \\ \text { s.t. } & y_i\left(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_i+b\right) \geqslant 1, \quad i=1,2, \ldots, m . \tag{3b} \end{align} w,bmin s.t. 21∥w∥2yi(wTxi+b)⩾1,i=1,2,…,m.(3a)(3b)
目标函数表示:过「支持向量」的平行于「最优划分超平面」的两个超平面距离最大(间隔最大)。
目标函数中乘 1 / 2 1/2 1/2 的目的是便于求导。
约束方程为什么乘 y i y_i yi?
w T x i + b \boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_i+b wTxi+b 的符号与类别标记 y i y_i yi 的符号是否一致能够表示分类是否正确。
约束方程右端为什么是1?可以为其他数吗?
约束方程右端的数可以改成任意的正数。若改为正数 a a a ,意味着所有向量距离最优划分超平面最小距离为 a a a,参数 w 、 b \boldsymbol{w}、b w、b 的值与原来的为 1 时的只差 a a a 倍。
为什么取 y i y_i yi 为 -1 或 1?
两个值表示两类不同样本,和 w T x i + b = ± 1 \boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_i+b = \pm 1 wTxi+b=±1 式中的 1 1 1 没有关系,也可取其他值,如:0 和 1、1 和 2,……此处定为 -1 或 1 是为了便于推导数学模型,如公式 (2) 的简洁形式。
为什么设支持向量所在超平面方程为 w T x i + b = ± 1 \boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_i+b = \pm 1 wTxi+b=±1?可以是 w T x i + b = ± 5 \boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_i+b = \pm 5 wTxi+b=±5 吗?
原则上说,这两条直线可以是 w T x + b = ± k \boldsymbol{w}^{\boldsymbol{T}} \boldsymbol{x}+b= \pm k wTx+b=±k ,其中, k k k 为任意常数。若对上式两边同时乘以 1 k \frac{1}{k} k1,并令 w T = 1 k w T , b = 1 k b \boldsymbol{w}^{\boldsymbol{T}}=\frac{1}{k} \boldsymbol{w}^{\boldsymbol{T}}, b=\frac{1}{k} b wT=k1wT,b=k1b ,直线改为: w T x + b = ± 1 \boldsymbol{w}^{\boldsymbol{T}} \boldsymbol{x}+b=\pm 1 wTx+b=±1,最优划分超平面依然是 w T x + b = 0 \boldsymbol{w}^{\boldsymbol{T}} \boldsymbol{x}+b=0 wTx+b=0 ,但是数学模型的最优值发生变化。
公式 (3) 为凸二次规划(convex quadratic programming)问题,处理用优化计算包求解,还可利用原问题的对偶问题来求解。
参考:
《机器学习》周志华
《统计学习方法(第二版)》李航
支持向量机(SVM) | notebook (yubincloud.github.io)
支持向量机算法(SVM)详细讲解_qq_38422157的博客-CSDN博客_
浙江大学胡浩基机器学习课程现场录播合集 p=7
【吃瓜教程】《机器学习公式详解》(南瓜书) p=8