1、最优线性分类器
对于下图的二分类任务,我们想要得到一个分类平面将其分开:
显然图中的1、2、3、4、5号平面均能达成这个目的,这五个平面我们可以用下式来表示
wTx+b=0(1) (1) w T x + b = 0
对于任意的样本点 (xi,yi) ( x i , y i ) 均满足
{wTxi+b<0,yi=−1wTxi+b>0,yi=+1(2) (2) { w T x i + b < 0 , y i = − 1 w T x i + b > 0 , y i = + 1
记模型为:
f(x)=wTx+b(3) (3) f ( x ) = w T x + b
则当新的样本特征
x′ x ′ 到来时只需代入式(3),观察输出
f(x′) f ( x ′ ) 的正负即可判断。
五个平面的差别就在于 w w 和 b b 不同。图中1、2、4、5号平面虽然完成了分类任务,但是其抗扰动性不佳,在这些平面附近的样本点容易被错分类,相对来说3号平面因为距离两类样本点都足够“远”,因此其抗扰动性比较好,这样的平面我们称为最优线性分类器,支持向量机(SVM)就是要寻找这样的平面,为此要引入间隔的概念。
2、函数间隔和几何间隔
2.1 函数间隔
对于每一个样本点,我们可以定义这个样本点到超平面间隔,称为样本点的函数间隔:
γi函=yi∗f(xi)(4) (4) γ i 函 = y i ∗ f ( x i )
那么
超平面的函数间隔可以从下式得到:
γ函=min1≤i≤nγi函(5) (5) γ 函 = min 1 ≤ i ≤ n γ i 函
我们的目标就是要找到一组
w w 和
b b 使得
γ函 γ 函 最大,形式化表示如下:
maxw,bγ函=maxw,bmin1≤i≤nγi函=maxw,bmin1≤i≤nyi∗(wTxi+b)(6) (6) max w , b γ 函 = max w , b min 1 ≤ i ≤ n γ i 函 = max w , b min 1 ≤ i ≤ n y i ∗ ( w T x i + b )
仔细分析式(6)我们可以发现,当
w w 和
b b 成倍数增长时,函数间隔会不断地增大,此时找不到目标函数的最优解,而此时超平面并没有改变(
2wTx+2b=0 2 w T x + 2 b = 0 与式(1)并没有区别 ),所以函数间隔还不足以帮助我们寻找最优
w w 和
b b ,故需要进一步引入几何间隔
2.2 几何间隔
如下图所示:
图中 x x 表示样本点, x0 x 0 是 x x 垂直投影到超平面上对应的点 , w w 是式(1)中的权重向量, 该向量是超平面的法向量(详情见 2.4* 节介绍), γ γ 表示样本点 x x 到超平面的 几何间隔
容易得到以下推导过程:
x=x0+w‖w‖γx0=x−w‖w‖γ∵ x0在超平面上∴f(x0)=0 x = x 0 + w ‖ w ‖ γ x 0 = x − w ‖ w ‖ γ ∵ x 0 在 超 平 面 上 ∴ f ( x 0 ) = 0
即有
f(x−w‖w‖γ)=wT(x−w‖w‖γ)+b=wTx+b−wTw‖w‖γ=f(x)−‖w‖γ=0(7)(8) f ( x − w ‖ w ‖ γ ) = w T ( x − w ‖ w ‖ γ ) + b (7) = w T x + b − w T w ‖ w ‖ γ (8) = f ( x ) − ‖ w ‖ γ = 0
所以
γ=f(x)‖w‖(9) (9) γ = f ( x ) ‖ w ‖
其中式(7)到式(8)这一步到转化,前一半无需赘述是很直观的,后一半主要依据向量内积与二范数的关系:
‖w‖=w21+w22+w23+⋯+w2n‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾√=<w,w>‾‾‾‾‾‾‾‾‾√=wTw‾‾‾‾‾√(10) (10) ‖ w ‖ = w 1 2 + w 2 2 + w 3 2 + ⋯ + w n 2 = < w , w > = w T w
样本点 x x 可以分布在超平面两边,因此式(9)得到的集合间隔是带有方向的,我们考虑把方向的影响去除,则有
|γ|=|f(x)|‖w‖=y∗f(x)‖w‖=γ函‖w‖(11) (11) | γ | = | f ( x ) | ‖ w ‖ = y ∗ f ( x ) ‖ w ‖ = γ 函 ‖ w ‖
2.3 另一个角度来看几何间隔
我们能够比较直观感受的是二维空间和三维空间,不妨就从这两个维度开始总结规律以推广到高维空间。
二维空间——直线
初等数学中的一般表达式: Ax+By+C=0 A x + B y + C = 0
转化为本文统一的表达式: w1x1+w2x2+b=0 w 1 x 1 + w 2 x 2 + b = 0
其中 w=(w1,w2)T, x=(x1,x2)T w = ( w 1 , w 2 ) T , x = ( x 1 , x 2 ) T
二维空间中某一点 (x0,y0) ( x 0 , y 0 ) 到该直线的距离可以表示为:
d=|Ax0+By0+C|A2+B2‾‾‾‾‾‾‾‾√=|w1x1+w2x2+b|w21+w22‾‾‾‾‾‾‾‾√=|wTx+b|||w||(12)(13)(14) (12) d = | A x 0 + B y 0 + C | A 2 + B 2 (13) = | w 1 x 1 + w 2 x 2 + b | w 1 2 + w 2 2 (14) = | w T x + b | | | w | |
三维空间——平面
初等数学中的一般表达式: Ax+By+Cz+D=0 A x + B y + C z + D = 0
转化为本文统一的表达式: w1x1+w2x2+w3x3+b=0 w 1 x 1 + w 2 x 2 + w 3 x 3 + b = 0
其中 w=(w1,w2,w3)T, x=(x1,x2,x3)T w = ( w 1 , w 2 , w 3 ) T , x = ( x 1 , x 2 , x 3 ) T
三维空间中某一点 (x0,y0,z0) ( x 0 , y 0 , z 0 ) 到该平面的距离可以表示为:
d=|Ax0+By0+Cz0+D|A2+B2+C2‾‾‾‾‾‾‾‾‾‾‾‾‾√=|w1x1+w2x2+w3x3+b|w21+w22+w23‾‾‾‾‾‾‾‾‾‾‾‾‾√=|wTx+b|||w||(15)(16)(17) (15) d = | A x 0 + B y 0 + C z 0 + D | A 2 + B 2 + C 2 (16) = | w 1 x 1 + w 2 x 2 + w 3 x 3 + b | w 1 2 + w 2 2 + w 3 2 (17) = | w T x + b | | | w | |
式(12)(15)是初等数学中的简单知识,式(13)(16)是前一步的简单替代,式(14)(17)是统一的向量表示,根据二维和三维空间的这一结论,我们推广到任意维, n n 维空间里的实例 x x 到该空间超平面的距离可以表示为:
|γ|=|wTx+b|||w||=|f(x)|‖w‖(18) (18) | γ | = | w T x + b | | | w | | = | f ( x ) | ‖ w ‖
与式(11)相同。
2.4* 为什么权重向量是超平面的法向量
为直观感受,我们假设式(1)表示的是二维空间上的超平面,此时超平面是一条直线,这条直线上有两个点 x1 x 1 和 x2 x 2 ,那么 x1−x2 x 1 − x 2 表示的向量的方向也是沿着该直线方向的。
将 x1 x 1 和 x2 x 2 分别带入式(1),会得到:
wTx1+b=0wTx2+b=0 w T x 1 + b = 0 w T x 2 + b = 0
将以上两式整合,易得
wT(x1−x2)=0 w T ( x 1 − x 2 ) = 0
说明
wT w T 与
x1−x2 x 1 − x 2 垂直,也就是说
wT w T 是直线的法向量,那么其转置(列向量与行向量的区别而已)自然也是直线的法向量。简单的直线解析集合基础即可得证上述结论,从二维推广到任意维并不会改变这一结论。
3、形式化表示优化目标
式(11)和(18)所得到的几何间隔是超平面某一侧样本点到超平面的距离,因此两类样本点之间的最大间隔这一距离的两倍,此时我们找到了优化目标:
maxw,b s.t. 2γ函||w||yi(wTxi+b)≥γ函 i=1,2,⋯,n(19) max w , b 2 γ 函 | | w | | (19) s . t . y i ( w T x i + b ) ≥ γ 函 i = 1 , 2 , ⋯ , n
我们令目标函数和约束条件同时缩小
γ函 γ 函 倍,则此优化问题的最优解并未发生改变,记
w∗=wγ函,b∗=bγ函 w ∗ = w γ 函 , b ∗ = b γ 函 此时我们可以得到:
maxw∗,b∗ s.t. 2||w∗||yi(w∗Txi+b∗)≥1 i=1,2,⋯,n(20) max w ∗ , b ∗ 2 | | w ∗ | | (20) s . t . y i ( w ∗ T x i + b ∗ ) ≥ 1 i = 1 , 2 , ⋯ , n
由2.1节分析可知当
w w 和
b b 成比例放缩时,平面并未发生改变,所以(19)和(20)是等价的。
进一步,式(20)可以等价于下式
minw,b s.t. 12||w||2yi(wTxi+b)≥1 i=1,2,⋯,n(21) min w , b 1 2 | | w | | 2 (21) s . t . y i ( w T x i + b ) ≥ 1 i = 1 , 2 , ⋯ , n
4、拉格朗日乘子法和对偶问题
4.1 从条件极值谈起
回顾高等数学中多元函数的条件极值求解问题:求 f(x,y) f ( x , y ) 在不等式 g(x,y)≤0 g ( x , y ) ≤ 0 和 h(x,y)≤0 h ( x , y ) ≤ 0 约束下的极值,我们采用的方法是构造拉格朗日函数, L(x,y,α,β)=f(x,y)+αg(x,y)+βh(x,y) L ( x , y , α , β ) = f ( x , y ) + α g ( x , y ) + β h ( x , y ) 其中 α≥0,β≥0 α ≥ 0 , β ≥ 0 ,然后分别求 L(x,y,α,β) L ( x , y , α , β ) 对 x x 和 y y 的偏导,令其为0,满足这一条件的 x′,y′ x ′ , y ′ 对应的 f(x′,y′) f ( x ′ , y ′ ) 即为所求。
4.2 凸优化问题标准形
将以上做法推广到既有等式约束又有不等式约束的情形:
- 原问题
minx s.t. f(x)hi(x)=0 (i=1,2,⋯,m)gj(x)≤0 (j=1,2,⋯,n)(22) min x f ( x ) s . t . h i ( x ) = 0 ( i = 1 , 2 , ⋯ , m ) (22) g j ( x ) ≤ 0 ( j = 1 , 2 , ⋯ , n )
引入拉格朗日乘子(任意一个拉格朗日乘子均非负) λ=(λ1,λ2,⋯,λm)T λ = ( λ 1 , λ 2 , ⋯ , λ m ) T 和 μ=(μ1,μ2,⋯,μn)T μ = ( μ 1 , μ 2 , ⋯ , μ n ) T ,构造拉格朗日函数:
- 拉格朗日函数
L(x,λ,μ)=f(x)+∑i=1mλihi(x)+∑j=1nμjgj(x)(23) (23) L ( x , λ , μ ) = f ( x ) + ∑ i = 1 m λ i h i ( x ) + ∑ j = 1 n μ j g j ( x )
由不等式约束 gj(x)≤0 (j=1,2,⋯,n) g j ( x ) ≤ 0 ( j = 1 , 2 , ⋯ , n ) 可以引入KKT条件:
4.3 SVM的对偶问题
依据4.2节的内容,我们对式(21)引入拉格朗日乘子 α=(α1,α2,⋯,αn) α = ( α 1 , α 2 , ⋯ , α n ) ,可以得到:
L(w,b,α)=12||w||2+∑i=1nαi[1−yi(wTxi+b)](25) (25) L ( w , b , α ) = 1 2 | | w | | 2 + ∑ i = 1 n α i [ 1 − y i ( w T x i + b ) ]
令
Θ(w)=maxαi≥0L(w,b,α)(26) (26) Θ ( w ) = max α i ≥ 0 L ( w , b , α )
仔细分析式(25)(26),我们可以得出如下结论:
Θ(w)=maxαi≥0L(w,b,α)={12||w||2 满足原始约束∞ 不满足原始约束(27) (27) Θ ( w ) = max α i ≥ 0 L ( w , b , α ) = { 1 2 | | w | | 2 满 足 原 始 约 束 ∞ 不 满 足 原 始 约 束
原始约束满足的情况下,
1−yi(wTxi+b)≤0 1 − y i ( w T x i + b ) ≤ 0 ,拉格朗日乘子非负,所以
∑ni=1αi[1−yi(wTxi+b)] ∑ i = 1 n α i [ 1 − y i ( w T x i + b ) ] 非正,因此式(25)最大值便是式(27)上式所示;反之,原始约束不满足的情况下,只需置对应项的拉格朗日乘子无限大,则无法找到
maxαi≥0L(w,b,α) max α i ≥ 0 L ( w , b , α ) ,所以,我们可以把式(21)这一原始问题描述为:
minw,bΘ(w)=minw,bmaxαi≥0L(w,b,α)(28) (28) min w , b Θ ( w ) = min w , b max α i ≥ 0 L ( w , b , α )
式(29)的对偶问题是:
maxαi≥0minw,bL(w,b,α)(29) (29) max α i ≥ 0 min w , b L ( w , b , α )
记式(28)和(29)的最优解分别为
p∗ p ∗ 和
d∗ d ∗ ,易证式(28)和(29)中
blue≤L(w,b,α)≤red b l u e ≤ L ( w , b , α ) ≤ r e d ,那么显然
d∗≤p∗ d ∗ ≤ p ∗ ,在强对偶性得以满足的条件下,可以得到
d∗=p∗ d ∗ = p ∗ 式(24)提到的KKT条件就是强对偶的一种,所以原始问题可以通过满足KKT条件转化为对偶问题,求解对偶问题所得的结果就是原问题的解。
4.4 对偶问题的求解
对偶问题的求解可以分为两步,首先对式(29)中的 blue b l u e 部分求解,求 L(w,b,α) L ( w , b , α ) 对 w w 和 b b 的偏导:
∂L∂w∂L∂b=w−∑i=1nαiyixi=∑i=1nαiyi(30)(31) (30) ∂ L ∂ w = w − ∑ i = 1 n α i y i x i (31) ∂ L ∂ b = ∑ i = 1 n α i y i
L(w,b,α)=12||w||2+∑i=1nαi[1−yi(wTxi+b)] L ( w , b , α ) = 1 2 | | w | | 2 + ∑ i = 1 n α i [ 1 − y i ( w T x i + b ) ]
分别令式(30)(31)的值为0,则可以得到
w=∑ni=1αiyixi w = ∑ i = 1 n α i y i x i ,
∑ni=1αiyi=0 ∑ i = 1 n α i y i = 0 ,将其代入式(25)得到:
L(w,b,α)=12wTw+∑i=1nαi−wT∑i=1nαiyixi−b∑i=1nαiyi=12wT∑i=1nαiyixi+∑i=1nαi−wT∑i=1nαiyixi=∑i=1nαi−12wT∑i=1nαiyixi=∑i=1nαi−12(∑i=1nαiyixi)T∑i=1nαiyixi=∑i=1nαi−12∑i=1nαiyixTi∑i=1nαiyixi=∑i=1nαi−12∑i, j=1nαiαjyiyjxTixj(32) L ( w , b , α ) = 1 2 w T w + ∑ i = 1 n α i − w T ∑ i = 1 n α i y i x i − b ∑ i = 1 n α i y i = 1 2 w T ∑ i = 1 n α i y i x i + ∑ i = 1 n α i − w T ∑ i = 1 n α i y i x i = ∑ i = 1 n α i − 1 2 w T ∑ i = 1 n α i y i x i = ∑ i = 1 n α i − 1 2 ( ∑ i = 1 n α i y i x i ) T ∑ i = 1 n α i y i x i = ∑ i = 1 n α i − 1 2 ∑ i = 1 n α i y i x i T ∑ i = 1 n α i y i x i (32) = ∑ i = 1 n α i − 1 2 ∑ i , j = 1 n α i α j y i y j x i T x j
可以发现此时式(32)表示的拉格朗日函数中的变量只有
αi α i ,那么进一步把
αi α i 求解出来便可以确定
w w 和
b b ,所以接下来便是对偶问题求解的第二步求解,经过第一步,问题式(29)已经转变成为:
maxα s.t. ∑i=1nαi−12∑i, j=1nαiαjyiyjxTixjαi≥0 (i=1,2,⋯,m)∑i=1nαiyi=0(33) max α ∑ i = 1 n α i − 1 2 ∑ i , j = 1 n α i α j y i y j x i T x j s . t . α i ≥ 0 ( i = 1 , 2 , ⋯ , m ) (33) ∑ i = 1 n α i y i = 0
式(33)的求解可以通过SMO算法进行求解(笔者目前也还没有完全透彻这一算法,后续学习后将写出来与博友交流),最终得到结果:
w∗b∗=∑i=1nαiyixi=maxi:yi=−1w∗Txi+mini:yi=+1w∗Txi2 w ∗ = ∑ i = 1 n α i y i x i b ∗ = max i : y i = − 1 w ∗ T x i + min i : y i = + 1 w ∗ T x i 2
至此,已经求出了式(1)的两个重要参数。
5、SVM中一些其他问题
5.1 为什么只有支持向量影响解的结构?
我们一般把图中红色方框框出来的样本点称为支持向量,从图示的角度很容易理解,这些样本点的位置影响了整个“管道“的位置,那么“管道“正中间的分类平面的位置也会随着变动,这是从直观的角度来解释为什么只有支持向量会影响模型,其实我们也可以从理论角度来加以解释:
将式(21)中的约束条件转换成为式(22)中的标准形式,参照式(24)KKT条件的第三条,必有下式成立:
αi[1−yi(wTxi+b)]=0(34) (34) α i [ 1 − y i ( w T x i + b ) ] = 0
图中红框框出的样本点满足
1−yi(wTxi+b)=0 1 − y i ( w T x i + b ) = 0 即只有支持向量对应的拉格朗日乘子才可能不为0,而4.4节已经提到我们是通过SMO算法求解关于
α α 的优化问题,最终求得模型重要参数
w w 和
b b 的。
5.2 非线性问题怎么办?
前述内容都是关于线性可分的分类问题,那么对于线性不可分的呢?核方法是一个非常不错的选择,而SVM的强大一定程度上就是由于引入核方法将线性不可分问题从低维空间映射到高维空间变成线性可分,而且,核方法并非SVM专属方法,这是一套非常有效的技巧,以后会专门写一下这一块!
【参考文献】
周志华.机器学习[M].北京:清华大学出版社,2016.
李航.统计学习方法[M].北京:清华大学出版社,2012.
July.支持向量机通俗导论(理解SVM的三层境界)