前言
最近发现自己的基础知识不够扎实,面对别人的问题总是“知其然不知其所以然”。出现这个问题的朋友周围有很多,大多数人都是“拿来主义”,想着“有了开源库,有了函数包,只要会用就行,在遇到具体问题的时候再去寻找相应的解决办法”,这种“非系统”的学习思想其实殆害无穷,在自己想要踏实做一个工程时,会出现眼界窄,能力不足的问题,有时候为解决一个问题千方百计地找到了一个非常好用的函数,而这个函数自己根本没听过。如果自己深入专研这方面的话,第一反应就是使用最便捷的方法了,这便是“扎实”的基本功带来的好处。
在简书、知乎、CSDN上有许多前辈已经总结了好的学习资料,自己也从中获益良多,但每次不论文章写得多好,过段时间还是忘了,反思了一下还是没有将其“私有化”,因此现在用自己的话总结一些基础知识,如果在学习记录的同时,可以给大家理解枯燥的理论知识带来一点点帮助,不胜荣幸。
1 面试中考察SVM的必要性
其一:面试官便于了解面试者的基础知识,数学基本功,学习态度,可以通过一些基础模型来看出这个面试者是否能够胜任该岗位。
其二:由于机器学习范畴大,流派多,面试官懂的可能你不懂,你懂的可能面试官没有提前准备,索性来个大家都应该懂的——SVM、LR等。
因此,面试前准备一些基础知识的理解和推导是对本次面试最起码的态度(面试官把最基本的题都告诉你了,如果连这些你都答不上来,那不好意思了)。
2 基本介绍
SVM最初是为解决二元分类问题而设计的,假设我们在桌面(二维平面下)上有两种颜色的球,我们需要用一条直线把它们分成两类。如果在平面上我们没法用一条直线把它们分成两类,我们就采取猛拍桌子(核技巧)的方法,把球振到空中(多维空间下),迅速扔出一张纸,将两个颜色的球在空间中分隔开。我们把这些球叫做 「data」(数据源),把直线叫做 「classifier」(分类器), 拍桌子叫做「kernelling」(建立核函数), 那张纸叫做「hyperplane」(超平面)。
3.SVM的推导(线性可分的情况)
给定样本集
D={(x1,y1),(x2,y2),...,(xm,ym)}(式0) D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x m , y m ) } ( 式 0 )
其中
x x 为
1∗m 1 ∗ m 维的向量(有m个属性的一条训练数据)。
目的:寻找一个最优(泛化能力最强)的超平面,将不同类别的样本分开。
超平面可用
γ=|wT+b|||w||(式2) γ = | w T + b | | | w | | ( 式 2 )
如果超平面将样本成功分类,则下式成立
{wTxi+b⩾+1,yi=+1wTxi+b⩾−1,yi=−1(式3) { w T x i + b ⩾ + 1 , y i = + 1 w T x i + b ⩾ − 1 , y i = − 1 ( 式 3 )
使等号成立的几个样本点称为“支持向量”,两个异类支持向量到超平面的距离之和为
γ=2||w||(式4) γ = 2 | | w | | ( 式 4 )
其被称为“间隔”。我们要找到具有“最大间隔”的超平面,即
maxw,b2||w||s.t.yi(wTxi+b)⩾1,i=1,2,...,m.(式5) max w , b 2 | | w | | s . t . y i ( w T x i + b ) ⩾ 1 , i = 1 , 2 , . . . , m . ( 式 5 )
可以知道,最大化
||w||−1 | | w | | − 1 ,等价于最小化
||w||2 | | w | | 2 。(PS:使用平方L2范数的原因是 。 ( P S : 使 用 平 方 L 2 范 数 的 原 因 是 {||w||}^2=w^Tw $)
将式5重写为
maxw,b12||w||2s.t.yi(wTxi+b)⩾1,i=1,2,...,m.(式6) max w , b 1 2 | | w | | 2 s . t . y i ( w T x i + b ) ⩾ 1 , i = 1 , 2 , . . . , m . ( 式 6 )
式6为SVM的“基本型”。求解式6来得到模型
f(x)=wT+b(式7) f ( x ) = w T + b ( 式 7 )
对式6中的每条约束加上拉格朗日乘子
αi≥0 α i ≥ 0 ,得到
L(w,b,α)=12||w||2+∑i=1mαi(1−yi(wTxi+b))(式8) L ( w , b , α ) = 1 2 | | w | | 2 + ∑ i = 1 m α i ( 1 − y i ( w T x i + b ) ) ( 式 8 )
令
L L 分别对
w w 和
b b 的偏导为0,得
w=∑i=1mαiyixi(式9) w = ∑ i = 1 m α i y i x i ( 式 9 )
0=∑i=1mαiyi(式10) 0 = ∑ i = 1 m α i y i ( 式 10 )
代入式8中,得到式6的对偶问题(线性规划有一个有趣的特性,就是任何一个求极大的问题都有一个与其匹配的求极小的线性规划问题。)
maxα∑i=1mαi−12∑i=1m∑j=1mαiαjyiyjxiTxjs.t.∑i=1mαiyi=0,αi⩾0,i=1,2,...,m.(式11) max α ∑ i = 1 m α i − 1 2 ∑ i = 1 m ∑ j = 1 m α i α j y i y j x i T x j s . t . ∑ i = 1 m α i y i = 0 , α i ⩾ 0 , i = 1 , 2 , . . . , m . ( 式 11 )
求
w w (即求
α α )和
b b ,得模型
f(x)=wTx+b=∑i=1mαiyixiT+b(式12) f ( x ) = w T x + b = ∑ i = 1 m α i y i x i T + b ( 式 12 )
上述过程需满足KKT条件。
使用SMO算法来求取
α α ,使支持向量的性质来求
b b 。
这里应该指出,每一个理论的每一个介绍者给出的介绍都可能不尽符合你,或多或少会出现不好理解的情况,原因在于每个人(包括介绍者和学习者)的思维习惯、知识基础、问题背景都不尽相同。自己在学习时总结的经验就是“集成学习”(即取各家之所长),多看几个优秀介绍者的介绍。比如SVM的就充分借鉴了《机器学习》(周志华)等人的介绍。
参考
1.《机器学习》(周志华)
2. 支持向量机(SVM)是什么意思?
3. 机器学习面试之有必要手推SVM吗?
机器学习面试之有必要手推SVM吗(2)?
4. 支持向量机SVM推导及求解过程
在简书中输入Letax公式请参考
搞定简书中公式编辑问题:插入Letax公式
转载请注明如下内容:
本文作者: Freedom_anytime
知乎:@Forfreedom
简书号:For_freedom
简书原文链接:【机器学习】SVM理解及推导