《Machine Learning in Action》—— 剖析支持向量机,单手狂撕线性SVM

手撕机器学习系列文章就暂时更新到此吧,目前已经完成了支持向量机SVM、决策树、KNN、贝叶斯、线性回归、Logistic回归,其他算法还请允许Taoye在这里先赊个账,后期有机会有时间再给大家补上。

《Machine Learning in Action》—— 剖析支持向量机,单手狂撕线性SVM_第1张图片

更新至此,也是收到了部分读者的好评。虽然不多,但还是非常感谢大家的支持,希望每一位阅读过的读者都能够有所收获。

该系列文章的全部内容都是Taoye纯手打,也是参考了不少书籍以及公开资源,系列总字数在15W左右(含源码),后期会再慢慢填补,更多的技术文章可以来访Taoye的公众号:玩世不恭的Coder。文档可以随意传播,但注意不可修改其中的内容。

如果文章中有任何不懂的问题,都可以直接提出,Taoye看见后会第一时间回复,同时欢迎大家来此私密地向Taoye催更:玩世不恭的Coder,公众号也有Taoye的私人联系方式。有些话,Taoye只能在那里和你偷偷地说 (#`O′)

为了提高大家的阅读体验,手撕机器学习系列文章Taoye已经整理成PDF和和HTML,阅读效果都很不错,在公众号【玩世不恭的Coder】下回复【666】即可免费获取。

《Machine Learning in Action》—— 剖析支持向量机,单手狂撕线性SVM_第2张图片

前面在写NumPy文章的结尾处也有提到,本来是打算按照《机器学习实战 / Machine Learning in Action》这本书来手撕其中代码的,但由于实际原因,可能需要先手撕SVM了,这个算法感觉还是挺让人头疼,其中内部太复杂了,涉及到的数学公式太多了,也涉及到了许多陌声的名词,如:非线性约束条件下的最优化、KKT条件、拉格朗日对偶、最大间隔、最优下界、核函数等等,天书或许、可能、大概就是这样的吧。

记得与SVM初次邂逅是在17年,那个时候的自己年少轻狂,视图想着站在巨人的肩膀上,把所有自己感兴趣的内容都搞懂,深入骨髓的那种。但后来残酷的现实让我明白一个道理:**你知道的越多,你不知道的也越多。**而且那个时候自己也没有能力、资源和机会去深入SVM内部,完全无法理解SVM的内部原理。所以,当时自己对SVM的收获只有一个:SVM主要是用来做分类任务的,仅此而已。

第二次接触SVM是在准备考研复试吧,当时复试并没有给出具体内容和范围,而且自己也还是个初出茅庐的小子,对这种所谓的复试有种莫名的恐惧感。也只有从上届学长学姐的口中,得知复试的时候老师会考究学生是否有科研的潜力,所以最好把机器学习熟知一下。那个时候也是处于新冠疫情的紧张时期嘛,就疯狂补习机器学习的内容,其中就包括支持向量机——SVM,主要的学习渠道是吴恩达老师的机器学习课程,感觉讲的的确不错,非常适合我这种菜鸟级选手学习。当时也算是对SVM有了一定的认识吧,也大致了解了SVM的工作原理,当然了,也只是对SVM有了个的浅显的认识,没有手撕SVM的过程,也没有完全把它整明白。尽管如此,复试的过程依然被面试导师锤的体无完肤,除了问了机器学习相关内容之外,编译原理等一些专业知识对于我这个贸易专业的学生来讲可太痛苦了,之前也没有接触过,全程阿巴阿巴。想到这,眼角又又。。。

第三次面对SVM也就是现在了,想着无论如何也要打通我的任督二脉,一定要搞清楚SVM的来龙去脉,也要像面试老师捶我那样,把SVM往死里锤。于是有了下文学习SVM之后的总结,一方面算是重新梳理一遍SVM,另一方面也希望来访的读者能够有所收获。

对于刚刚接触SVM的读者,Taoye主要有以下几条建议,也是我学习SVM过程中的一个小总结吧:

  • SVM内部的数学公式很多,但请不要未战先怯,犯下兵家大忌。无论是阅读该篇文章也好,学习其他相关SVM资源也罢,还请诸君耐心、认真且完整的看完。
  • SVM的原理过程会涉及到很多的符号或记号,一定要梳理清楚他们所代表的含义。另外,推导过程中会存在很多的向量或矩阵,一定要明白其中shape,这一点可能在不同的资料中会有不一样的处理方式。
  • 在阅读的同时,一定要拿出稿纸手动推演SVM的过程,尽可能明白整个过程的来龙去脉,有不明白的地方可以留言或查找其他相关资料来辅助自己的理解。
  • 阅读一遍或许有不少知识不理解,但多阅读几遍相信一定会有不少收获

本文参考了不少书籍资料以及许多大佬的技术文章,行文风格尽可能做到通俗易懂,但其中涉及到的数学公式在所难免,还请诸读者静下心来慢慢品尝。由于个人水平有限,才疏学浅,对于SVM也只是略知皮毛,可能文中有不少表述稍有欠妥、有不少错误或不当之处,还请诸君批评指正。

我是Taoye,爱专研,爱分享,热衷于各种技术,学习之余喜欢下象棋、听音乐、聊动漫,希望借此一亩三分地记录自己的成长过程以及生活点滴,也希望能结实更多志同道合的圈内朋友,更多内容欢迎来访微信公主号:玩世不恭的Coder

符号说明

符号 说明
x i x_i xi 表示单个样本,其中包含多个属性,显示为一个行向量
x ( i ) x^{(i)} x(i) 表示单个样本中的某个属性特征
y i y_i yi 表示单个样本所对应的标签(具体分类),为整数,非1即-1
w T w^T wT 表示的是权值行向量,其中 w = ( w 1 , w 2 , . . . , w m ) T w=(w_1,w_2,...,w_m)^T w=(w1,w2,...,wm)T,也是所需要训练的参数
b b b 表示的是决策面中的 b b b,也是所需要训练的参数
γ ^ \hat{\gamma} γ^ 表示函数间隔,具体解释见下文
γ \gamma γ 表示几何间隔,具体解释见下文
α \alpha α α = ( α 1 , . . . , α N ) \alpha=(\alpha_1,...,\alpha_N) α=(α1,...,αN)表示拉格朗日乘子
K i j K_{ij} Kij 在这篇文章中表示线性核函数

关于上述的符号说明,仅仅只是本篇文章的一部分,其他符号可通过正文了解。上述符号可能部分暂时不懂,但没关系,读者可在阅读的过程中,随时返回来查看,即可理解每个符号所代表的意义。

一、SVM是什么

关于SVM是什么,之前在Byte Size Biology上看到有篇文章很好的解释了SVM,在知乎上也有一位名叫“简之”的用户通过故事的形式来将其进行转述,通俗易懂,很好的向首次接触SVM的读者介绍了SVM能干嘛。

  • Support Vector Machines explained well(可能需要):http://bytesizebio.net/2014/02/05/support-vector-machines-explained-well/
  • 支持向量机(SVM)是什么意思?:https://www.zhihu.com/question/21094489/answer/86273196

《Machine Learning in Action》—— 剖析支持向量机,单手狂撕线性SVM_第3张图片

油管上也有更为直观认识SVM的短视频():https://www.youtube.com/watch?v=3liCbRZPrZA

总结一哈:

对于一个二分类问题,样本数据是线性可分的,我们则需要通过一根直线(也就是上述例子当中枝条)将两个不同种类的样本进行分离。按道理来讲,我们已经实现了需求,但是,这根枝条的具体摆放位置可能有无数多个,而我们的最终目的是将枝条摆放到一个最好的位置,从而当我们引入了一些新样本的时候,依然能最好很好将两类的数据分离开来,也就是说我们需要将模型的“泛化性能”最大化。之前也看到过一个例子(来源忘了),这里分享下,大概就是讲:我们在通过悬崖吊桥的时候,会不自觉的尽可能往中间走,因为这样的话,当左右起风的时候,虽然我们的位置会左右稍微移动,但还不至于跌落悬崖。而越靠近边缘,风险就越大,就是这么个道理。而寻找最大“泛化性能”的过程,就是将枝条摆放在距离小球最远的位置,而小球相对于枝条的位置就是**“间隔”,而我们要做的就是将这间隔最大化**。

上述仅仅是对于线性可分数据分类的一种处理方式,但有的时候,理想是美好的,现实却是残酷的。在实际样本数据中,大多都是线性不可分的,也就是说我们无法找到合适位置的枝条将不同分类的数据分离开来,更别提“间隔最大化”了。这个时候,我们就需要将桌上的小球排起,然后用一个平面(纸)将不同分类小球分离开来。也就是说,我们将低维度映射到了高纬度,这样对于小球的分类就更加容易了。

再之后,无聊的大人们,把这些球叫做 「data」,把棍子 叫做 「classifier」, 最大间隙trick 叫做「optimization」, 拍桌子叫做「kernelling」, 那张纸叫做「hyperplane」。

二、线性可分SVM与间隔最大化

我们先来看具体看看线性可分的二分类问题。

假如说,我们这里有一堆样本,也就是我们常说的训练集 S = { ( x 1 , y 1 ) , ( x 1 , y 1 ) , ( x 3 , y 3 ) , . . . , ( x n , y n ) } S=\{(x_1, y_1), (x_1, y_1), (x_3, y_3), ..., (x_n, y_n)\} S={(x1,y1),(x1,y1),(x3,y3),...,(xn,yn)},且 x i x_i xi表示的是样本 i i i属性特征向量,其内部有多个不同属性,这里我们不妨指定每个样本含有两个属性特征,也就是说 x i = ( x i 1 , x i 2 ) T x_i=(x_{i1}, x_{i2})^T xi=(xi1,xi2)T(之所以用列向量表示,主要是方便后面超平面的构建)。而 y i y_i yi表示的是每个样本中所有属性特征所对应的标签,由于这里的问题属性二分类,所以 y i y_i yi的值只存在两种。为此,我们可以通过Matplotlib在平面直角坐标系中绘制其图像,初步观察其分布规律,具体代码如下:

import numpy as np
import pylab as pl
from sklearn import svm

%matplotlib inline
print(np.__version__)

"""
    Author: Taoye
    微信公众号:玩世不恭的Coder
"""
if __name__ == "__main__":
    # np.random.seed(100)        # 可自行设置随机种子每次随机产生相同的数据
    X_data = np.concatenate((np.add(np.random.randn(20, 2), [3, 3]),       
                             np.subtract(np.random.randn(20, 2), [3, 3])),
                             axis = 0)      # random随机生成数据,+ -3达到不同类别数据分隔的目的 

    Y_label = np.concatenate((np.zeros([20]), np.ones([20])), axis = 0)

    svc = svm.SVC(kernel = "linear")
    svc.fit(X_data, Y_label)
    
    w = svc.coef_[0]      
    ww = -w[0] / w[1]                # 获取权重w
    xx = np.linspace(-6, 6)
    yy = ww * xx - (svc.intercept_[0]) / w[1]   # intercept_获取结截距
    
    b_down = svc.support_vectors_[0]         # 得到对应的支持向量
    yy_down = ww * xx + (b_down[1] - ww * b_down[0])
    b_up = svc.support_vectors_[-1]
    yy_up = ww * xx + (b_up[1] - ww * b_up[0])

    pl.plot(xx, yy, "k-"); pl.plot(xx, yy_down, "k--"); pl.plot(xx, yy_up, "k--")
    pl.scatter(X_data[:, 0], X_data[:, 1], c = Y_label, cmap = pl.cm.Paired)

    pl.show()

执行代码,可以绘制如下所示图片,注意:以上代码每次运行都会随机产生不同的二分类数据集,如想每次随机产生相同的数据集,可自行配置np.random.seed随机种子;另外,还有一点需要需要说明的是,上述代码使用到了NumPy,关于NumPy的使用,可自行参考之前写的一篇文章:print( “Hello,NumPy!” )

《Machine Learning in Action》—— 剖析支持向量机,单手狂撕线性SVM_第4张图片

如上图所示,我们可以发现,棕色代表一类数据集,此时标签 y i = 1 y_i=1 yi=1,蓝色代表另一类数据集,标签 y i = 0 y_i=0 yi=0,而要想将上图两类数据集分离开来,显然不止一条直线,与上图两条虚线平行且居其之间的任意一条直线都能达到此目的。在这无数条直线中,要数上图中的三条最为特殊,中间实线居于两条虚线中间,我们一般称其为**“决策面”“超平面”,而其所表示的方程,我们一般称作“决策方程”“超平面方程”**,在这里可以表示为 w T x + b = 0 w^Tx+b=0 wTx+b=0。(下面会推导)

从上图我们还可以观察得到,在所有样本数据集中,虚线上的样本距离决策面最近,我们把这种比较特殊的样本数据一般称之为**“支持向量”,而支持向量到决策面之间的距离称为“间隔”**。我们不难发现,决策面的位置主要取决于支持向量,而与支持向量除外的数据样本没有关系。(因为支持向量的确定就已经确定了最大间隔)

关于上述提到的一些关于SVM的名词概念,在正式推演之前,还是有必要理解清楚的。

前面我们也有提到,关于能将两类不同数据集相互分隔开来的直线有无数种,而我们要想在这无数种直线找到一条最合适的,也就是达到一个间隔最大化的目的,这就是一个**“最优化”**问题。而最优化问题,我们需要了解两个因素,分别是目标函数和优化对象。既然我们是想要达到间隔最大化的目标,那么目标函数自然就是间隔,而优化对象就是我们的决策面方程。所以,我们首先需要用数学来明确间隔和决策面方程:

我们知道,在平面直角坐标系中,一条直线可以用其一般式方程来来表示:

A x + B y + C = 0 Ax+By+C=0 Ax+By+C=0

而根据上述图像,我们可以知道,横纵坐标代表的意义是一个样本的不同属性特征,而标签则是通过颜色(棕色和蓝色)来进行表示。所以上述的直线的一般式方程中的 x 、 y x、y xy表示的就是一个样本的两种属性特征,为了方便理解,我们不妨将其修改为 x ( 1 ) 、 x ( 2 ) x^{(1)}、x^{(2)} x(1)x(2),并将 A 、 B 、 C A、B、C ABC替换为 w 1 、 w 2 、 b w_1、w_2、b w1w2b,对此,我们可以将上述方程向量化,得到:

KaTeX parse error: Undefined control sequence: \ at position 151: …rix} \right) \̲ ̲ +b=0 \tag{2…

w = ( w 1 , w 2 ) T , x = ( x ( 1 ) , x ( 2 ) ) w=(w_1, w_2)^T, x=(x^{(1)}, x^{(2)}) w=(w1,w2)T,x=(x(1),x(2)),则上述指向方程最终可以表示为:

w T x + b = 0 (2-2) w^Tx+b=0 \tag{2-2} wTx+b=0(2-2)

式(1-2)表示的就是我们优化问题的优化对象,也就是决策面方程。我们知道在平面直角坐标系中,一条直线可以通过其斜率和截距来确定,而在决策面方程里,我们不难得到: w w w确定了决策面的方向(斜率) ,而 b b b确定了决策面的截距。既然我们已经得到了优化问题的优化对象——决策面方程,那么接下来就需要得到目标函数——间隔的表达式了。

在此,我们需要引入函数间隔几何间隔的概念了。

一般来讲,我们可以通过样本点到决策面的距离来表示分类预测的正确程度,距离决策面越远,一般分类就越正确(可根据图像自行理解),而在超平面 w T x + b = 0 w^Tx+b=0 wTx+b=0确定的情况下,我们可以通过 ∣ w T x i + b ∣ |w^Tx_i+b| wTxi+b的值来描述样本 x i x_i xi距超平面的远近(注意:这里是描述远近。而不是确切的距离)。我们知道,样本有不同的分类,所以有的时候 ∣ w T x i + b ∣ |w^Tx_i+b| wTxi+b的符号具有不确定性,所以我们可以通过 w T x i + b w^Tx_i+b wTxi+b y i y_i yi的符号来判断分类结果的正确性。也就是说可以通过 y i ( w T x i + b ) y_i(w^Tx_i+b) yi(wTxi+b)值的大小和符号来判断一个样本分类的正确性和正确程度,这个就是我们的函数间隔(这个概念务必要理解清楚),我们不妨用 γ i ^ \hat{\gamma_i} γi^来表示:

γ i ^ = y i ( w T x i + b ) (2-3) \hat{\gamma_i}=y_i(w^Tx_i + b) \tag{2-3} γi^=yi(wTxi+b)(2-3)

而我们知道,上述的 i = 1 , 2 , . . . , N i=1,2,...,N i=1,2,...,N,表示的是有 N N N个样本,而在 N N N个样本中,固然存在一个样本使得该值达到最小,该样本也就是我们前面所说的支持向量,我们把支持向量到超平面的函数间隔定义为 γ ^ \hat{\gamma} γ^,则:

γ ^ = m i n i = 1 , . . . , N γ i ^ (2-4) \hat{\gamma} = \mathop{min}\limits_{i=1,...,N}\hat{\gamma_i} \tag{2-4} γ^=i=1,...,Nminγi^(2-4)

我们只有函数间隔还不够,函数间隔描述的仅仅是样本分类的正确性和正确程度,而不是确切的间隔。当我们成比例的更改 w w w b b b的时候,决策面并没有发生任何改变,而函数间隔却发生了改变,所以我们需要对 w w w进行约束,从而当无论 w w w b b b怎么成比例变动的时候,我们的“间隔”都不会发生改变,也就是进行将 w w w规范化,由函数间隔规范后的间隔我们称之为几何间隔,我们不妨用 γ \gamma γ来表示,则某个样本到超平面的几何间隔为 γ i \gamma_i γi

γ i = ∣ w T x i + b ∣ ∣ ∣ w ∣ ∣ (2-5) \gamma_i=\frac{|w^Tx_i + b|}{||w||} \tag{2-5} γi=wwTxi+b(2-5)

我们可以将式子(1-5)理解成点到直线的距离公式(这个在中学时期就学过的)。对于这个二分类问题,我们不妨将二分类的标签定为 y i = { 1 , − 1 } y_i=\{1, -1\} yi={1,1},则 γ i \gamma_i γi可以表示为(之所以乘以 y i y_i yi,主要是把绝对值符号去掉,这样就能描述所有样本了,而省去了分类讨论的麻烦):

γ i = y i w T x i + b ∣ ∣ w ∣ ∣ (2-6) \gamma_i=y_i\frac{w^Tx_i + b}{||w||} \tag{2-6} γi=yiwwTxi+b(2-6)

而我们知道,上述的 i = 1 , 2 , . . . , N i=1,2,...,N i=1,2,...,N,表示的是有 N N N个样本,而在 N N N个样本中,固然存在一个样本使得该值达到最小,该样本也就是我们前面所说的支持向量,我们把支持向量到超平面的几何间隔定义为 γ ^ \hat{\gamma} γ^,则:

γ = m i n i = 1 , . . . , N γ i (2-7) \gamma=\mathop{min}\limits_{i=1,...,N}\gamma_i \tag{2-7} γ=i=1,...,Nminγi(2-7)

通过上述对函数间隔和几何间隔的分析,我们可以得到他们之间的关系:

γ i = γ i ^ ∣ ∣ w ∣ ∣ , 即 γ = γ ^ ∣ ∣ w ∣ ∣ (2-8) \gamma_i=\frac{\hat{\gamma_i}}{||w||},即\gamma=\frac{\hat{\gamma}}{||w||} \tag{2-8} γi=wγi^γ=wγ^(2-8)

自此,我们已经分析得到了该优化问题的优化对象——决策面方程和目标函数——间隔(几何间隔)。在之前,我们提到了支持向量的概念,那么支持向量具有什么特性呢?细想一下不难发现,支持向量到决策平面的间隔是最近的,即满足如下式子:

γ i = y i w T x i + b ∣ ∣ w ∣ ∣ ≥ γ , 即 y i ( w T x i + b ) ≥ γ ∣ ∣ w ∣ ∣ = γ ^ (2-9) \gamma_i=y_i\frac{w^Tx_i + b}{||w||}\geq\gamma ,即y_i(w^Tx_i + b)\geq\gamma||w||=\hat{\gamma} \tag{2-9} γi=yiwwTxi+bγyi(wTxi+b)γw=γ^(2-9)

对此,我们就可以通过数学来表达该优化问题:

m a x w , b γ ^ ∣ ∣ w ∣ ∣ s . t .   y i ( w T x i + b ) ≥ γ ^ , i = 1 , 2 , 3 , . . . , N (2-10) \begin{aligned} & \mathop{max}\limits_{w,b} \quad \frac{\hat{\gamma}}{||w||} \tag{2-10} \\ & s.t. \quad\ y_i(w^Tx_i + b)\geq\hat{\gamma},i=1,2,3,...,N \end{aligned} w,bmaxwγ^s.t. yi(wTxi+b)γ^i=1,2,3,...,N(2-10)

前面,我们提到了,函数间隔描述的仅仅是样本分类的正确性和正确程度,而不是确切的间隔。当我们成比例的更改 w w w b b b的时候,函数间隔虽然发生了改变,但并不会影响我们的几何间隔——目标函数,也就是说,此时产生了一个等价的最优化问题。为了方便描述问题,我们不妨取 γ ^ = 1 \hat{\gamma}=1 γ^=1。另外,我们注意到目标函数 m a x w , b γ ^ ∣ ∣ w ∣ ∣ \mathop{max}\limits_{w,b} \frac{\hat{\gamma}}{||w||} w,bmaxwγ^可以等价于 m i n w , b 1 2 ∣ ∣ w ∣ ∣ 2 \mathop{min}\limits_{w,b}\frac{1}{2}||w||^2 w,bmin21w2,(注意,仅仅是等价。而之所以等价为二分之一、平方的形式,主要是方便后期的求导操作),对此,我们可以将数学表达的优化问题转化为如下形式:
m i n w , b 1 2 ∣ ∣ w ∣ ∣ 2 s . t .   y i ( w T x i + b ) − 1 ≥ 0 , i = 1 , 2 , 3 , . . . , N (2-11) \begin{aligned} & \mathop{min}\limits_{w,b} \quad \frac{1}{2}||w||^2 \\ & s.t. \quad\ y_i(w^Tx_i + b)-1\geq0,i=1,2,3,...,N \tag{2-11} \end{aligned} w,bmin21w2s.t. yi(wTxi+b)10i=1,2,3,...,N(2-11)

关于如上提到的决策平面和间隔等概念,我们可以通过下图来直观感受下(理解清楚):

《Machine Learning in Action》—— 剖析支持向量机,单手狂撕线性SVM_第5张图片

至此,我们已经得到了该优化问题的数学表达,我们不妨通过一个小例子来检测下:


例子来源:李航-《统计学习方法》第七章内容

例子1:已知一个如图所示的训练数据集,其正例点是 x 1 = ( 3 , 3 ) T , x 2 = ( 4 , 3 ) T x_1=(3, 3)^T,x_2=(4, 3)^T x1=(3,3)T,x2=(4,3)T,负例点为 x 3 = ( 1 , 1 ) T x_3=(1, 1)^T x3=(1,1)T,试求最大间隔分离的决策面?

《Machine Learning in Action》—— 剖析支持向量机,单手狂撕线性SVM_第6张图片

根据前面的优化问题表达,我们可以得到如下表示:

m i n w , b 1 2 ( w 1 2 + w 2 2 ) s . t .    3 w 1 + 3 w 2 + b ≥ 1   4 w 1 + 3 w 2 + b ≥ 1 − w 1 − w 2 − b ≥ 1 \begin{aligned} & \mathop{min}\limits_{w,b} \quad \frac{1}{2}(w_1^2+w_2^2) \\ & s.t. \quad\ \ 3w_1+3w_2+b \geq1 \\ & \qquad \quad\ 4w_1+3w_2+b \geq1 \\ & \qquad \quad -w_1-w_2-b \geq1 \end{aligned} w,bmin21(w12+w22)s.t.  3w1+3w2+b1 4w1+3w2+b1w1w2b1

求解可以得到目标函数的最小时, w 1 = w 2 = 1 2 , b = − 2 w_1=w_2=\frac{1}{2},b=-2 w1=w2=21,b=2,于是最大间隔分离的决策面为:

1 2 x ( 1 ) + 1 2 x ( 2 ) − 2 = 0 \frac{1}{2}x^{(1)}+\frac{1}{2}x^{(2)}-2=0 21x(1)+21x(2)2=0

其中, x 1 = ( 3 , 3 ) T x_1=(3,3)^T x1=(3,3)T x 3 = ( 1 , 1 ) T x_3=(1,1)^T x3=(1,1)T为支持向量。


三、拉格朗日乘数法和对偶问题

首先,我们有必要先了解下什么是拉格朗日乘数法。

关于对偶问题,《统计学习方法》一书中是如此描述的:

为了求解线性可分的支持向量机的最优化问题,将它作为原始最优化问题,应用拉格朗日对偶性,通过求解对偶问题(dual problem)得到原始问题(primary problem)的最优解,这就是线性可分支持向量机的对偶算法(dual algorithm)。这样做的优点,一是对偶问题往往更容易求解;二是自然引入核函数,进而推广到非线性分类问题。

按照前面对优化问题的求解思路,构造拉格朗日方程的目的是**将约束条件放到目标函数中,从而将有约束优化问题转换为无约束优化问题。**我们仍然秉承这一思路去解决不等式约束条件下的优化问题,那么如何针对不等式约束条件下的优化问题构建拉格朗日函数呢?

因为我们要求解的是最小化问题,所以一个直观的想法是如果我能够构造一个函数,使得该函数在可行解区域内与原目标函数完全一致,而在可行解区域外的数值非常大,甚至是无穷大,那么这个没有约束条件的新目标函数的优化问题就与原来有约束条件的原始目标函数的优化是等价的问题。

对此,我们重新回顾下原优化问题的数学表达:

关于拉个朗日乘数法的解题思路,其实早在大学《高等数学》这门课程中就已经提到过,我们不妨通过一个小例子来了解下其解题的一般形式:


例子来源:李亿民-《微积分方法》第二章内容

例子2:求函数 f ( x , y ) = 4 x + x y 2 + y 2 f(x, y)=4x+xy^2+y^2 f(x,y)=4x+xy2+y2 D : x 2 + y 2 ≤ 1 D:x^2+y^2\leq1 D:x2+y21上的最值。

做拉格朗日函数 L ( x , y , λ ) L(x,y,\lambda) L(x,y,λ)

L ( x , y , λ ) = 4 x + x y 2 + y 2 + λ ( x 2 + y 2 − 1 ) L(x, y, \lambda)=4x+xy^2+y^2+\lambda(x^2+y^2-1) L(x,y,λ)=4x+xy2+y2+λ(x2+y21)

上面的拉格朗日函数,我们分别对 x , y , λ x,y,\lambda x,y,λ求偏导,得到:

{ L x ′ ( x , y , λ ) = 4 + y 2 + 2 λ x = 0 L y ′ ( x , y , λ ) = 2 x y + 2 y + 2 λ y = 0 L λ ′ ( x , y , λ ) = x 2 + y 2 − 1 = 0 \begin{cases} L_x^{'}(x,y,\lambda)=4+y^2+2\lambda x=0 \\ L_y^{'}(x,y,\lambda)=2xy+2y+2\lambda y=0 \\ L_\lambda^{'}(x,y,\lambda)=x^2+y^2-1=0\\ \end{cases} Lx(x,y,λ)=4+y2+2λx=0Ly(x,y,λ)=2xy+2y+2λy=0Lλ(x,y,λ)=x2+y21=0

求解得到 x = 1 , y = 0 x=1,y=0 x=1,y=0 x = − 1 , y = 0 x=-1,y=0 x=1,y=0,所以 f m i n ( x , y ) = f ( − 1 , 0 ) = − 4 , f m a x ( x , y ) = f ( 1 , 0 ) = 4 f_{min}(x,y)=f(-1,0)=-4,f_{max}(x,y)=f(1,0)=4 fmin(x,y)=f(1,0)=4fmax(x,y)=f(1,0)=4


上例就是利用拉格朗日求解最优问题的一般思路,先构造拉格朗日函数,然后分别对参数求偏导,最终求解得到最优解。而我们要想得到最大间隔,同样可以根据该思路进行,只不过式子更加复杂,而我们还需要利用拉格朗日的对偶性来简化优化问题。

在此之前,我们先来回顾下该优化问题下的数学表达:

m i n w , b 1 2 ∣ ∣ w ∣ ∣ 2 s . t .   y i ( w T x i + b ) − 1 ≥ 0 , i = 1 , 2 , 3 , . . . , N (3-1) \begin{aligned} & \mathop{min}\limits_{w,b} \quad \frac{1}{2}||w||^2 \\ & s.t. \quad\ y_i(w^Tx_i + b)-1\geq0,i=1,2,3,...,N \tag{3-1} \end{aligned} w,bmin21w2s.t. yi(wTxi+b)10i=1,2,3,...,N(3-1)

按照我们例2的思路,我们首先构造出该优化问题的拉格朗日函数,注意:(2-1)式的限制条件是对于样本 i i i 的,而这里的 i = 1 , 2 , 3 , . . . , N i=1,2,3,...,N i=1,2,3,...,N,所以想这样的约束条件有N个,而每个约束条件都对应一个拉格朗日乘子(例2的 λ \lambda λ),我们不妨将该拉格朗日乘子定义为 α i , 其 中 i = 1 , 2 , 3 , . . . N \alpha_i,其中i=1,2,3,...N αii=1,2,3,...N。据此,我们构建出的该优化问题的拉格朗日函数如下:

L ( w , b , α ) = 1 2 ∣ ∣ w ∣ ∣ 2 − ∑ i = 1 N α i y i ( w T x i + b ) + ∑ i = 1 N α i (3-2) L(w,b,\alpha)=\frac{1}{2}||w||^2-\sum^N_{i=1}\alpha_iy_i(w^Tx_i+b) + \sum^N_{i=1}\alpha_i \tag{3-2} L(w,b,α)=21w2i=1Nαiyi(wTxi+b)+i=1Nαi(3-2)

其中, α = ( α 1 , α 2 , α 3 , . . . , α N ) T \alpha=(\alpha_1,\alpha_2,\alpha_3,...,\alpha_N)^T α=(α1,α2,α3,...,αN)T为拉格朗日乘子向量。

θ ( w , b ) = m a x α > 0   L ( w , b , α ) \theta(w,b)=\mathop{max}\limits_{\alpha>0} \ L(w,b,\alpha) θ(w,b)=α>0max L(w,b,α),原始目标函数即可转化为:

m i n w , b 1 2 ∣ ∣ w ∣ ∣ 2 = m i n w , b   m a x α L ( w , b , α ) = p ∗ (3-3) \mathop{min}\limits_{w,b} \frac{1}{2}||w||^2= \mathop{min}\limits_{w,b}\ \mathop{max}\limits_{\alpha}L(w,b,\alpha) =p^* \tag{3-3} w,bmin21w2=w,bmin αmaxL(w,b,α)=p(3-3)

根据上述目标函数,我们可以发现是先求最大值,再求最小值,而内层最小值是关于 α \alpha α,而外层最大值是关于 w , b w,b w,b,而我们的 α \alpha α又是不等式约束,这样对于求解来讲过于麻烦。由拉格朗日的对偶性,原始问题的对偶问题就是极大极小值,其对偶问题如下:

m a x α   m i n w , b L ( w , b , α ) = d ∗ (3-4) \mathop{max}\limits_{\alpha}\ \mathop{min}\limits_{w,b}L(w,b,\alpha) =d^* \tag{3-4} αmax w,bminL(w,b,α)=d(3-4)

且原问题和对偶问题满足如关系: d ∗ ≤ p ∗ d^*\leq p^* dp,而我们要找的是 d ∗ = p ∗ d^*= p^* d=p。读到这里,我们应该会存在两个疑问:

  • 疑问1:为什么前面我们令 θ ( w , b ) = m a x α > 0   L ( w , b , α ) \theta(w,b)=\mathop{max}\limits_{\alpha>0} \ L(w,b,\alpha) θ(w,b)=α>0max L(w,b,α),而不是其他的表达形式呢?

主要是因为,这样替换之后,我们能使得该函数在可行解区域内与原目标函数完全一致,而在可行解区域外的数值非常大,甚至是无穷大,那么这个没有约束条件的新目标函数的优化问题就与原来有约束条件的原始目标函数的优化是等价的问题。(这句话要重点理解

令:

θ ( w , b ) = m a x α > 0   L ( w , b , α ) = m a x α > 0   [ 1 2 ∣ ∣ w ∣ ∣ 2 − ∑ i = 1 N α i y i ( w T x i + b ) + ∑ i = 1 N α i ] (3-5) \theta(w,b)=\mathop{max}\limits_{\alpha>0} \ L(w,b,\alpha)=\mathop{max}\limits_{\alpha>0} \ [\frac{1}{2}||w||^2-\sum^N_{i=1}\alpha_iy_i(w^Tx_i+b) + \sum^N_{i=1}\alpha_i \tag{3-5}] θ(w,b)=α>0max L(w,b,α)=α>0max [21w2i=1Nαiyi(wTxi+b)+i=1Nαi](3-5)

之后, θ ( w , b ) \theta(w,b) θ(w,b)在可行解区域之内   y i ( w T x i + b ) − 1 ≥ 0 \quad\ y_i(w^Tx_i + b)-1\geq0  yi(wTxi+b)10和可行解区域之外   y i ( w T x i + b ) − 1 < 0 \quad\ y_i(w^Tx_i + b)-1<0  yi(wTxi+b)1<0,我们通过分析得到:在可行解区域之内,

∑ i = 1 N α i y i ( w T x i + b ) − ∑ i = 1 N α i ≥ 0 \sum^N_{i=1}\alpha_iy_i(w^Tx_i+b) - \sum^N_{i=1}\alpha_i \geq0 i=1Nαiyi(wTxi+b)i=1Nαi0

此时,我们要求的是 m a x α > 0   L ( w , b , α ) \mathop{max}\limits_{\alpha>0} \ L(w,b,\alpha) α>0max L(w,b,α),而 1 2 ∣ ∣ w ∣ ∣ 2 \frac{1}{2}||w||^2 21w2减去一个大于等于0的最大值是多少?不就是等于 1 2 ∣ ∣ w ∣ ∣ 2 \frac{1}{2}||w||^2 21w2么,而 1 2 ∣ ∣ w ∣ ∣ 2 \frac{1}{2}||w||^2 21w2同样也是我们可行解区域之内的目标函数。也就是说在可行解区域之内, 1 2 ∣ ∣ w ∣ ∣ 2 \frac{1}{2}||w||^2 21w2就等价于 m a x α > 0   L ( w , b , α ) \mathop{max}\limits_{\alpha>0} \ L(w,b,\alpha) α>0max L(w,b,α)。同理,我们可以分析得到,在的可行解区域之外,此时 m a x α > 0   L ( w , b , α ) \mathop{max}\limits_{\alpha>0} \ L(w,b,\alpha) α>0max L(w,b,α)可区域无穷大。所以没有约束的新目标函数的优化问题就与原来有约束条件的原始目标函数的优化是等价的问题,即:

1 2 ∣ ∣ w ∣ ∣ 2 = > m a x α > 0   L ( w , b , α ) (3-6) \frac{1}{2}||w||^2 \quad => \quad \mathop{max}\limits_{\alpha>0} \ L(w,b,\alpha) \tag{3-6} 21w2=>α>0max L(w,b,α)(3-6)

  • 疑问2:为什么将原问题转化为对偶问题之后,在什么样的条件下,才会满足 d ∗ = p ∗ d^*= p^* d=p

转化为对偶问题之后,要使得 d ∗ = p ∗ d^*= p^* d=p等式成立,则需要满足如下条件,也就是该问题成立时候的KKT条件

{ α i , i = 1 , 2 , 3 , . . . , N y i ( w T x i + b ) ≥ 0 , i = 1 , 2 , 3 , . . . , N α i ( y i ( w T x i + b ) − 1 ) = 0 , i = 1 , 2 , 3 , . . . , N (3-7) \begin{cases} \alpha_i, & i=1,2,3,...,N\\ y_i(w^Tx_i+b)\geq0, & i=1,2,3,...,N\\ \alpha_i(y_i(w^Tx_i+b)-1)=0, & i=1,2,3,...,N\\ \end{cases} \tag{3-7} αi,yi(wTxi+b)0,αi(yi(wTxi+b)1)=0,i=1,2,3,...,Ni=1,2,3,...,Ni=1,2,3,...,N(3-7)

前两个条件我们不难得到,前面我们也有过对其进行分析,那么第三个条件为什么需要满足呢?

在介绍支持向量和决策平面的时候,我们有提到,最终的决策平面只会与支持向量相关,而与其他大多数样本数据(非支持向量)无关。我们不妨来对它们分别介绍,当样本点为支持向量的时候,此时 y i ( w T x i + b ) − 1 = 0 y_i(w^Tx_i+b)-1=0 yi(wTxi+b)1=0,即当所取的样本点为非支持向量的时候,要使得 α i ( y i ( w T x i + b ) − 1 ) = 0 \alpha_i(y_i(w^Tx_i+b)-1)=0 αi(yi(wTxi+b)1)=0,则此时的 α i = 0 \alpha_i=0 αi=0。所以从整体样本域来讲,只有满足 α i ( y i ( w T x i + b ) − 1 ) = 0 \alpha_i(y_i(w^Tx_i+b)-1)=0 αi(yi(wTxi+b)1)=0的时候,才能到达目标决策平面与支持向量有关,而与其他大多数非支持向量无关。

综上,只有满足KKT条件的时候,才能到达 d ∗ = p ∗ d^*= p^* d=p,即在满足KKT条件的时候,才能将原始目标问题,转化为对偶问题,此时两者是等价的,且此时的目标函数为内层关于 w , b w,b w,b的最小值,而外层是关于 α \alpha α的最大值,这样一来,大大方便了我们对目标函数的求解。所以优化问题,我们转化如下:

m a x α   m i n w , b [ 1 2 ∣ ∣ w ∣ ∣ 2 − ∑ i = 1 N α i y i ( w T x i + b ) + ∑ i = 1 N α i ] (3-8) \mathop{max}\limits_{\alpha}\ \mathop{min}\limits_{w,b}[\frac{1}{2}||w||^2-\sum^N_{i=1}\alpha_iy_i(w^Tx_i+b) + \sum^N_{i=1}\alpha_i] \tag{3-8} αmax w,bmin[21w2i=1Nαiyi(wTxi+b)+i=1Nαi](3-8)

而要解决这个优化问题,我们可以分为两步来进行求解:

  1. 先求内层关于 w , b w,b w,b的最小值,此时我们应该将 α \alpha α视为常数
  2. 再求外层关于 α \alpha α的最大值,由于经过了第一步关于 w , b w,b w,b的最小值,这两个参数已经被消掉了,所以第二步只会存在关于 α \alpha α的求解

经过上述对目标函数的问题分析,我们下面根据上述的两个步骤来手握手式的进行求解。

四、模型的求解

关于拉格朗日的内层求解

首先,我们需要对内层的最小值问题进行求解,即求:

m i n w , b L ( w , b ) = m i n w , b [ 1 2 ∣ ∣ w ∣ ∣ 2 − ∑ i = 1 N α i y i ( w T x i + b ) + ∑ i = 1 N α i ] (4-1) \mathop{min}\limits_{w,b}L(w,b)=\mathop{min}\limits_{w,b}[\frac{1}{2}||w||^2-\sum^N_{i=1}\alpha_iy_i(w^Tx_i+b) + \sum^N_{i=1}\alpha_i] \tag{4-1} w,bminL(w,b)=w,bmin[21w2i=1Nαiyi(wTxi+b)+i=1Nαi](4-1)

注意,此时 L ( w , b ) L(w,b) L(w,b)仅仅只是关于 w , b w,b w,b,而 α \alpha α是由外层最大值问题进行求解的,在这里当做常数处理即可。根据例2,我们需要求出 L ( w , b ) L(w,b) L(w,b)关于 w , b w,b w,b的偏导,我们在这假设每个样本含有 m m m个属性,则 x i = ( x i ( 1 ) , x i ( 2 ) , . . . , x i ( m ) ) T x_i=(x_i^{(1)},x_i^{(2)},...,x_i^{(m)})^T xi=(xi(1),xi(2),...,xi(m))T,应各位“老婆们”的要求,具体求偏导的详细过程如下:

《Machine Learning in Action》—— 剖析支持向量机,单手狂撕线性SVM_第7张图片

为了让读者彻底明白上述过程,所以步骤有点多,这里就不采用Latex语法来编辑上述公式的推导过程了,当然了,Taoye会尽可能地将过程写的足够详细。上述关于拉格朗日函数求偏导的过程,自认为已经写的很详细了,最主要的是要区分 x 、 w x、w xw的shape问题,以及各自代表的意义是什么。对于上述过程有不清楚的,随时欢迎联系Taoye或在下方留言,也欢迎更多读者来访微信公众号:玩世不恭的Coder。

对此,我们已经通过上面过程得到 L ( w , b ) L(w,b) L(w,b)关于 w , b w,b w,b偏导所要满足的式子:

w = ∑ i = 1 N α i y i x i 0 = ∑ i = 1 N α i y i (4-2) w=\sum_{i=1}^N\alpha_iy_ix_i \\ 0=\sum_{i=1}^N\alpha_iy_i \tag{4-2} w=i=1Nαiyixi0=i=1Nαiyi(4-2)

之后,我们将式子(4-2)重新带回到(4-1)中的最小值问题中,即可消掉 w , b w,b w,b参数,也就是说得到的式子仅仅只是关于 α \alpha α,具体代回过程如下图所示:

《Machine Learning in Action》—— 剖析支持向量机,单手狂撕线性SVM_第8张图片

上图就是将对 w , b w,b w,b求导之后所得到的式子待会 L ( w , b ) L(w,b) L(w,b)的完整过程,务必要好好理解清楚。

关于这个代回的过程,有两点还是有必要说一下的,这也是前几天实验室的同学存在疑问的地方。(参照上述图片来解疑

  • 疑问1:这里前一项难道不是和后一项同样为0么?因为不是说了 ∑ i = 1 N α i y i = 0 \sum_{i=1}^N\alpha_iy_i=0 i=1Nαiyi=0啊???

其实这个地方的后一项是为0,而前一项并不一定为0。因为后一项中的 b b b其实就相当于一个固定的常数,也就是 α i y i \alpha_iy_i αiyi中的每一项所乘的数都是 b b b,这样的话,固定的常数乘以0,结果当然依然等于0咯。

而我们再看看前一项,可以发现前一项中除了 α i y i \alpha_iy_i αiyi之外,还有 w T x i w^Tx_i wTxi的存在,而我们的 i i i是会随着样本的变化而改变的,所以每次乘的数可能并不一定相同。举个例子理解一下吧: 2 + 3 − 5 = 0 2+3-5=0 2+35=0,这个我们都应该知道。当我们在 2 、 3 、 5 2、3、5 235的前面同时乘以一个相同的数,这个等式是依然成立的,然而当我在 2 、 3 、 5 2、3、5 235前面分别乘以一个并不相同的数,那么这个等式就不成立了,比如 2 ∗ 2 + 2 ∗ 3 − 2 ∗ 5 = 0 2*2+2*3-2*5=0 22+2325=0依然成立,而 2 ∗ 2 + 3 ∗ 3 − 4 ∗ 5 = 0 2*2+3*3-4*5=0 22+3345=0就不成立了。

就是这个道理,务必要好好理解清楚。

  • 疑问2:为什么这一步可以推导至下面那一步呢???

其实这个问题很好理解,因为这两个成绩形式的式子是相互独立的,也就是说 ∑ \sum 虽然都有 i i i,但是这两个 i i i并不一定是同时取同一个值的。这就像一种笛卡尔积的形式,所以将前一个 ∑ \sum 式子中的 i i i换成 j j j
依然成立,所以能推导至下面那一步。。。

通过上述过程,我们已经得到了代回之后的式子,如下:

m i n w , b L ( w , b ) = ∑ i = 1 N α i − 1 2 ∑ i = 1 N ∑ j = 1 N α i α j y i y j x i T x i (4-3) \mathop{min}\limits_{w,b}L(w,b)=\sum_{i=1}^N\alpha_i-\frac{1}{2}\sum_{i=1}^N\sum_{j=1}^N\alpha_i\alpha_jy_iy_jx_i^Tx_i \tag{4-3} w,bminL(w,b)=i=1Nαi21i=1Nj=1NαiαjyiyjxiTxi(4-3)

并且我们观察可以发现,式子此时仅仅只存在 α \alpha α,而 w , b w,b w,b已经成功被消掉了。注意:上式中的 x i , y j x_i,y_j xi,yj表示的样本,也就说这些样本的各个属性特征以及标签都是已知的,所以上式只有 α \alpha α是未知的。

至此,我们已经解决了对偶问题的内层最小值问题,接下来我们就要求解外层的最大值问题了,将最小值的式子代回原对偶问题,我们更新下对偶问题,得到如下:

m a x α   m i n w , b L ( w , b , α ) = m a x α   m i n w , b [ 1 2 ∣ ∣ w ∣ ∣ 2 − ∑ i = 1 N α i y i ( w T x i + b ) + ∑ i = 1 N α i ] = m a x α [ ∑ i = 1 N α i − 1 2 ∑ i = 1 N ∑ j = 1 N α i α j y i y j x i T x j ] = m i n α [ 1 2 ∑ i = 1 N ∑ j = 1 N α i α j y i y j x i T x j − ∑ i = 1 N α i ] s . t . α i ≥ 0 , i = 1 , 2 , . . . , N ∑ i = 1 N α i y i = 0 (4-4) \begin{aligned} & \mathop{max}\limits_{\alpha}\ \mathop{min}\limits_{w,b} L(w,b,\alpha) \\ = & \mathop{max}\limits_{\alpha}\ \mathop{min}\limits_{w,b}[\frac{1}{2}||w||^2-\sum^N_{i=1}\alpha_iy_i(w^Tx_i+b) + \sum^N_{i=1}\alpha_i] \tag{4-4} \\ = & \mathop{max}\limits_{\alpha}[\sum_{i=1}^N\alpha_i-\frac{1}{2}\sum_{i=1}^N\sum_{j=1}^N\alpha_i\alpha_jy_iy_jx_i^Tx_j] \\ = & \mathop{min}\limits_{\alpha}[\frac{1}{2}\sum_{i=1}^N\sum_{j=1}^N\alpha_i\alpha_jy_iy_jx_i^Tx_j-\sum_{i=1}^N\alpha_i] \\ & s.t. \quad \alpha_i\geq0, \quad i=1,2,...,N \\ & \qquad \quad \sum_{i=1}^N\alpha_iy_i=0 \end{aligned} ===αmax w,bminL(w,b,α)αmax w,bmin[21w2i=1Nαiyi(wTxi+b)+i=1Nαi]αmax[i=1Nαi21i=1Nj=1NαiαjyiyjxiTxj]αmin[21i=1Nj=1NαiαjyiyjxiTxji=1Nαi]s.t.αi0,i=1,2,...,Ni=1Nαiyi=0(4-4)

如上,已经将原对偶转换为了上式的样子,下面我们据此再来看之前的例1


例子来源:李航-《统计学习方法》第七章内容

例子3:已知一个如图所示的训练数据集,其正例点是 x 1 = ( 3 , 3 ) T , x 2 = ( 4 , 3 ) T x_1=(3, 3)^T,x_2=(4, 3)^T x1=(3,3)T,x2=(4,3)T,负例点为 x 3 = ( 1 , 1 ) T x_3=(1, 1)^T x3=(1,1)T,试求最大间隔分离的决策面?

《Machine Learning in Action》—— 剖析支持向量机,单手狂撕线性SVM_第9张图片

根据所给数据,其对偶问题是:

m i n α [ 1 2 ∑ j = 1 N α i α j y i y j x i T x j − ∑ i = 1 N α i ] = 1 2 ( 18 α 1 2 + 25 α 2 2 + 2 α 3 2 + 42 α 1 α 2 − 12 α 1 α 3 − 14 α 2 α 3 ) − α 1 − α 2 − α 3 s . t . α 1 + α 2 − α 3 = 0 α 1 ≥ 0 , i = 1 , 2 , 3 \begin{aligned} \mathop{min}\limits_{\alpha} & [\frac{1}{2}\sum_{j=1}^N\alpha_i\alpha_jy_iy_jx_i^Tx_j-\sum_{i=1}^N\alpha_i] \\ & = \frac{1}{2}(18\alpha_1^2+25\alpha_2^2+2\alpha_3^2+42\alpha_1\alpha_2-12\alpha_1\alpha_3-14\alpha_2\alpha_3)-\alpha_1-\alpha_2-\alpha_3 \\ s.t. & \alpha_1+ \alpha_2-\alpha_3=0 \\ & \alpha_1 \geq0, \quad i=1,2,3 \end{aligned} αmins.t.[21j=1NαiαjyiyjxiTxji=1Nαi]=21(18α12+25α22+2α32+42α1α212α1α314α2α3)α1α2α3α1+α2α3=0α10,i=1,2,3

我们将 α 3 = α 1 + α 2 \alpha_3=\alpha_1+\alpha_2 α3=α1+α2代入到目标函数并记为:

s ( α 1 , α 2 ) = 4 α 1 2 + 13 2 α 2 2 + 10 α 1 α 2 − 2 α 1 − 2 α 2 s(\alpha_1,\alpha_2)=4\alpha_1^2+\frac{13}{2}\alpha_2^2+10\alpha_1\alpha_2-2\alpha_1-2\alpha_2 s(α1,α2)=4α12+213α22+10α1α22α12α2
α 1 , α 2 \alpha_1,\alpha_2 α1,α2求偏导数并令其为0,易知 s ( α 1 , α 2 ) s(\alpha_1,\alpha_2) s(α1,α2)在点 ( 3 2 , − 1 ) T (\frac{3}{2},-1)^T (23,1)T取极值,但该点不满足约束条件 α 2 ≥ 0 \alpha_2\geq0 α20,所以最小值应在边界上达到。

α 1 = 0 \alpha_1=0 α1=0时,最小值为 s ( 0 , 2 13 ) = − 2 13 s(0,\frac{2}{13})=-\frac{2}{13} s(0,132)=132;当 α 2 = 0 \alpha_2=0 α2=0时,最小值 s ( 1 4 , 0 ) = − 1 4 s(\frac{1}{4},0)=-\frac{1}{4} s(41,0)=41。所以,当 α 1 = 1 4 , α 2 = 0 , α 3 = α 1 + α 2 = 1 4 \alpha_1=\frac{1}{4},\alpha_2=0,\alpha_3=\alpha_1+\alpha_2=\frac{1}{4} α1=41,α2=0,α3=α1+α2=41时,此时 s ( α 1 , α 2 ) s(\alpha_1,\alpha_2) s(α1,α2)达到最小。

这样的话,就说明 α 1 = α 3 = 1 4 \alpha_1=\alpha_3=\frac{1}{4} α1=α3=41所对应的点 x 1 , x 3 x_1,x_3 x1,x3就是支持向量了,根据 w = ∑ i = 1 N α i y i x i w=\sum_{i=1}^N\alpha_iy_ix_i w=i=1Nαiyixi,我们可以求得此时 w 1 = w 2 = 1 2 w_1=w_2=\frac{1}{2} w1=w2=21,再由 b = y − ∑ i = 1 N α i y i x i T x b=y-\sum_{i=1}^N\alpha_iy_ix_i^Tx b=yi=1NαiyixiTx,可以得到 b = − 2 b=-2 b=2

综上,我们可以得到决策面最终为:

1 2 x ( 1 ) + 1 2 x ( 2 ) − 2 = 0 \frac{1}{2}x^{(1)}+\frac{1}{2}x^{(2)}-2=0 21x(1)+21x(2)2=0

其中, x 1 = ( 3 , 3 ) T x_1=(3,3)^T x1=(3,3)T x 3 = ( 1 , 1 ) T x_3=(1,1)^T x3=(1,1)T为支持向量。


历经九九八十一难,终于来到了这最后一步了,只要我们能求得上式的最小值,那么模型的求解也就该到一段落了。

那么,问题来了,关于上式,我们应当如何求解呢???

下面就应该是我们的重头戏闪亮登场了——SMO算法,各位看官掌声欢迎一下,有请SMO大佬登台表演。。。

基于SMO算法的外层求解

关于SMO算法,李航老师的《统计学习方法》一书中是这么描述的,

关于外层问题的求解,我们有许多方法可供使用。当我们的数据样本比较少的时候,可以将支持向量机的学习问题转换为凸二次规划问题,这样的凸二次规划问题具有全局最优解,并且有许多最优化算法可以用于这一问题的求解。但是当训练样本容量很大时,这些算法往往变得非常低效,以致无法使用。所以,如何高效地实现支持向量机学习就成为一个重要的问题。目前人们已提出许多快速实现算法。而在这些算法中,要数Platt的序列最小最优化(sequential minimal optimization SMO)算法最为人所知。

**SMO算法是一种启发式算法,其基本思想是:**如果所有变量的解都满足此最优化问题的KKT条件,那么这个最优化问题的解就得到了。因为KKT条件是该最优化问题的充分必要条件。否则,选择两个变量,固定其他变量,针对这两个变量构建一个二次规划问题。这个二次规划问题关于这两个变量的解就应该更接近原始二次规划问题的解,因为这会使得原始二次规划问题的目标函数值变得更小。更重要的是,这时子问题可以通过解析方法求解,这样就可以大大提高整个算法的计算速度。子问题有两个变量,一个是违反KKT条件最严重的那一个,另一个由约束条件自动确定。如此,SMO算法将原问题不断分解为子问题并对子问题求解,进而达到求解原问题的目的。

上述内容来自李航——《统计学习方法》第二版。

不知道大伙读完上述关于内容是什么感受,这里简单总结一下李航老师所表达的意思吧。

在Taoye的印象里,小学时期上语文课的时候学习过一篇文章叫做**《走一步,再走一步》**。(具体几年级就记不清楚了)

嘿!您还别说,刚刚去搜索了下这篇课文,还真就叫这个名儿。第一次读李航老师《统计学习方法》中关于SMO的内容之后,就让我想起这篇文章。我还专门重新读了一下这篇文章,主要讲的内容是这样的:

文章中主人公名叫小亨特,他不是天生体弱怯懦嘛,在一次和小伙伴攀登悬崖的时候,由于内心的恐惧、害怕,在攀登途中上不去,也下不来。然后呢,他的小伙伴杰里就把小亨特的父亲找来了,父亲对小亨特说:“不要想有多远,有多困难,你需要想的是迈一小步。这个你能做到。看着手电光指的地方。看到那块石头没有?”,最终通过父亲的鼓励,小亨特成功脱险。文末作者还总结道:在我生命中有很多时刻,每当我遇到一个遥不可及、令人害怕的情境,并感到惊慌失措时,我都能够应付——因为我回想起了很久以前自己上过的那一课。我提醒自己不要看下面遥远的岩石,而是注意相对轻松、容易的第一小步,迈出一小步、再一小步,就这样体会每一步带来的成就感,直到完成了自己想要完成的,达到了自己的目标,然后再回头看时,不禁对自己走过的这段漫漫长路感到惊讶和自豪。

把《走一步,再走一步》这篇文章搬出来,真的不是在凑字数从而给大家阅读带来压力,只是觉得SMO算法描述的就是这么个理儿。算了,不多说了,说多了还真的会有凑字数的嫌疑。(ノへ ̄、)

下面我们开始进入到SMO吧。。。

在这之前,我们把外层的最小值问题再搬出来:

m i n α [ 1 2 ∑ i = 1 N ∑ j = 1 N α i α j y i y j x i T x j − ∑ i = 1 N α i ] s . t . α i ≥ 0 , i = 1 , 2 , . . . , N ∑ i = 1 N α i y i = 0 (4-5) \begin{aligned} & \mathop{min}\limits_{\alpha}[\frac{1}{2}\sum_{i=1}^N\sum_{j=1}^N\alpha_i\alpha_jy_iy_jx_i^Tx_j-\sum_{i=1}^N\alpha_i] \\ & s.t. \quad \alpha_i\geq0, \quad i=1,2,...,N \\ & \qquad \quad \sum_{i=1}^N\alpha_iy_i=0 \end{aligned} \tag{4-5} αmin[21i=1Nj=1NαiαjyiyjxiTxji=1Nαi]s.t.αi0,i=1,2,...,Ni=1Nαiyi=0(4-5)

在这里,我们是假设对于所有的样本数据都是100%线性可分的。

对于该优化问题的SMO算法,我们可以这样理解:因为在我们的数据集中, x i x_i xi属于每个样本的属性特征, y i y_i yi为样本所对应的标签,而这些都是已知的,上述优化问题的目标函数只存在 α i \alpha_i αi为未知变量,且未知变量有 N N N个。而根据SMO算法的思想,我们每次只将其中两个 α \alpha α看做变量,而其他 α \alpha α仅仅只是常数。在却确定其中一个变量的时候,另一个变量就可以通过 ∑ i = 1 N α i y i = 0 \sum_{i=1}^N\alpha_iy_i=0 i=1Nαiyi=0约束得到。我们不妨将该两个变量定为 α 1 , α 2 \alpha_1,\alpha_2 α1,α2,则SMO不断执行如下两个步骤直至收敛:

  • 选取一对需要更新的变量 α 1 和 α 2 \alpha_1和\alpha_2 α1α2
  • 固定 α 1 和 α 2 \alpha_1和\alpha_2 α1α2以外的参数,根据求解式(4-5)获得更新后 α 1 和 α 2 \alpha_1和\alpha_2 α1α2
  • 更新好 α 1 和 α 2 \alpha_1和\alpha_2 α1α2之后,重新选取两个 α \alpha α进行不断更新迭代(重复1、2步骤)

讲到这里,SMO算法是不是和《走一步,再走一步》中主人公类似呢?将一个大的、复杂的问题转换成多个小问题,然后不断的迭代更新。

为什么我们每次都同时优化两个参数,而不是一个呢?因为每次更新两个参数,才能确保 ∑ i = 1 N α i y i = 0 \sum_{i=1}^N\alpha_iy_i=0 i=1Nαiyi=0约束条件成立。而当我们仅仅只是修改一个 α \alpha α时,那么就将违背这个约束条件了。

据SMO的思想,我们不妨把目标函数中的 α 1 和 α 2 \alpha_1和\alpha_2 α1α2单独拎出来,如下:

《Machine Learning in Action》—— 剖析支持向量机,单手狂撕线性SVM_第10张图片

注意:因为我们的 W ( α 1 , α 2 ) W(\alpha_1,\alpha_2) W(α1,α2)仅仅只是对 α 1 , α 2 \alpha_1,\alpha_2 α1α2作为参数,而 α 3 , α 4 , . . . , α N \alpha_3,\alpha_4,...,\alpha_N α3,α4,...,αN只是作为一个参数而存在。还有一点需要注意的是,因为我们是二分类问题,且样本数据的标签为非1即-1,所以** y i 2 = 1 y_i^2=1 yi2=1,这个在化简过程中需要用到。**此时我们得到关于 α 1 , α 2 \alpha_1,\alpha_2 α1,α2的目标函数为:

W ( α 1 , α 2 ) = 1 2 K 11 α 1 2 + 1 2 K 22 α 2 2 + α 1 α 2 y 1 y 2 K 12 − ( α 1 + α 2 ) + y 1 α 1 ∑ i = 3 N y i α i K 1 i + y 2 α 2 ∑ i = 3 N y i α i K 2 i + H 其 中 K i j = x i T x j , H = ∑ i = 3 N ∑ j = 3 N α i α j y i y j x i T x j T − ∑ i = 3 N α i (4-6) \begin{aligned} W(\alpha_1, \alpha_2)= & \frac{1}{2}K_{11}\alpha_1^2+\frac{1}{2}K_{22}\alpha_2^2+\alpha_1\alpha_2y_1y_2K_{12} -(\alpha_1+\alpha_2) \\ & + y_1\alpha_1\sum_{i=3}^Ny_i\alpha_iK_{1i}+y_2\alpha_2\sum_{i=3}^Ny_i\alpha_iK_{2i} + H \\ & 其中K_{ij}=x_i^Tx_j,H=\sum_{i=3}^N\sum_{j=3}^N\alpha_i\alpha_jy_iy_jx_i^Tx_j^T-\sum_{i=3}^N\alpha_i \end{aligned} \tag{4-6} W(α1,α2)=21K11α12+21K22α22+α1α2y1y2K12(α1+α2)+y1α1i=3NyiαiK1i+y2α2i=3NyiαiK2i+HKij=xiTxj,H=i=3Nj=3NαiαjyiyjxiTxjTi=3Nαi(4-6)

我们知道对于这个式子是有一个约束条件的,我们可以根据这个用 α 2 \alpha_2 α2来表示 α 1 \alpha_1 α1(注意: y i 2 = 1 y_i^2=1 yi2=1),如下:

∑ i = 1 N α i y i = 0 = > α 1 y 1 + α 2 y 2 = − ∑ i = 3 N α i y i = G = > α 1 = y 1 ( G − α 2 y 2 ) (4-7) \begin{aligned} & \qquad \sum_{i=1}^N\alpha_iy_i=0 \\ & => \alpha_1y_1+\alpha_2y_2=-\sum_{i=3}^N\alpha_iy_i=G \\ & => \alpha_1=y_1(G-\alpha_2y_2) \end{aligned} \tag{4-7} i=1Nαiyi=0=>α1y1+α2y2=i=3Nαiyi=G=>α1=y1(Gα2y2)(4-7)

通过上式,用 α 2 \alpha_2 α2来表示 α 1 \alpha_1 α1,我们不妨将 α 1 \alpha_1 α1带到 W ( α 1 , α 2 ) W(\alpha_1,\alpha_2) W(α1,α2)中,得到一个只关于 α 2 \alpha_2 α2的式子:

W ( α 2 ) = 1 2 K 11 ( G − α 2 y 2 ) 2 + 1 2 K 22 α 2 2 + α 2 ( G − α 2 y 2 ) y 2 K 12 − [ y 1 ( G − α 2 y 2 ) + α 2 ] + ( G − α 2 y 2 ) ∑ i = 3 N y i α i K 1 i + y 2 α 2 ∑ i = 3 N y i α i K 2 i + H (4-8) \begin{aligned} W(\alpha_2)= & \frac{1}{2}K_{11}(G-\alpha_2y_2)^2+\frac{1}{2}K_{22}\alpha_2^2+\alpha_2(G-\alpha_2y_2)y_2K_{12}\\ & -[y_1(G-\alpha_2y_2) + \alpha_2]+(G-\alpha_2y_2)\sum_{i=3}^Ny_i\alpha_iK_{1i} \\ & + y_2\alpha_2\sum_{i=3}^Ny_i\alpha_iK_{2i}+H \end{aligned} \tag{4-8} W(α2)=21K11(Gα2y2)2+21K22α22+α2(Gα2y2)y2K12[y1(Gα2y2)+α2]+(Gα2y2)i=3NyiαiK1i+y2α2i=3NyiαiK2i+H(4-8)

此时的 W ( α 2 ) W(\alpha_2) W(α2)仅仅只是关于 α 2 \alpha_2 α2的函数,我们将 W ( α 2 ) W(\alpha_2) W(α2) α 2 \alpha_2 α2进行求导,并令导数为0:

《Machine Learning in Action》—— 剖析支持向量机,单手狂撕线性SVM_第11张图片 《Machine Learning in Action》—— 剖析支持向量机,单手狂撕线性SVM_第12张图片 《Machine Learning in Action》—— 剖析支持向量机,单手狂撕线性SVM_第13张图片

上述就是SMO中限制其中两个变量的推到过程的推到过程(公式太多,过程有点复杂,确实不方便使用Latex语法,不过过程都已经写的很详细了,还是需要静下心来慢慢手动推导的)下面总结一下上述SMO算法的过程吧:

前面我们不是得到了仅仅关于 α 2 \alpha_2 α2为变量的 W ( α 2 ) W(\alpha_2) W(α2)么,也就是说此时的未知数只有一个,我们要求 W ( α 2 ) W(\alpha_2) W(α2)的最值应该怎么求呢?当然是对其进行求导咯,然后对导数为0,即可解出 W ( α 2 ) W(\alpha_2) W(α2)取最值时候的 α 2 \alpha_2 α2,整理之后得到如下式子:

( K 11 + K 22 − 2 K 12 ) α 2 = y 2 ( y 2 − y 1 + G K 11 − G K 12 + ∑ i = 3 N α i y i K 1 i − ∑ i = 3 N α i y i K 2 i ) (4-9) (K_{11}+K_{22}-2K_{12})\alpha_2=y_2(y_2-y_1+GK_{11}-GK_{12}+\sum_{i=3}^N\alpha_iy_iK_{1i}-\sum_{i=3}^N\alpha_iy_iK_{2i}) \tag{4-9} (K11+K222K12)α2=y2(y2y1+GK11GK12+i=3NαiyiK1ii=3NαiyiK2i)(4-9)

此时,我们可以发现除了数据样本相关信息和 α 2 \alpha_2 α2之外,还有 G G G的存在,而我们前面也又说到,SMO算法本身是一个不断迭代更新的过程,我们需要的是可以通过的更新之前的 α 2 \alpha_2 α2来修改 α 2 \alpha_2 α2,从而得到一个新的 α 2 \alpha_2 α2,我们不妨令新的 α \alpha α α n e w \alpha^{new} αnew、旧的 α \alpha α α o l d \alpha^{old} αold。而我们知道旧的 α \alpha α之间需要满足一个限制条件:

α 1 o l d y 1 + α 2 o l d y 2 = G (4-9) \alpha_1^{old}y_1 + \alpha_2^{old}y_2=G \tag{4-9} α1oldy1+α2oldy2=G(4-9)

所以,我们重新将 G G G代回到 ( 4 − 9 ) (4-9) (49)式,用 α 1 o l d 、 α 2 o l d \alpha_1^{old}、\alpha_2^{old} α1oldα2old来代替 G G G,(要时刻注意: y i 2 = 1 y_i^2=1 yi2=1)得到:

( K 11 + K 22 − 2 K 12 ) α 2 n e w = y 2 ( y 2 − y 1 + α 1 o l d y 1 K 11 + α 2 o l d y 2 K 11 − α 1 o l d y 1 K 12 − α 2 o l d y 2 K 12 + ∑ i = 3 N α i y i K 1 i − ∑ i = 3 N α i y i K 2 i ) (4-10) \begin{aligned} (K_{11}+K_{22}-2K_{12})\alpha_2^{new}= & y_2(y_2-y_1+\alpha_1^{old}y_1K_{11}+\alpha_2^{old}y_2K_{11} \\ & -\alpha_1^{old}y_1K_{12}-\alpha_2^{old}y_2K_{12} \\ & + \sum_{i=3}^N\alpha_iy_iK_{1i}-\sum_{i=3}^N\alpha_iy_iK_{2i}) \end{aligned} \tag{4-10} (K11+K222K12)α2new=y2(y2y1+α1oldy1K11+α2oldy2K11α1oldy1K12α2oldy2K12+i=3NαiyiK1ii=3NαiyiK2i)(4-10)

之后我们通过前面拉格朗日得到的关系式,用 f ( x 1 ) 、 f ( x 2 ) f(x_1)、f(x_2) f(x1)f(x2)来代替(4-10)后面的两个级数,整理最终得到:
α 2 n e w = y 2 ( E 1 − E 2 ) η + α 2 o l d α 2 n e w = y 1 ( G − α 2 n e w y 2 ) (4-11) \begin{aligned} & \alpha_2^{new}=\frac{y_2(E_1-E_2)}{\eta}+\alpha_2^{old} \\ & \alpha_2^{new}=y_1(G-\alpha_2^{new}y_2) \end{aligned} \tag{4-11} α2new=ηy2(E1E2)+α2oldα2new=y1(Gα2newy2)(4-11)

PS:关于 η 、 E 1 、 E 2 \eta、E_1、E_2 ηE1E2是什么,请见上图中的内容。

通过如上式子,我们就能求得更新之后的 α 1 、 α 2 \alpha_1、\alpha_2 α1α2,而SMO算法的核心在于两两不断的更新迭代,所以最终我们会得到,每个样本 x i 、 y i x_i、y_i xiyi都会对应一个 α i \alpha_i αi,而前面我们也有说过,决策面最终只会与支持向量有关,而与非支持向量的样本无关,所以大多数的 α i \alpha_i αi都等于0,只有少数 α i \alpha_i αi为非0。如此一来,我们就能求解得到 α \alpha α向量: α = ( α 1 , α 2 , . . . , α N ) \alpha=(\alpha_1,\alpha_2,...,\alpha_N) α=(α1,α2,...,αN),随后,我们就能通过 α i 、 x i 、 y i \alpha_i、x_i、y_i αixiyi就能求得参数 w w w

w = ∑ i = 1 N α i y i x i w=\sum_{i=1}^N\alpha_iy_ix_i w=i=1Nαiyixi

还有一点需要注意的是,上述过程都是默认所有样本数据都是线性可分的,也就是说没有一个样本会被误分类。但这只是理想状态下,而实际不免会有个别数据不得不被误分类,这时我们需要定义惩罚参数和容错率,而容错率是用来不断优化 α \alpha α的,主要通过实际值与真实值得到。而惩罚参数我们定为 C C C,而要想成功更新得到 α 2 n e w \alpha_2^{new} α2new,则需要确定 α 2 n e w \alpha_2^{new} α2new的范围。对此,我们不妨定义如下:

0 ≤ α i ≤ C , i = 1 , 2 , 3 , . . . , N L ≤ α 2 n e w ≤ R (4-12) 0\leq\alpha_i\leq C ,\qquad i=1,2,3,...,N\\ L\leq\alpha_2^{new}\leq R \tag{4-12} 0αiC,i=1,2,3,...,NLα2newR(4-12)

而我们知道:

α 1 n e w y 1 + α 2 n e w y 2 = α 1 o l d y 1 + α 2 o l d y 2 = G (4-13) \alpha_1^{new}y_1+\alpha_2^{new}y_2=\alpha_1^{old}y_1+\alpha_2^{old}y_2=G \tag{4-13} α1newy1+α2newy2=α1oldy1+α2oldy2=G(4-13)

综合上式,可以确定 L 、 R L、R LR的范围:

L = m a x ( 0 , α 2 o l d − α 1 o l d ) , R = m i n ( C , C + α 2 o l d − α 1 o l d ) y 1 ≠ y 2 L = m a x ( 0 , α 2 o l d + α 1 o l d − C ) , R = m i n ( C , α 2 o l d + α 1 o l d ) y 1 = y 2 (4-14) L=max(0, \alpha_2^{old}-\alpha_1^{old}),R=min(C,C+\alpha_2^{old}-\alpha_1^{old}) \quad y_1 \neq y_2\\ L=max(0, \alpha_2^{old}+\alpha_1^{old}-C),R=min(C,\alpha_2^{old}+\alpha_1^{old})\quad y_1=y_2 \tag{4-14} L=max(0,α2oldα1old),R=min(C,C+α2oldα1old)y1=y2L=max(0,α2old+α1oldC),R=min(C,α2old+α1old)y1=y2(4-14)

而这个在不同情况下的 L , R L,R L,R的范围,我们会在下面实际编程的时候需要用到,主要是用来更新 α \alpha α值。

接下来,就是更新 b b b值了。前面我们已经定义了惩罚参数 C C C,且 0 ≤ α i n e w ≤ C 0\leq\alpha_i^{new} \leq C 0αinewC,此时通过 E 1 、 E 2 E_1、E_2 E1E2更新得到的 b 1 、 b 2 b_1、b_2 b1b2固然是相等的;但假如我们更新之后的 α \alpha α不在这个区间之内,则此时得到的 b 1 、 b 2 b_1、b_2 b1b2是不相等的,所以我们需要确定在不同情况下更新之后的 b b b值:

前面,我们已经得到:

y 1 = ∑ i = 1 N α i y i x i x 1 + b y_1=\sum_{i=1}^N\alpha_iy_ix_ix_1+b y1=i=1Nαiyixix1+b

因为我们是打算通过 α 1 n e w 、 α 2 n e w \alpha_1^{new}、\alpha_2^{new} α1newα2new的值来得到更新之后的 b n e w b^{new} bnew,所以把 α 1 n e w 、 α 2 n e w \alpha_1^{new}、\alpha_2^{new} α1newα2

你可能感兴趣的:(机器学习,Python,NumPy,机器学习,svm,python,人工智能,神经网络)