7 核方法

在Support Vector Machine的章节中, 我们已经分析了支持向量机前面“两宝”,也就是间隔和
对偶
,而第三宝,核技巧在这里我们需要抽出来将分析。其实,我最开始学习核的时候,真的是一脸
懵逼,这玩意到底是个什么鬼?来龙去脉是什么?这这节有关于Kernel Method的背景介绍中,我想
分析一下,我们为什么要使用核?以及怎么用核?来给大家一个直观的感受。
本小节主要从Kernel Method, Kernel Function和Kernel Trick,三个方面来进行分析和讨论,我
们为什么要用核?我们怎么样用核?

1 背景

1.1 Kernel Method

核方法是一种思想,核⽅法可以应⽤在很多问题上,在分类问题中,对于严格不可分问题,我们引⼊⼀个特征转换函数将原来的不可分的数据集变为可分的数据集,然后再来应⽤已有的模型。往往将低维空间的数据集变为⾼维空间的数据集后,数据会变得可分(数据变得更为稀疏):

Cover TH:高维空间比低维空间更易线性可分。

在这里我们举一个例子,对于经典的线性不可分问题异或问题,图像描述如下所示:
7 核方法_第1张图片
这二维空间中的点可以被我们记为 X = ( x 1 , x 2 ) X= (x_1,x_2) X=(x1,x2),如果我们使用一个变换函数,将其变换到三维空间中就会发生有意思的事情。我们设定一个变换函数为中 ϕ ( x ) \phi(x) ϕ(x),将二维空间中的点,变换到一个三维空间Z中,并且令 z = ( x 1 , x 2 , ( x 1 , x 2 ) 2 ) z=(x_1,x_2,(x_1,x_2)^2) z=(x1,x2,(x1,x2)2),那么我们再来看看异或问题在三维空间中点的分布,我们惊奇的发现变得线性可分了:
7 核方法_第2张图片
通过这个例子,想想大家都直观的感受到了高维空间带来的好处。实际上对于解决非线性问题,我们有两种思路:

  1. 也就是之前提到的,由Perceptron Layer Analysis(PLA)引出的多层感知机(Multilayer Per-ceptron)也就我们经常听到的神经网络,以及之后发展得到的Deep Learning.
  2. 而第二种思路就是通过非线性变换 ϕ ( x ) \phi(x) ϕ(x),将非线性可分问题转换为线性可分问题。上述的异或问题,可以表述为: X = ( x 1 , x 2 ) ⟼ ϕ ( z ) Z = ( x 1 , x 2 , ( x 1 − x 2 ) 2 ) \mathcal{X}=\left(x_{1}, x_{2}\right) \stackrel{\phi(\boldsymbol{z})}{\longmapsto} \mathcal{Z}=\left(x_{1}, x_{2},\left(x_{1}-x_{2}\right)^{2}\right) X=(x1,x2)ϕ(z)Z=(x1,x2,(x1x2)2)

第二类方法也就是我们讨论的重点,其实在我们机器学习理论的研究中,第二种方法有很大的威力,大部分同学在学习的时候都会忽掉,例子可以看看之前发的再生核希尔伯特空间。

1.2 Kernel Function

核函数,

  • 模型的角度非线性带来高维的转换
  • -优化的角度为对偶带来内积

这两个角度可以合在一起看看。以我们之前学习的Hard Margin SVM为例,原问题和对偶问题的表述为:

原问题: { max ⁡ w , b 1 2 w T w  s.t.  1 − y i ( w i T x + b ) ≤ 0 \left\{\begin{array}{l} \max _{w, b} \frac{1}{2} w^{T} w \\ \\ \text { s.t. } 1-y_{i}\left(w_{i}^{T} x+b\right) \leq 0 \end{array}\right. maxw,b21wTw s.t. 1yi(wiTx+b)0

对偶问题 { min ⁡ λ 1 2 ∑ i = 1 N ∑ j = 1 N λ i λ j y i y j ( x i T x j ) − ∑ i = 1 N λ i s.t. λ i ≥ 0 , ∑ i = 1 N λ i y i = 0 \left\{\begin{array}{l} \min _{\lambda} \frac{1}{2} \sum_{i=1}^{N} \sum_{j=1}^{N} \lambda_{i} \lambda_{j} y_{i} y_{j}\left(x_{i}^{T} x_{j}\right)-\sum_{i=1}^{N} \lambda_{i} \\ \\ \text {s.t.} \quad \lambda_{i} \geq 0, \sum_{i=1}^{N} \lambda_{i} y_{i}=0 \end{array}\right. minλ21i=1Nj=1Nλiλjyiyj(xiTxj)i=1Nλis.t.λi0,i=1Nλiyi=0

在我们的对偶问题中,有一个 x i T x j x_{i}^{T} x_{j} xiTxj。在线性可分问题中,我们直接计算就好了,在线性不可分问题中,在对偶问题中需要求解内积,就需要将不可分数据 x x x通过一个变换函数 ϕ \phi ϕ转换到高维空间中。那么 x i T x j x_{i}^{T} x_{j} xiTxj;就变成了 ϕ ( x i T ) ϕ ( x j ) \phi(x_{i}^{T})\phi( x_{j}) ϕ(xiT)ϕ(xj),求解变换之后的内积。那么我们就将两个角度的分析联系起来了。我们常常很难求得变换函数的内积。于是直接引⼊内积的变换函数那么核函数我们可以定义为:
∀ x , x ′ ∈ X , ∃ ϕ ∈ H : x → z   s . t .   k ( x , x ′ ) = ϕ ( x ) T ϕ ( x ) = < ϕ ( x ) , ϕ ( x ′ ) > \forall x,x'\in\mathcal{X},\exist\phi\in\mathcal{H}:x\rightarrow z\ s.t.\ k(x,x')=\phi(x)^T\phi(x) =<\phi(x), \phi\left(x^{\prime}\right)> x,xX,ϕH:xz s.t. k(x,x)=ϕ(x)Tϕ(x)=<ϕ(x),ϕ(x)> k ( x , x ′ ) k(x,x') k(x,x) 为一个正定核函数,其中 H \mathcal{H} H 是 Hilbert 空间(完备的线性内积空间),如果去掉内积这个条件我们简单地称为核函数。

k ( x , x ′ ) = exp ⁡ ( − ( x − x ′ ) 2 2 σ 2 ) k(x,x')=\exp(-\frac{(x-x')^2}{2\sigma^2}) k(x,x)=exp(2σ2(xx)2) 是一个核函数。
证明: exp ⁡ ( − ( x − x ′ ) 2 2 σ 2 ) = exp ⁡ ( − x 2 2 σ 2 ) exp ⁡ ( x x ′ σ 2 ) exp ⁡ ( − x ′ 2 2 σ 2 ) = exp ⁡ ( − x 2 2 σ 2 ) ∑ n = 0 + ∞ x n x ′ n σ 2 n n ! exp ⁡ ( − x ′ 2 2 σ 2 ) = exp ⁡ ( − x 2 2 σ 2 ) φ ( x ) φ ( x ′ ) exp ⁡ ( − x ′ 2 2 σ 2 ) = ϕ ( x ) ϕ ( x ′ ) \begin{aligned} \exp \left(-\frac{\left(x-x^{\prime}\right)^{2}}{2 \sigma^{2}}\right) &=\exp \left(-\frac{x^{2}}{2 \sigma^{2}}\right) \exp \left(\frac{x x^{\prime}}{\sigma^{2}}\right) \exp \left(-\frac{x^{\prime 2}}{2 \sigma^{2}}\right) \\ &=\exp \left(-\frac{x^{2}}{2 \sigma^{2}}\right) \sum_{n=0}^{+\infty} \frac{x^{n} x^{\prime n}}{\sigma^{2 n} n !} \exp \left(-\frac{x^{\prime 2}}{2 \sigma^{2}}\right) \\ &=\exp \left(-\frac{x^{2}}{2 \sigma^{2}}\right) \varphi(x) \varphi\left(x^{\prime}\right) \exp \left(-\frac{x^{\prime 2}}{2 \sigma^{2}}\right) \\ &=\phi(x) \phi\left(x^{\prime}\right) \end{aligned} exp(2σ2(xx)2)=exp(2σ2x2)exp(σ2xx)exp(2σ2x2)=exp(2σ2x2)n=0+σ2nn!xnxnexp(2σ2x2)=exp(2σ2x2)φ(x)φ(x)exp(2σ2x2)=ϕ(x)ϕ(x)

1.3 Kernel Track

下面我们需要引入核技巧了,也就是想想,核函数有什么用?前面我们讲到将 x x x通过一一个变换 ϕ ( x ) \phi(x) ϕ(x)转换到高维空间。但是,有可能 ϕ ( x ) \phi(x) ϕ(x)的维度非常的高,甚至是无限维的,那么这将变得非常的难求。如果还要继续求 ϕ ( x i T ) ϕ ( x i ) \phi(x_i^T) \phi(x_i) ϕ(xiT)ϕ(xi)这个计算量恐怕会要原地爆炸。

大家通过上面的表达会发现我们实际上关注的不是 ϕ ( x ) \phi(x) ϕ(x)本身,而是 ϕ ( x i T ) ϕ ( x i ) \phi(x_i^T) \phi(x_i) ϕ(xiT)ϕ(xi)。那么,我们完.全可直接求跳过求 ϕ ( x ) \phi(x) ϕ(x)的过程,然后直接 ϕ ( x i T ) ϕ ( x i ) \phi(x_i^T) \phi(x_i) ϕ(xiT)ϕ(xi)。我们看看核函数的定义,是不是 K ( x i , x j ) K(x_i,x_j) K(xi,xj)就等于 ϕ ( x i T ) ϕ ( x i ) \phi(x_i^T) \phi(x_i) ϕ(xiT)ϕ(xi)。这就省去了很多麻烦的计算过程,核函数在这实在是太好用了,这就是核技巧的思想。总的来说,就是非线性转换上的一个内积

我们为什么引入kernel?就是原来的方法有不足,不能解决非线性可分问题。所以,我们想到利
用核函数将 X ⟼ Z X\stackrel{}{\longmapsto} \mathcal{Z} XZ,到更高维的空间来转换成线性可分问题。又因为 ϕ ( x ) \phi(x) ϕ(x)的计算很难,我们有想到用核函数来直接求 ϕ ( x i T ) ϕ ( x i ) \phi(x_i^T) \phi(x_i) ϕ(xiT)ϕ(xi)。这里面其实是一环扣一 -环的,逻辑性非常的强。

对于前面讨论的线性可分问题Perceptron Layer Analysis和Hard Margin SVM。允许出现错误就出现了Pocket Algorithm和Soft Margin SVM。进一步如果是严格的非线性问题,引入了 ϕ ( x ) \phi(x) ϕ(x)就得到了 ϕ ( x ) \phi(x) ϕ(x)+ PLA和 ϕ ( x ) \phi(x) ϕ(x) + Hargin (Kernel SVM),就是将输人变量的内积转换为核函数。

那么,我们怎么找一个核函数,核函数具有怎样的性质?我们在下一小节中进行分析。
7 核方法_第3张图片

2 正定核的定义

上一节中,我们已经讲了什么是核函数,也讲了什么是核技巧,以及核技巧存在的意义是什么。我们首先想想,上一小节我们提到的核函数的定义。
对于一个映射 K K K,我们有两个输人空间 X × X , X ∈ R p \mathcal{X} \times \mathcal{X}, \mathcal{X} \in \mathbb{R}^{p} X×X,XRp, 可以形成一个映射 X × X ↦ R \mathcal{X} \times \mathcal{X} \mapsto \mathbb{R} X×XR。对于,
∀ x , z ∈ X \forall x, z \in \mathcal{X} x,zX, 存在一个映射 ϕ : X ↦ R \phi: \mathcal{X} \mapsto \mathbb{R} ϕ:XR, 使得 K ( x , z ) = < ϕ ( x ) , ϕ ( z ) > K(x, z)=<\phi(x), \phi(z)> K(x,z)=<ϕ(x),ϕ(z)>。那么这个 K ( ⋅ ) K(\cdot) K(),就被我们称为核函数。(<>代表内积运算)
这既是我们上一节中将的核函数的定义,实际上这个核函数的精准定义,应该是正定核函数。在本小节中,我们将会介绍核函数的精准定义,什么是正定核函数?并介绍内积和希尔伯特空间(Hilbert Space)的定义。这一小节虽然看着会有些枯燥,实际上非常的重要。

2.1 核函数的定义

核函数的定义,对于一个映射K,存在一个映射 X × X ↦ R \mathcal{X} \times \mathcal{X} \mapsto \mathbb{R} X×XR,对于 ∀ x , z ∈ X \forall x, z \in \mathcal{X} x,zX都成立,则称K(x,z)为核函数。
对比一下,我们就会发现,这个定义实际上比我们之前学的定义要简单很多。好像是个阉割版,下面我们来介绍两个正定核的定义方法。

2.2 正定核的定义

2.2.1 第一个定义

现在存在一个映射 K ˙ : X × X ↦ R ∙ \dot{K}: \mathcal{X} \times \mathcal{X} \mapsto \mathbb{R}_{\bullet} K˙:X×XR 对于 ∀ x , z ∈ X \forall x, z \in \mathcal{X} x,zX 。如果存在一个 ϕ : X ↦ R p , \phi: \mathcal{X} \mapsto \mathbb{R}^{p}, ϕ:XRp, 并且 ϕ ( x ) ∈ H \phi(x) \in \mathcal{H} ϕ(x)H使得 K ( x , z ) = < ϕ ( x ) , ϕ ( z ) > , K(x, z)=<\phi(x), \phi(z)>, K(x,z)=<ϕ(x),ϕ(z)>, 那么称 K ( x , z ) K(x, z) K(x,z) 为正定核函数。

2.2.2 第二个定义

对于一个映射 K : X × X ↦ R , K: \mathcal{X} \times \mathcal{X} \mapsto \mathbb{R}, K:X×XR, 对于 ∀ x , z ∈ X , \forall x, z \in \mathcal{X}, x,zX, 都有 K ( x , z ) K(x, z) K(x,z) 。如果 K ( x , z ) K(x, z) K(x,z) 满足,1. 对称性;2. 正定性; 那么称 K ( x , z ) K(x, z) K(x,z) 为一个正定核函数。

我们来分析一下,首先什么是对称性?这个非常的好理解,也就是 K ( x , z ) = K ( z , x ) K(x, z)=K(z, x) K(x,z)=K(z,x) 。那么什么 又是正定性?那就是任取 N 个元素, x 1 , x 2 , ⋯   , x N ∈ X , x_{1}, x_{2}, \cdots, x_{N} \in \mathcal{X}, x1,x2,,xNX, 对应的 Gram Matrix 是半正定的,其中 Gram Matrix 用 K K K 来表示为 K = [ K ( x i , x j ) ] K=\left[K\left(x_{i}, x_{j}\right)\right] K=[K(xi,xj)]

对于第一个对称性,我们其实非常好理解,不就是内积嘛!有一定数学功底的同学-定知道, 内积和距离是挂钩的,距离之间一定是对称的。那么正定性就要好好讨论-一下了。我们知道这两个定义之间是等价的,为什么会有正定性呢?我们需要进行证明,这个证明可以被我们描述为:
K ( x , z ) = < ϕ ( x ) , ϕ ( z ) > ⟺  Gram Matrix 是半正定矩阵  K(x, z)=<\phi(x), \phi(z)>\Longleftrightarrow \text { Gram Matrix 是半正定矩阵 } K(x,z)=<ϕ(x),ϕ(z)> Gram Matrix 是半正定矩阵 
这个等式的证明我们留到下一-节再来进行,这里我们首先需要学习一个很重要的概念叫做,希尔伯特空间( H \mathcal{H} H :Hilbert Space)。

2.2.3 Hilbert Space: H \mathcal{H} H

Hilbert Space是-一个完备的,可能是无限维的被赋予内积运算线性空间。下面我们对这个概念进行逐字逐句的分析。
线性空间:也就是向量空间,这个空间的元素就是向量,向量之间满足加法和乘法的封闭性,实际上也就是线性表示。空间中的任意两个向量都可以由基向量线性表示。
完备的:完备性简单的认为就是对极限的操作是封闭的。我们怎么理解呢?若有-一个序列为 K n {K_n} Kn,这里强调一下Hilbert Space是-一个函数空间,空间中的元素就是函数。所以, K n K_n Kn就是一一个函数。那么就会有: lim ⁡ n → + ∞ K n = K ∈ H \lim _{n \rightarrow+\infty} K_{n}=K \in \mathcal{H} n+limKn=KH
无限维::就是空间的维度,如一维、二维等空间,我理解的主要是Hilbert Space在无限维满足线性关系。
内积:内积应该满足三个定义,1.正定性; 2. 对称性; 3. 线性。下面我们逐个来进行解释:

  1. 对称性:也就是 f , g ∈ H , f, g \in \mathcal{H}, f,gH, 那么就会有 < f , g > = < g , f > = <f,g>=<g,f> 。其中, f , g f, g f,g 是函数,我们可以认为 Hilbert Space 是基于函数的,向量是一个特殊的表达。其实,也就是函数可以看成一个无限维的向量。 大家在这里是不是看到了无限维和完备性的引用,他们的定义之间是在相互铺垫的。
  2. 正定性:也就是 < f , f > ≥ 0 , \geq0, <f,f>0, 等号当且仅当 f = 0 f=0 f=0 是成立。
  3. 线性也就是满足: < r 1 f 1 + r 2 f 2 , g > = r 1 < f 1 , g > + r 2 < f 2 , g > =r_{1}+r_{2} <r1f1+r2f2,g>=r1<f1,g>+r2<f2,g>

描述上述三条性质的原因是什么呢?也就是我们要证明一个空间中加入一些运算。如果,判断这个运算是不是内积运算,我们需要知道这个运算满不满足上述三个条件。
现在我们介绍了大致的基本概念了,我们回到这样-一个问题,对于正定核我们为什么要有两个定义?这个思想和我们之前学到的Kernel Trick非常的类似了,Kernel Trick跳过了寻找 ϕ ( x ) \phi(x) ϕ(x)这个过程。因为,直接用定义不好找, ϕ ( x ) \phi(x) ϕ(x) 非常的难找,特别是将函数看成一个无限维的向量。这个 ϕ ( x ) \phi(x) ϕ(x)怎么
找?那么,我们也想跳过这个寻找 ϕ ( x ) \phi(x) ϕ(x)这个过程。那么这就是第二个定义存在的意义,虽然,第二个定义没有第一个定义那么简洁。第二个定义给了我们一个判断核函数的好办法,直接跳过了 ϕ ( x ) \phi(x) ϕ(x)这个过程。那么这两定义之间是否等价?废话,肯定是等价的呀,哈哈哈。那么,下一小节中来证明一下。

2.2.4 证明

在上一小节中,我们描述了正定核的两个定义,并且认为这两个定义之间是相互等价的。下面我们就要证明他们之间的等价性。
由第二条定义可知,如果核函数满足:

  • 对称性
  • 正定性

那么这个核函数时正定核函数。

那么也就是证明下面两条:

  • 对称性 ⇔ \Leftrightarrow k ( x , z ) = k ( z , x ) k(x,z)=k(z,x) k(x,z)=k(z,x),显然满足内积的定义
  • 正定性 ⇔ \Leftrightarrow ∀ N , x 1 , x 2 , ⋯   , x N ∈ X \forall N,x_1,x_2,\cdots,x_N\in\mathcal{X} N,x1,x2,,xNX,对应的 Gram Matrix K = [ k ( x i , x j ) ] K=[k(x_i,x_j)] K=[k(xi,xj)] 是半正定的。

2.2.4.1 充分性证明

大家注意到在上一节的描述中,我似乎没有谈到对称性,实际上是因为对称性的证明比较的简单。
就没有做过多的解释,那么我重新描述一下我们需要证明的问题。
已知: K ( x , z ) = < ϕ ( x ) , ϕ ( z ) > , K(x, z)=<\phi(x), \phi(z)>, K(x,z)=<ϕ(x),ϕ(z)>, 证:Gram Matrix 是半正定的,且 K ( x , z ) K(x, z) K(x,z) 是对称矩阵。

  • 对称性
    已知: K ( x , z ) = < ϕ ( x ) , ϕ ( z ) > K ( z , x ) = < ϕ ( z ) , ϕ ( x ) > K(x, z)=<\phi(x), \phi(z)>\quad K(z, x)=<\phi(z), \phi(x)> K(x,z)=<ϕ(x),ϕ(z)>K(z,x)=<ϕ(z),ϕ(x)>
    又因为,内积运算具有对称性,所以可以得到:
    ϕ ( x ) , ϕ ( z ) > = < ϕ ( z ) , ϕ ( x ) > \phi(x), \phi(z)>=<\phi(z), \phi(x)> ϕ(x),ϕ(z)>=<ϕ(z),ϕ(x)>
    所以,我们很容易得到: K ( x , z ) = K ( z , x ) , K(x, z)=K(z, x), K(x,z)=K(z,x), 所以对称性得证。
  • 正定性:我们想要证的是 Gram Matrix= K [ K ( x i , x j ) ] N × N K\left[K\left(x_{i}, x_{j}\right)\right]_{N \times N} K[K(xi,xj)]N×N 是半正定的。那么, 对一个矩阵 A N × N A_{N \times N} AN×N 我们如何判断这是一个半正定矩阵?大概有两种方法,1. 这个矩阵的所有特征值大于等于 0 ; 2. 对 于 ∀ α ∈ R N , α T A α ≥ 0 \forall \alpha \in \mathbb{R}^{N}, \alpha^{T} A \alpha \geq 0 αRN,αTAα0 。这个是充分必要条件。那么,这个问题上我们要使用的方法就是,对于 ∀ α ∈ R N , α T A α ≥ 0 \forall \alpha \in \mathbb{R}^{N}, \alpha^{T} A \alpha \geq 0 αRN,αTAα0
    所以,即需要证明 α T K α ≥ 0 \alpha^TK\alpha\ge0 αTKα0
  • α T K α = [ α 1 α 2 ⋯ α N ] [ K 11 K 12 ⋯ K 1 N K 21 K 22 ⋯ K 2 N ⋮ ⋮ ⋱ ⋮ K N 1 K N 2 ⋯ K N N ] [ α 1 α 2 ⋮ α N ] = ∑ i = 1 N ∑ j = 1 N α i α j K i j = ∑ i = 1 N ∑ j = 1 N α i α j < ϕ ( x i ) , ϕ ( x j ) > = ∑ i = 1 N ∑ j = 1 N α i α j ϕ ( x i ) T ϕ ( x j ) = [ ∑ i = 1 N α i ϕ ( x i ) ] T [ ∑ j = 1 N α j ϕ ( x j ) ] = ∣ ∣ ∑ i = 1 N α i ϕ ( x i ) ∣ ∣ 2 ≥ 0 \begin{aligned} \alpha^{T} K \alpha &=\left[\begin{array}{llll} \alpha_{1} & \alpha_{2} & \cdots & \alpha_{N} \end{array}\right]\left[\begin{array}{cccc} K_{11} & K_{12} & \cdots & K_{1 N} \\ K_{21} & K_{22} & \cdots & K_{2 N} \\ \vdots & \vdots & \ddots & \vdots \\ K_{N 1} & K_{N 2} & \cdots & K_{N N} \end{array}\right]\left[\begin{array}{c} \alpha_{1} \\ \alpha_{2} \\ \vdots \\ \alpha_{N} \end{array}\right] \\ &=\sum_{i=1}^{N} \sum_{j=1}^{N} \alpha_{i} \alpha_{j} K_{i j} \\ &=\sum_{i=1}^{N} \sum_{j=1}^{N} \alpha_{i} \alpha_{j}<\phi\left(x_{i}\right), \phi\left(x_{j}\right)> \\ &=\sum_{i=1}^{N} \sum_{j=1}^{N} \alpha_{i} \alpha_{j}\phi(x_{i})^T \phi(x_{j}) \\ &=\left[\sum_{i=1}^{N} \alpha_{i}\phi(x_{i})\right]^T \left[ \sum_{j=1}^{N} \alpha_{j} \phi(x_{j})\right] \\ &=\left|\left|\sum_{i=1}^{N} \alpha_{i}\phi(x_{i})\right|\right|^2 \ge0\\ \end{aligned} αTKα=[α1α2αN]K11K21KN1K12K22KN2K1NK2NKNNα1α2αN=i=1Nj=1NαiαjKij=i=1Nj=1Nαiαj<ϕ(xi),ϕ(xj)>=i=1Nj=1Nαiαjϕ(xi)Tϕ(xj)=[i=1Nαiϕ(xi)]T[j=1Nαjϕ(xj)]=i=1Nαiϕ(xi)20
    所以,我们可以得到 K K K是半正定的,必要性得证。

2.2.4.2必要性证明

Leftarrow$:对于 K K K 进行分解,对于对称矩阵 K = V Λ V T K=V\Lambda V^T K=VΛVT,那么令 ϕ ( x i ) = λ i V i \phi(x_i)=\sqrt{\lambda_i}V_i ϕ(xi)=λi Vi,其中 V i V_i Vi是特征向量,于是就构造了 k ( x , z ) = λ i λ j V i T V j k(x,z)=\sqrt{\lambda_i\lambda_j}V_i^TV_j k(x,z)=λiλj ViTVj

3 小结

分类问题在很长一段时间都依赖 SVM,对于严格可分的数据集,Hard-margin SVM 选定一个超平面,保证所有数据到这个超平面的距离最大,对这个平面施加约束,固定 y i ( w T x i + b ) = 1 y_i(w^Tx_i+b)=1 yi(wTxi+b)=1,得到了一个凸优化问题并且所有的约束条件都是仿射函数,于是满足 Slater 条件,将这个问题变换成为对偶的问题,可以得到等价的解,并求出约束参数:
max ⁡ λ − 1 2 ∑ i = 1 N ∑ j = 1 N λ i λ j y i y j x i T x j + ∑ i = 1 N λ i ,   s . t .   λ i ≥ 0 \max_{\lambda}-\frac{1}{2}\sum\limits_{i=1}^N\sum\limits_{j=1}^N\lambda_i\lambda_jy_iy_jx_i^Tx_j+\sum\limits_{i=1}^N\lambda_i,\ s.t.\ \lambda_i\ge0 λmax21i=1Nj=1NλiλjyiyjxiTxj+i=1Nλi, s.t. λi0 对需要的超平面参数的求解采用强对偶问题的 KKT 条件进行。

{ ∂ L ∂ w = w − ∑ i = 1 N λ i y i x i = 0 ∂ f ∂ b = 0 λ i ( 1 − y i ( w ⊤ x i + b ) ) = 0 ( s l a c k n e s s   c o m p l e m e n t a r y ) λ i ⩾ 0 1 − y i ( w ⊤ x i + b ) ⩽ 0 \left\{\begin{array}{l} \begin{array}{l} \frac{\partial \mathcal{L}}{\partial w}=w-\sum_{i=1}^{N} \lambda_{i} y_{i} x_{i}=0 \\ \\ \frac{\partial f}{\partial b}=0 \\ \\ \lambda_{i}\left(1-y_{i}\left(w^{\top} x_{i}+b\right)\right)=0 (slackness\ complementary)\\ \\ \lambda_{i} \geqslant 0 \\ \\ 1-y_{i}\left(w^{\top} x_{i}+b\right) \leqslant 0 \end{array} \end{array}\right. wL=wi=1Nλiyixi=0bf=0λi(1yi(wxi+b))=0(slackness complementary)λi01yi(wxi+b)0

解就是: w ^ = ∑ i = 1 N λ i y i x i b ^ = y k − w T x k = y k − ∑ i = 1 N λ i y i x i T x k , ∃ k , 1 − y k ( w T x k + b ) = 0 \hat{w}=\sum\limits_{i=1}^N\lambda_iy_ix_i\\ \hat{b}=y_k-w^Tx_k=y_k-\sum\limits_{i=1}^N\lambda_iy_ix_i^Tx_k,\exist k,1-y_k(w^Tx_k+b)=0 w^=i=1Nλiyixib^=ykwTxk=yki=1NλiyixiTxk,k,1yk(wTxk+b)=0 当允许一点错误的时候,可以在 Hard-margin SVM 中加入错误项。用 Hinge Function 表示错误项的大小,得到: a r g m i n w , b 1 2 w T w + C ∑ i = 1 N ξ i   s . t .   y i ( w T x i + b ) ≥ 1 − ξ i , ξ i ≥ 0 , i = 1 , 2 , ⋯   , N \mathop{argmin}{w,b}\frac{1}{2}w^Tw+C\sum\limits{i=1}^N\xi_i\ s.t.\ y_i(w^Tx_i+b)\ge1-\xi_i,\xi_i\ge0,i=1,2,\cdots,N argminw,b21wTw+Ci=1Nξi s.t. yi(wTxi+b)1ξi,ξi0,i=1,2,,N 对于完全不可分的问题,我们采用特征转换的方式,在 SVM 中,我们引入正定核函数来直接对内积进行变换,只要这个变换满足对称性和正定性,那么就可以用做核函数。

你可能感兴趣的:(机器学习白板推导)