一文理解拉格朗日对偶和KKT条件

一. 最优化问题求解

1. 等式约束的极值求法

$$ \begin{gather*} \underset{t}{min} f(t) \; s.t.\; h_i(t)=0,i=1,\cdots,p \end{gather*} $$

目标函数: $f(t)$, 引入Lagrange算子:$L(t,\beta) = f(t) + \sum_{i=1}^n\beta_ih_i(t)$

2. 不等式约束的极值求法

$$ \begin{gather*} \underset{t}{min}f(t) \; s.t. &g_i(t) \le 0, i=1,\cdots,p \\ &h_j(t) = 0, j=1, \cdots, q \end{gather*} $$

目标函数: $f(t)$
约束条件:

  • $g_i(t) \le 0, i=1, \cdots, p$
  • $h_j(t) \le 0, j=1, \cdots, q$

很多情况, 不等式约束条件可引入新变量转化为等式约束条件, 故上述问题可简化为:

$$ \underset{t}{min}f(t)\;s.t.\; g_i(t) = 0, i=1, \cdots, n $$

3. 最优化问题分类

根据约束条件和目标函数的类型分为3类:

  1. 线性规划: 目标函数和约束条件都为变量的线性函数
  2. 二次规划: 目标函数为变量的二次函数, 约束条件为线性函数
  3. 非线性规划: 目标函数或者约束条件是非线性函数

4. KKT条件广义定义

KKT条件指在满足某些规则条件下, 非线性规划问题能有最优解的充要条件, 是广义拉格朗日乘数的重要成果
一般优化问题(含等式和不等式约束约束):

$$ \begin{gather*} \underset{t}{min}f(t) \; s.t. &g_i(t) \le 0, i=1,\cdots,p \\ &h_j(t) = 0, j=1, \cdots, q \end{gather*} $$

引入Lagrange算子$\alpha, \beta$:

$$ L(t, \alpha, \beta) = f(t) + \sum_{i=1}^p\alpha_i g_i(t) + \sum_{j=1}^q\beta_j h_j(t) $$

可将$\alpha和\beta$分别看做两个约束$g_i(t) \le 0和g_j(t) \ 0$的限制条件

KKT条件指上述问题的最优点$x^*$必须满足:
(1) 约束条件满足: $g_i(x^*) \le0, h_i(x^*)=0$
(2) $\nabla L(t,\alpha,\beta)|_{t=x^*} = \nabla f(x^*) + \sum_{i=1}^p\alpha_i\nabla g_i(x^*) + \sum_{j=1}^q \beta_j \nabla h_j(x^*) = 0$
即,
最优点$x^*$处, $\nabla f$必须是$\nabla g_i$和$\nabla h_j$的线性组合
引入拉格朗日算子可以求出极值的原因:

由于$f(t)$的$dt$变化方向受其他不等式的约束, 且在极值$x^*$处,$f(t$)的梯度$\nabla f(x^*)$与$\nabla g(x^*)$,$\nabla h(x^*)$之间存在线性关系, 故引入拉格朗日算子可以求出极值

(3) $\beta_j \ne 0$且$\alpha_i \ge 0,\; \alpha_i g_i(x^*) = 0$

不等式$g_i(t)\le0$的限制条件有方向性, 故$\alpha_i \ge 0$, 等式$h_j(t)=0$的限制条件无方向性, 故$\beta_j$无符号限制

5 为什么SVM用Lagrange duality来解决最大化间隔问题?

不等式约束一直是优化问题中的难题,求解对偶问题可以将支持向量机原问题约束中的不等式约束转化为等式约束;

支持向量机中用到了高维映射,但是映射函数的具体形式几乎完全不可确定,而求解对偶问题之后,可以使用核函数来解决这个问题。

并不一定要用拉格朗日对偶。要注意用拉格朗日对偶并没有改变最优解,而是改变了算法复杂度:
在原问题下,求解算法的复杂度与样本维度(等于权值w的维度)有关;
而在对偶问题下,求解算法的复杂度与样本数量(等于拉格朗日算子a的数量)有关。

因此,

  1. 如果你是做线性分类,且样本维度低于样本数量的话,在原问题下求解就好了,Liblinear之类的线性SVM默认都是这样做的;
  2. 如果你是做非线性分类,那就会涉及到升维(比如使用高斯核做核函数,其实是将样本升到无穷维),升维后的样本维度往往会远大于样本数量,此时显然在对偶问题下求解会更好。

这样:

  • 就可以由求特征向量w转化为求比例系数a,
  • 就可以导出含有内积形式的目标函数,
  • 就可以实现对内积后的gram矩阵使用核函数,以达到非线性分类的目的。

支持向量机实现非线性的方法的数学本质是升维,升维升到无穷维则无法表达w, 所以还是使用拉格朗日对偶方法更好一点。准确的说,可以用一些优化算法直接求最小间距,但是,升维的时候核要是正定的,且升维可数,而且不是很大的时候可以用。

二. 拉格朗日对偶和KKT

1. 带约束的优化问题

任意一个带约束的优化均可写成:

$$ \begin{gather*} \underset{x}{min}{f_0(x)}\;s.t. &f_i(x) \le 0, i= 1,\cdots,m \\ &h_i(x)=0,i=1,\cdots,p \end{gather*} $$

  • 对于任意$f_i(x) \le 0$均有$h_i(x)=0$.
  • 一个$maxf(x)$问题可以转化为$1-maxf(x)$
  • 假定$f_0,f_1,\cdots,f_m$为凸函数,$h_1,h_2,\cdots,h_p$是仿射函数(形如$Ax+b$),则上述问题为凸优化问题, 凸优化问题极值唯一

2. primal problem

将上述带约束的优化问题转化为无约束优化问题, 定义拉格朗日(Lagrangian)函数如下:

$$ L(x,\lambda,v) = f_0(x) + \sum_{i=1}^m\lambda_if_i(x) + \sum_{i=1}^pv_ih_i(x) $$

最大化Lagrangian, 令

$$ z(x) = \underset{\lambda \ge 0,v}{max}L(x,\lambda,v) $$

z(x)满足原始约束条件的x, 其值等于$f_0(x)$:
满足初始约束, 则$h_i(x)=0$, 拉格朗日函数第三项被消去:
$$L(x,\lambda,v)=f_0(x) + \sum_{i=1}^m\lambda_if_i(x) $$
又因为$\lambda_if_i(x)\le0$, 所以$L(x,\lambda,v)$的最大值在$f_0(x)$处取得.

所以原始带约束优化问题等价于以下无约束优化问题:

$$ \begin{gather*} min{f_0(x)}\;s.t. &f_i(x) \le 0, i= 1,\cdots,m \\ &h_i(x)=0,i=1,\cdots,p \end{gather*} $$

等价于:

$$ \underset{x}{min}z(x) = \underset{x}{min} \;\underset{\lambda \ge0,v}{max}L(x,\lambda,v) $$

上述问题称为primal problem
总结:

  1. 一个带约束的优化问题均可用$minf_0(x)$表示
  2. 用拉格朗日函数将带约束优化转为无约束优化问题
  3. 初始约束条件总可写成$f_i(x)\le0$的形式, 且拉格朗日算子$\lambda_i\ge0$, 所以$maxL(x,\lambda,v)$可去掉约束条件:

去约束:
$f_0(x)\;\cdots s.t. \; f_i(x)\ge0 ,\;h_i(x)=0 \cong \underset{\lambda\ge0,v}{max}L(x,\lambda,v)$
最优化:
$\underset{x}{min}f_0(x) \cong \underset{x}{min} \; \underset{\lambda\ge0,v}{max}L(x,\lambda,v)$

3. dual problem

dual problem 只是将primal proble调换了min和max位置:

$$ \underset{\lambda \ge0,v}{max} \;\underset{x}{min}L(x,\lambda,v) $$

注意上式和$$
underset{x}{min} ;underset{lambda ge0,v}{max}L(x,lambda,v)
$$并不等价.
令:

$$ g(\lambda,v) = \underset{x}{min}L(x,\lambda,v) $$

上式中$g(\lambda,v)$为拉格朗日对偶函数(Lagrange dual function), $g(\lambda,v)$是primal function的一个下界.
即, 若将primal proble的最小值记为$p^*$, 则对于所有的$\lambda \ge 0和v$, 有:

$$ g(\lambda,v) \le p^* $$

证明:
对所有满足约束条件的x, 总有:

$$ \sum_{i=1}^m\lambda_i f_i(x) + \sum_{i=1}^pv_ih_i(x) \le 0 $$

因此

$$ L(x,\lambda,v) = f_0(x)+\sum_{i=1}^m\lambda_i f_i(x) + \sum_{i=1}^pv_ih_i(x) \le f_0(x) $$

假设$L(x,\lambda,v)$在$x^*$处取得极值, 则
$$minf_0(x) = f_0(x^*)$$
代入上式:

$$ L(x^*,\lambda,v) = f_0(x^*)+\sum_{i=1}^m\lambda_i f_i(x^*) + \sum_{i=1}^pv_ih_i(x^*) \le f_0(x^*) = p^* $$

于是

$$ g(\lambda,v) = \underset{x}{min}L(x,\lambda,v) \le L(x^*,\lambda,v) \le f_0(x^*) = p* $$

这样, $g(\lambda,v)$的下界是$p^*$,于是:

$$ \underset{\lambda \ge0,v}{max}g(\lambda,v) $$

是primal problem的最大下界!
记dual problem 的最优值为$d^*$, 得到:

$$ d^* \le p^* $$

该性质称为weak duality, 对所有的优化问题都成立.
此外,
$$p^*-d^*$$称为duality gap.

基于weak duality的重要结论:

无论 primal problem 是什么形式,dual problem 总是一个 convex optimization 的问题——它的极值是唯一的(如果存在的话). 对于那些难以求解的 primal problem (甚至可以是 NP 问题),我们可以通过找出它的 dual problem ,通过优化这个 dual problem 来得到原始问题的一个下界估计。


$$d^* = p^*$$成立时,称为strong duality.

strong duality 成立的情况下,我们可以通过求解 dual problem 来优化 primal problem, 例如SVM 的时候我们直接假定了 strong duality 的成立.

4. KKT条件

4.1 slater条件

严格满足约束条件的点x, 指$f_i(x)\le0$严格到$f_i(x)<0$, 即存在x满足:

$$ f_i(x) <0\;i=1,\cdots,m\\ h_i(x)=0\;i=1,\cdots,p $$

4.2 strong duality

原始问题是convex且满足slater条件,则strong duality成立: $d^*=p^*$
特例: 对某些非convex optimization,strong duality也成立

4.3 SVM中的strong duality

  • SVM是一种convex optimization, SVM中通过QP(quadratic programming凸二次规划)求解, QP是凸优化问题的特殊情况
  • slater条件在SVM中等价于存在超平面能将数据分隔开来

4.4 strong duality成立时的性质

  1. 回顾primal problem和dual problem

primal problem: $\underset{x}{min}\;\underset{\lambda \ge 0,v}{max}L(x,\lambda,v)$
dual problem: $\underset{\lambda \ge 0,v}{max}\;\underset{x}{min}L(x,\lambda,v)$

  1. dual problem极值$d^*$在$(\lambda^*,v^*)$处取得, primal problem极值$p^*$在$x^*$处取得
  2. strong duality成立, 则$d^*=p^*$, duality gap为0
  3. $f_0(x^*)\le f_0(x^*)$成立:

$$ \begin{align*} f_0(x^*) &=g(\lambda^*,v^*) \\ &=\underset{x}{min} \left( f_0(x)+\sum_{i=1}^m\lambda_i^*f_i(x)+\sum_{i=1}^pv_i^*h_i(x) \right) \\ &\le f_0(x^*)+\sum_{i=1}^m\lambda_i^*f_i(x^*)+\sum_{i=1}^pv_i^*h_i(x^*) \\ &\le f_0(x^*) \end{align*} $$

$$ f_0(x^*) \le f_0(x) + \sum_{i=1}^m\lambda_if_i(x) + \sum_{i=1}^pv_ih_i(x) $$

得:

$$ f_0(x^*) \le L(x^*,\lambda^*,v^*) $$

所以$x^*$是$L(x,\lambda^*,v^*)$的一个极值点, 所以:

$$ \nabla f_0(x^*) + \sum_{i=1}^m\lambda_i^*\nabla f_i(x^*) + \sum_{i=1}^pv_i^*\nabla h_i(x^*)=0 \;(条件1) $$

又由

$$ f_0(x^*) \le f_0(x^*)+\sum_{i=1}^m\lambda_i^*f_i(x^*)+\sum_{i=1}^pv_i^*h_i(x^*) $$

得:

$$ \lambda_i^*f_i(x^*) \le 0 $$

故极值点$x^*$处:

$$ \lambda_i^*f_i(x^*)=0,\;i=1,\cdots,m\;(条件2) $$

条件(1)(2)合起来称为complementary slackness.

4.5 complementary slacknes条件分析

条件(2)中若$\lambda_i^*>0$必有$f_i(x^*)=0$, 反之, 若$f_i(x^*)<0$可得$\lambda_i^*=0$, 此条件在SVM中用来证明非支持向量$f_i(x^*)<0$对应的系数$\alpha_i$

4.6 引入KKT条件

complementary slacknes加上其他约束条件即为KKT条件:

$$ \begin{align*} \nabla f_0(x^*) + \sum_{i=1}^m\lambda_i^*\nabla f_i(x^*) + \sum_{i=1}^pv_i^*\nabla h_i(x^*)&=0 &(条件1) \\ \lambda_i^*f_i(x^*)&=0,\; i=1,\cdots,m&(条件2) \\ f_i(x^*) &\le 0,\; i=1,\cdots,m&(条件3) \\ \lambda_i^* &\ge0,\;i=1,\cdots,m&(条件4) \\ h_i(x^*) &= 0,\; i=1,\cdots,p&(条件5) \end{align*} $$

  • 任何满足strong duality的问题都满足KKT条件
  • primal problem是convex optimization problem是, KKT升级为充要条件, 通过KKT条件可求得$x^*$,$(\lambda^*,v^*)$分别是primal problem和dual problem的极值点,且strong duality成立

总结

通过dual problem可求primal problem的解:

  1. 只有weak duality成立时, 至少可得到一个(primal problem的)下界
  2. strong duality成立,则直接求解dual problem
    dual problem可能比primal problem更易求解
    dual problem可能有一些优良的结构(SVM通过dual problem将问题转化为内积以使用kernel trick)
  3. 迭代求解中, 会同事求解dual和primal problem, 通过duality gap来early stopping

你可能感兴趣的:(机器学习,svm,深度学习)