机器学习笔记_ 数值最优化_3:KKT条件

KKT条件(几何的解释)

对于凸优化,KKT条件的点就是其极值点(可行下降方向)。

  • x是非线性规划的局部最小点,目标函数f(x)x可微,约束方程(g(x))在x处可微,连续;则X*点不存在可行下降方向(因为已经是局部最小点了)

  • 若极小值点在内部,则无约束问题,直接拉格朗日乘子法

  • 若极小值在边界上,(gi(x)=0)
  • 互补松弛条件
    f(x)γ1g1(x)γ2g2(x)=0
    γi0γigi(x)=0
    满足其他约束

  • 一阶得到是局部极值点 ,还需要通过二阶判断是否是鞍点


强对偶条件( 鞍点解释)->对偶函数取下确界,则对偶函数一定是凹函数

  • 原函数不好求,转换为求解对偶函数,则对偶函数下确界求得,则比为凹函数(负号为凸函数)
  • 上确界求得,比为凸函数
  • 满足KKT条件后,对偶函数和原函数最优值相等
  • 求解对偶函数,及求解凸函数
  • 对偶和原函数相等(对偶间隔=0)需要满足的式子也是KKT,同时最优点是鞍点,也就是KKT方程的解

机器学习笔记_ 数值最优化_3:KKT条件_第1张图片

机器学习笔记_ 数值最优化_3:KKT条件_第2张图片


对偶问题:若要对偶函数的最大值即为原问题的最小值问题(对偶间隙是0),解凸优化问题等价于解KKT方程;

  • f0(x)=g(λ,ν)>
    =infx(f0(x)+i=1mλifi(x)+i=1pvihi(x)
    infx(f0(x)+i=1mλifi(x)+i=1pvihi(x)
    f0(x)

上式等号成立需要:

fi(x)0,i=1,...,m
hi(x)=0,i=1,...,m
λi0,i=1,...,m
λifi(x)=0,i=1,...,m
f0(x)+i=1mλifi(x)+i=1pvihi(x)=0

你可能感兴趣的:(机器学习)