熟悉机器学习算法里面的线性回归或者逻辑回归的同学因该明白LASSO问题,其定义为:
LASSO是Tibshirani(对就是Tibshirani)在1996年JRSSB上的一篇文章上《Regression shrinkage and selection via lasso》提出的。所谓lasso,其全称是least absolute shrinkage and selection operator,其含义是在限制了 ∑∥β∥1≤s 的情况下,求使得残差平和达到最小的参数的估值。Tibshirani指出,对于回归算法,当 s 足够小的时候,会使得某些回归系数的估值是0,可以起到变量选择的作用,是逐步回归的一种表现。
因此,对于LASSO算法,其是否是凸优化问题?它的解集合是否是唯一的点?
答案是,LASSO问题是凸优化问题,因为 f(x)=∥y−Xβ∥22 和 g(x)=∥β∥1−s 均是凸函数,因此该问题为凸优化问题;如果样本数目 n 大于特征数目 p ,且X满秩,那么 ∇2f(β)=2XTX⪰0 ,关于 β 二阶微分恒为半正定p.s.d.,因此,解是唯一的;但是,如果样本数目 n 小于特征数目 p ,那么会造成高维特征空间上的维数灾难问题,此时,X为奇异矩阵,则解不唯一。
另一个实例是SVM算法,SVM算法的理论部分我就不多介绍了,会在机器学习算法篇章中对SVM做着重介绍,如果我们记SVM为:
其中, 1∥β∥ 为下图两个虚线边界的距离, ξ 为引入分类错误的代价,代表下图错分样本点距正确分类边界的距离。具体如下图:
那么,该问题是否为凸优化问题呢?它的解是否是唯一?
答案是,SVM目标函数是凸优化问题,但是,它的解并不唯一,因为它不是严格凸函数。有兴趣的同学可以留言来解释为什么SVM是凸优化问题!
局部最优解的定义为:如果 ∃R>0 ,使得 f(x)≤f(y) ,其中y满足 ∥x−y∥2≤R ,则点x为优化问题的局部最优解(locally optimal)。
对于凸优化问题,凸函数有一个特别的性质,即局部最优解是全剧最优解(local minima are global minima),即如果 x∈D ,同时 x 满足所有约束,那么对于局部 y,∥x−y∥2≤ρ ,当 f(x)≤f(y) 时,对于所有可行解 y,f(x)≤f(y) 。相反,非凸优化问题则不具有该性质,如下图所示。
那么我们需要证明的是为什么凸优化问题的局部最优值就是全局最优值?
证明:这里,我们采用反证法来证明该理论,假设x为凸优化问题的局部最优解,意味着函数在 ρ 范围内的点的值都小于 f(x) 。如果我们假设定理是错误的,那么必然存在一点 z ,使得 f(z)<f(x) ,且 ∥z−x∥2>ρ 。
此时,假设存在一点 y ,使得 y=tz+(1−t)x ,其中 t∈[0,1] ,那么:
y∈D ,因为 x∈D ,同时 z∈D ,二者线性组合也必然存在于D;
gi(y)=tgi(z)+(1−t)gi(x)≤0 ,因为 gi(z),gi(x)≤0 ;
hi(j)=aTj(tz+(1−t)x)+bj=aTj(tz+(1−t)x)+tbj+(1−t)bj=0 。
因此,意味着 y 同样也是是凸优化问题的可行解。
然后,因为点 y 在 t∈[0,1] 内均成立,所以我们可以假设 t 足够小,但大于0,使得 y 可以落在点 x 以 ρ 为半径的圆内,这时,对于凸优化问题中可行解的两个点 z,x 之间的点 y ,我们可以得到如下公式:
又因为 t→0 ,且之前假设 f(z)<f(x) ,所以 tf(z)<tf(x) ,因此 f(y)<f(x) ,这就与之前最开始假设x为局部最优解的定义相违背,因此,我们最终证明得到local minima are global minima。
等价于:
其中 f~(x1)=min{f(x1,x2):g2(x2)≤0} ;
SVM采用的hinge loss就是利用的partial optimization的思想。如果我们把SVM优化问题的目标函数记为:
那么我们可以将约束改写为 ξi≥max{0,1−yi(xTiβ+β0)} ,SVM在优化过程中选用的hinge form就是将约束中的大于等于改写为等于,即:
因此,优化目标函数就变为:
上式就是SVM求解目标函数的最终形式,可称为hinge form of SVMs。
优化方法中的最大似然估计MLE就采用log函数对目标函数进行变换,就是采用的这个思想。
SVM算法都引入slack variables来允许训练误差的出现,防止模型过拟合。
凸优化问题根据目标函数和约束函数的形式分为:
Ryan教授给了一个非常形象的例子来解释凸优化问题在优化问题领域的位置,以及以上几种优化问题间的关联关系,如下图:
线性规划问题(LPs)定义是优化问题满足以下形式,线性规划的实例包括diet problem, transportation problem, basis pursuit和Dantzig selector等:
二次规划问题(QPs)定义是优化问题满足以下形式,二次规划的实例包括portfolio optimization, lasso, SVM等:
其中, Q⪰0 是半正定。这里需要注意的是,当Q不是半正定的时候,上述问题则不属于凸优化问题。同样,当 Q=0 时,二次规划问题就变为线性规划问题。
半正定规划问题(SDPs)定义是优化问题满足以下形式:
其中, Fj∈Sd ,同时, A∈Rm×n 。从上面的定义可以看出,和线性规划的定义基本一样,这里SDPs要求 Fj 为矩阵,而LPs为向量,所以线性规划一定隶属于半正定规划的一个特例。