【转载】关于核范数和一范数的优化

原文链接: https://www.cnblogs.com/quarryman/p/robust_pca.html

下面转载的文章实在是太精彩了,对一范数、核范数的优化讲的很清晰,到此我更加明白了优化的原理。

参考:https://www.jeddd.com/article/use-python-to-solve-lasso-by-pgd-admm-and-subgd.html

以及交替优化的方法中,固定一个参数,求最小值时另一个参数变化,也就是相当于减少了一个约束。因为当一个参数固定时,改参数是不影响函数的最值的,所以优化时可以忽略不计。我也会在下面讲解。

转载的文章链接:https://www.cnblogs.com/quarryman/p/robust_pca.html

有兴趣的同学可以去看原文

【转载】关于核范数和一范数的优化_第1张图片

主要注意点:

1. 核范数优化时,采用了如下的形式,进行拓展

 

 

你可能感兴趣的:(人工智能)