LASSO 问题的第二类 Nesterov 加速算法

LASSO 问题的第二类 Nesterov 加速算法

      • LASSO 问题的第二类 Nesterov 加速算法
          • 初始化和迭代准备
          • 迭代主循环
          • 辅助函数

LASSO 问题的第二类 Nesterov 加速算法

对于 LASSO 问题

min ⁡ x 1 2 ∥ A x − b ∥ 2 2 + μ ∥ x ∥ 1 , \displaystyle\min_x \frac{1}{2}\|Ax-b\|_2^2 + \mu \|x\|_1, xmin21Axb22+μx1,

利用第二类 Nesterov 加速的近似点梯度法进行优化。

该算法被外层连续化策略调用,在连续化策略下完成某一固定正则化系数的内层迭代优化。第二类 Nesterov 加速算法的迭代格式如下 z k = ( 1 − γ k ) x k − 1 + γ k y k − 1 , y k = p r o x ( t k / γ k ) h ( y k − 1 − t k γ k A ⊤ ( A z k − b ) ) , x k = ( 1 − γ k ) x k − 1 + γ k y k . \begin{array}{rl}\displaystyle z^k= &\hspace{-0.5em} (1-\gamma_k)x^{k-1}+\gamma_k y^{k-1}, \\ y^k= &\hspace{-0.5em} \mathrm{prox}_{(t_k/\gamma_k)h} \left(y^{k-1}-\frac{t_k}{\gamma_k}A^\top(Az^k-b)\right), \\ x^k= &\hspace{-0.5em} (1-\gamma_k)x^{k-1}+\gamma_k y^k. \end{array} zk=yk=xk=(1γk)xk1+γkyk1,prox(tk/γk)h(yk1γktkA(Azkb)),(1γk)xk1+γkyk.

初始化和迭代准备

函数在 LASSO 连续化策略下,完成内层迭代的优化。

输入信息: A A A, b b b, μ \mu μ ,迭代初始值 x 0 x^0 x0 ,原问题对应的正则化系数 μ 0 \mu_0 μ0
以及提供各参数的结构体 |opts| 。

输出信息: 迭代得到的解 x x x 和结构体 |out| 。

  1. |out.fvec| :每一步迭代的原始 LASSO 问题目标函数值(对应于原问题的 μ 0 \mu_0 μ0
  2. |out.fval| :迭代终止时的原始 LASSO 问题目标函数值(对应于原问题的 μ 0 \mu_0 μ0
  3. |out.nrmG| :迭代终止时的梯度范数
  4. |out.tt| :运行时间
  5. |out.itr| :迭代次数
  6. |out.flag| :记录是否收敛
function [x, out] = LASSO_Nesterov2nd_inn(x0, A, b, mu, mu0, opts)

从输入的结构体 |opts| 中读取参数或采取默认参数。

  1. |opts.maxit| :最大迭代次数
  2. |opts.ftol| :针对函数值的停机准则,当相邻两次迭代函数值之差小于该值时认为该条件满足
  3. |opts.gtol| :针对梯度的停机准则,当当前步梯度范数小于该值时认为该条件满足
  4. |opts.alpha0| :步长的初始值
  5. |optsz.verbose| :不为 0 时输出每步迭代信息,否则不输出
if ~isfield(opts, 'maxit'); opts.maxit = 10000; end
if ~isfield(opts, 'ftol'); opts.ftol = 1e-8; end
if ~isfield(opts, 'gtol'); opts.gtol = 1e-6; end
if ~isfield(opts, 'verbose'); opts.verbose = 1; end
if ~isfield(opts, 'alpha0'); opts.alpha0 = 1e-3; end

初始化, t t t 为步长,初始步长由 |opts.alpha0| 提供。

k = 0;
tt = tic;
x = x0;
y = x;
t = opts.alpha0;

g = A ⊤ ( A x − b ) g=A^\top(Ax-b) g=A(Axb) 为可微部分的梯度, f = 1 2 ∥ A x − b ∥ 2 + μ ∥ x ∥ 1 f=\frac{1}{2}\|Ax-b\|^2+\mu\|x\|_1 f=21Axb2+μx1 为优化的目标函数, |nrmG|在初始时刻用一步近似点梯度法(步长为 1 1 1)的位移作为梯度的估计,用于收敛性的判断。

fp = inf;
r = A*x0 - b;
g = A'*r;
tmp = .5*norm(r,2)^2;
f = tmp + mu0*norm(x,1);
nrmG = norm(x - prox(x - g,mu),2);
out = struct();
out.fvec = tmp + mu0*norm(x,1);
迭代主循环

当达到最大迭代次数,或梯度或函数值的变化大于阈值时,退出迭代。

while k < opts.maxit && nrmG > opts.gtol && abs(f - fp) > opts.ftol
    fp = f;

第二类 Nesterov 加速算法迭代。定义 γ k = 2 k + 1 \gamma_k=\frac{2}{k+1} γk=k+12。记 ϕ ( z ) = 1 2 ∥ A z − b ∥ 2 2 \phi(z)=\frac{1}{2}\|Az-b\|_2^2 ϕ(z)=21Azb22, ∇ ϕ ( z k ) = A ⊤ ( A z k − b ) \nabla \phi(z^k)=A^\top(Az^k-b) ϕ(zk)=A(Azkb) z k = ( 1 − γ k ) x k − 1 + γ k y k − 1 , y k = p r o x ( t k / γ k ) h ( y k − 1 − t k γ k ∇ ϕ ( z k ) ) , x k = ( 1 − γ k ) x k − 1 + γ k y k . \begin{array}{rl} \displaystyle z^k = & \hspace{-0.5em}(1-\gamma_k)x^{k-1}+\gamma_ky^{k-1},\\ \displaystyle y^k = & \hspace{-0.5em} \mathrm{prox}_{(t_k/\gamma_k)h}(y^{k-1}-\frac{t_k}{\gamma_k}\nabla \phi(z^k)),\\ x^k= & \hspace{-0.5em}(1-\gamma_k)x^{k-1}+\gamma_ky^k. \end{array} zk=yk=xk=(1γk)xk1+γkyk1,prox(tk/γk)h(yk1γktkϕ(zk)),(1γk)xk1+γkyk.

通过迭代更新 { x k } { y k } { z k } \{x^k\}\{y^k\}\{z^k\} {xk}{yk}{zk} 三个序列实现第二类 Nesterov 加速算法。

    rk = 2/(k+1);
    z = (1- rk)*x + rk*y;
    r = A * z - b;
    g = A' * r;
    y = prox(y - t/rk * g, t/rk*mu);
    x = (1 - rk)*x + rk*y;

​ 更新变量和函数值。

    Axb = A*x - b;
    nrmG = norm(x - prox(x - A'*(A*x -b), mu),2);
    f = .5*norm(Axb,2)^2 + mu0*norm(x,1);

​ 迭代步加一,记录当前函数值。输出信息。

    k = k + 1;
    out.fvec= [out.fvec, f];

    if opts.verbose
        fprintf('itr: %d\tt: %e\tfval: %e\tnrmG: %e\n', k, t, f, nrmG);
    end

特别的,除了上述的停机准则外,如果连续 20 20 20 步的函数值不下降,则停止内层循环。

    if k > 20 && min(out.fvec(k-19:k)) > out.fvec(k-20)
        break;
    end
end

当达到最大迭代次数退出时, out.flag 记为 1 ,否则为达到收敛,记为 0。这个指标用于判断是否进行正则化系数的衰减。

if k == opts.maxit
    out.flag = 1;
else
    out.flag = 0;
end

记录输出信息。

out.fvec = out.fvec(1:k);
out.fval = f;
out.itr = k;
out.tt = toc(tt);
out.nrmG = nrmG;
end
辅助函数

函数 h ( x ) = μ ∥ x ∥ 1 h(x)=\mu\|x\|_1 h(x)=μx1 对应的邻近算子 s i g n ( x ) max ⁡ { ∣ x ∣ − μ , 0 } \mathrm{sign}(x)\max\{|x|-\mu,0\} sign(x)max{xμ,0}

function y = prox(x, mu)
y = max(abs(x) - mu, 0);
y = sign(x) .* y;
end

你可能感兴趣的:(最优化算法,算法,机器学习,python)