LASSO 问题的 Nesterov 加速算法(FISTA 算法)

LASSO 问题的 Nesterov 加速算法(FISTA 算法)

      • LASSO 问题的 Nesterov 加速算法(FISTA 算法)
          • 初始化和迭代准备
          • 迭代主循环
          • 辅助函数

LASSO 问题的 Nesterov 加速算法(FISTA 算法)

对于 LASSO 问题

min ⁡ x 1 2 ∥ A x − b ∥ 2 2 + μ ∥ x ∥ 1 , \displaystyle\min_x \frac{1}{2}\|Ax-b\|_2^2 + \mu \|x\|_1, xmin21Axb22+μx1,

利用 Nesterov 加速的近似点梯度法进行优化。

该算法被外层连续化策略调用,在连续化策略下完成某一固定正则化系数的内层迭代优化。

在每一步迭代时,算法首先在之前两步迭代点的基础上进行一步更新 y k = x k − 1 + k − 2 k + 1 ( x k − 1 − x k − 2 ) y^k=x^{k-1}+\frac{k-2}{k+1}(x^{k-1}-x^{k-2}) yk=xk1+k+1k2(xk1xk2),然后再在 y k y^k yk 处进行一步近似点梯度法, x k = p r o x t k ∥ ⋅ ∥ 1 ( y k − t k A ⊤ ( A y k − b ) ) x^k=\mathrm{prox}_{t_k\|\cdot\|_1}(y^k-t_k A^\top(Ay^k-b)) xk=proxtk1(yktkA(Aykb))

初始化和迭代准备

函数在 LASSO 连续化策略下,完成内层迭代的优化。

输入信息: A A A, b b b, μ \mu μ ,迭代初始值 x 0 x^0 x0 ,原问题对应的正则化系数 μ 0 \mu_0 μ0 ,以及提供各参数的结构体 |opts| 。

输出信息: 迭代得到的解 x x x 和结构体 |out| 。

  1. |out.fvec| :每一步迭代的原始 LASSO 问题目标函数值(对应于原问题的 μ 0 \mu_0 μ0
  2. |out.fval| :迭代终止时的原始 LASSO 问题目标函数值(对应于原问题的 μ 0 \mu_0 μ0
  3. |out.nrmG| :迭代终止时的梯度范数
  4. |out.tt| :运行时间
  5. |out.itr| :迭代次数
  6. |out.flag| :记录是否收敛
function [x, out] = LASSO_Nesterov_inn(x0, A, b, mu, mu0, opts)

从输入的结构体 |opts| 中读取参数或采取默认参数。

  1. |opts.maxit| :最大迭代次数
  2. |opts.ftol| :针对函数值的停机准则,当相邻两次迭代函数值之差小于该值时认为该条件满足
  3. |opts.gtol| :针对梯度的停机准则,当当前步梯度范数小于该值时认为该条件满足
  4. |opts.alpha0| :步长的初始值
  5. |optsz.verbose| :不为 0 时输出每步迭代信息,否则不输出
  6. |opts.ls| :标记是否线搜索
  7. |opts.bb| :标记是否采用 BB 步长
if ~isfield(opts, 'maxit'); opts.maxit = 10000; end
if ~isfield(opts, 'ftol'); opts.ftol = 1e-8; end
if ~isfield(opts, 'gtol'); opts.gtol = 1e-6; end
if ~isfield(opts, 'verbose'); opts.verbose = 1; end
if ~isfield(opts, 'alpha0'); opts.alpha0 = 1e-3; end
if ~isfield(opts, 'ls'); opts.ls = 1; end
if ~isfield(opts, 'bb'); opts.bb = 0; end

初始化, t t t 为步长,初始步长由 |opts.alpha0| 提供。

k = 0;
t = opts.alpha0;
tt = tic;
x = x0; % x^k-1
y = x; % y^k
xp = x0; % xp^k-2

g = A ⊤ ( A x − b ) g=A^\top(Ax-b) g=A(Axb) 为可微部分的梯度, f = 1 2 ∥ A x − b ∥ 2 + μ ∥ x ∥ 1 f=\frac{1}{2}\|Ax-b\|^2+\mu\|x\|_1 f=21Axb2+μx1 为优化的目标函数, |nrmG| 在初始时刻用一步近似点梯度法(步长为 1 1 1)的位移作为梯度的估计,用于收敛性的判断。

fp = inf;
r = A*x0 - b;
g = A'*r;
tmp = .5*norm(r,2)^2;
f =  tmp + mu0*norm(x,1);
tmpf = tmp + mu*norm(x,1);
nrmG = norm(x - prox(x - g,mu),2);
out = struct();
out.fvec = tmp + mu0*norm(x,1);

线搜索参数。

Cval = tmpf; 
Q = 1; 
gamma = 0.85; 
rhols = 1e-6;
迭代主循环

当达到最大迭代次数,或梯度或函数值的变化大于阈值时,退出迭代。

while k < opts.maxit && nrmG > opts.gtol && abs(f - fp) > opts.ftol

记录上一步的迭代信息。

    gp = g;
    yp = y;
    fp = tmpf;

Nesterov 加速的近似点梯度法。首先,计算辅助变量 y k = x k − 1 + k − 2 k + 1 ( x k − 1 − x k − 2 ) y^k=x^{k-1}+\frac{k-2}{k+1}(x^{k-1}-x^{k-2}) yk=xk1+k+1k2(xk1xk2)

    theta = (k - 1) / (k + 2);
    y = x + theta * (x - xp);
    xp = x;
    r = A * y - b;
    g = A' * r;

w k = y k − t k A ⊤ ( A y k − b ) w^k=y^k-t_kA^\top(Ay^k-b) wk=yktkA(Aykb) 计算步长 t k t_k tk,当 |opts.ls=1| 且 |opts.bb=1| 时计算 BB 步长,作为线搜索的初始步长。
d y k = y k + 1 − y k \mathrm{d}y^k=y^{k+1}-y^k dyk=yk+1yk, d g k = g k + 1 − g k \mathrm{d}g^k=g^{k+1}-g^k dgk=gk+1gk,这里在偶数与奇数步分别对应 ( d y k ) ⊤ d y k ( d y k ) ⊤ d g k \displaystyle\frac{(\mathrm{d}y^k)^\top \mathrm{d}y^k}{(\mathrm{d}y^k)^\top \mathrm{d}g^k} (dyk)dgk(dyk)dyk ( d y k ) ⊤ d g k ( d g k ) ⊤ d g k \displaystyle\frac{(\mathrm{d}y^k)^\top \mathrm{d}g^k}{(\mathrm{d}g^k)^\top \mathrm{d}g^k} (dgk)dgk(dyk)dgk 两个 BB 步长。

    if opts.bb && opts.ls
        dy = y - yp;
        dg = g - gp;
        dyg = abs(dy'*dg);

        if dyg > 0
            if mod(k,2) == 0
                t = norm(dy,2)^2/dyg;
            else
                t = dyg/norm(dg,2)^2;
            end
    	end  

​ 将更新得到的 BB 步长 t k t_k tk 限制在阈值 [ t 0 , 1 0 12 ] [t_0,10^{12}] [t0,1012] 内。

		t = min(max(t,opts.alpha0),1e12);

​ 如果不需要计算 BB 步长,则直接选择默认步长。

    else
        t = opts.alpha0;
    end   

在当前步长下进行一步迭代得到 w k = y k − t k A ⊤ ( A y k − b ) w^k=y^k-t_kA^\top(Ay^k-b) wk=yktkA(Aykb) x k = p r o x t k h ( w k ) x^k=\mathrm{prox}_{t_kh}(w^k) xk=proxtkh(wk)

    x = prox(y - t * g, t * mu);

当 |opts.ls=1| 时进行线搜索。在满足线搜索条件或者已经 5 次步长衰减之后退出,否则以 0.2 0.2 0.2 的比例衰减步长。记 f ( x ) = 1 2 ∥ A x − b ∥ 2 2 + μ ∥ x ∥ 1 f(x)=\frac{1}{2}\|Ax-b\|_2^2 + \mu \|x\|_1 f(x)=21Axb22+μx1,线搜索条件为 f ( x k + 1 ) ≤ C k − 1 2 t k ρ ∥ x k + 1 − y k ∥ 2 2 . f(x^{k+1}) \le C_k - \frac{1}{2}t_k \rho \|x^{k+1}-y^k\|_2^2. f(xk+1)Ck21tkρxk+1yk22. 其中 C k C_k Ck 为 (Zhang & Hager) 线搜索准则中的量。

当没有满足线搜索条件时,对当前步长进行衰减,当前线搜索次数加一。

    if opts.ls
        nls = 1;
        while 1
            tmp = 0.5 * norm(A*x - b, 2)^2;
            tmpf = tmp + mu*norm(x,1);
            if tmpf <= Cval - 0.5*rhols*t*norm(x-y,2)^2 || nls == 5
                break;
            end
            t = 0.2*t; 
            nls = nls + 1;
            x = prox(y - t * g, t * mu);
        end

计算更新后的函数值

        f = tmp + mu0*norm(x,1);

更新非单调线搜索参数值

    	Qp = Q; 
    	Q = gamma*Qp + 1; 
    	Cval = (gamma*Qp*Cval + tmpf)/Q;

​ 当 opts.ls=0 时,不进行线搜索。

    else
        f = 0.5 * norm(A*x - b, 2)^2 + mu0*norm(x,1);
    end

​ 用 ∥ x k − y k ∥ 2 t k + 1 \frac{\|x^k-y^k\|_2}{t_{k+1}} tk+1xkyk2 作为梯度的估计。

	nrmG = norm(x - y,2)/t;

​ 迭代步加一,记录当前函数值。输出信息。

    k = k + 1;
    out.fvec = [out.fvec, f];
    if opts.verbose
        fprintf('itr: %d\tt: %e\tfval: %e\tnrmG: %e\n', k, t, f, nrmG);
    end

特别地,除了上述的停机准则外,如果连续 20 20 20 步的函数值不下降,则停止内层循环。

    if k > 20 && min(out.fvec(k-19:k)) > out.fvec(k-20)
        break;
    end
end

当退出循环时,向外层迭代(连续化策略)报告内层迭代的退出方式,当达到最大迭代次数退出时,out.flag 记为 1,否则为达到收敛,记为 0。这个指标用于判断是否进行正则化系数的衰减。

if k == opts.maxit
    out.flag = 1;
else
    out.flag = 0;
end

记录输出信息。

out.fvec = out.fvec(1:k);
out.fval = f;
out.itr = k;
out.tt = toc(tt);
out.nrmG = nrmG;
end
辅助函数

函数 h ( x ) = μ ∥ x ∥ 1 h(x)=\mu\|x\|_1 h(x)=μx1 对应的邻近算子 s i g n ( x ) max ⁡ { ∣ x ∣ − μ , 0 } \mathrm{sign}(x)\max\{|x|-\mu,0\} sign(x)max{xμ,0}

function y = prox(x, mu)
y = max(abs(x) - mu, 0);
y = sign(x) .* y;
end

你可能感兴趣的:(最优化算法,算法,机器学习,python)