SCDL--稀疏编码(sparse code)与字典学习(dictionary learning)

转载自未雨愁眸  https://www.cnblogs.com/mtcnn/p/9421836.html

1. 简介

字典 D∈RN×K(其中 K>N),共有 k 个原子,x∈RN×1 在字典 D 下的表示为 w,则获取较为稀疏的 w 的稀疏逼近问题如下表示:

 

wopt=argminw∥w∥p+γ∥x−Dw∥22p∈{0,1}

 

γ 越大,得到的解越稠密(dense)。

  • p=0,通过 MP(matching pursuit)匹配追踪算法求解,比如 ORMP(order recursive matching pursuit);
  • p=1,通过 LARS 算法求解;
  • ORMP 还是 LARS 均是基于贪心的思路求解;

2. 字典学习

在给定训练集 X∈RN×L 的情况下,字典学习用来求解字典 D∈RN×K(∥di∥=1,i=1,2,…,K),及其对应的系数矩阵 W∈RK×L,此时的表示误差为 R=X−DW。

 

{Dopt,Wopt}=argminD,W∑ℓ=1L∥wℓ∥+γ∥X−DW∥2

 

3. 求解

  • MOD or ILS-DLA

    MOD(Method of Optimized Directions),ILS-DLA(iterative least squares dictionary learning algorithms)

    此时迭代算法的思路分为如下三步:

    • 固定 D,求解 W
    • 固定 W,根据最小二乘法求解 D=(XWT)(WWT)−1
    • 归一化 D,也即将其各个列缩放为单位向量;
    for i = 1:noIt
        W = sparseapprox(X, D, 'mexOMP', 'tnz', s);
        D = (X*W')/(W*W');
        D = dictnormalize(D);
    end
  • K-SVD

    K-SVD 也是基于迭代求解思路而提出的算法,迭代主要分为如下两步:

    • 固定 D,求解 W;
    • 记录 W 中非零的元素,使用 SVD 分解更新 D 和 W;
    % X: N*L, D: N*K, W: K*L
    for i = 1:noIt
        W = sparseapprox(X, D, 'mexOMP', 'tnz', s);
        R = X - D*W;
        for k=1:K
            % 找到非零列
            I = find(W(k, :));
            Ri = R(:, I) + D(:, k)*W(k, I);
            % 奇异值分解
            [U, S, V] = svds(Ri, 1, 'L');
            % 更新
            D(:, k) = U;
            W(k, I) = S*V';
            R(:, I) = Ri - D(:, k)*W(k, I);
        end
    end

 

 

你可能感兴趣的:(深度学习)