1.提出问题:什么是稀疏表示
假设我们用一个MN的矩阵表示数据集Y,每一行代表一个样本,每一列代表样本的一个属性,一般而言,该矩阵是稠密的,即大多数元素不为0。
稀疏表示的含义是,寻找一个系数矩阵X(KN)以及一个字典矩阵D(MK),使得DX尽可能的还原Y,且X尽可能的稀疏。X便是Y的稀疏表示。
算法求解思路为交替迭代的进行稀疏编码和字典更新两个步骤. K-SVD在构建字典步骤中,K-SVD不仅仅将原子依次更新,对于原子对应的稀疏矩阵中行向量也依次进行了修正. 不像MOP,K-SVD不需要对矩阵求逆,而是利用SVD数学分析方法得到了一个新的原子和修正的系数向量.
固 定 系 数 矩 阵 X 和 字 典 矩 阵 D , 字 典 的 第 k 个 原 子 为 d k , 同 时 d k 对 应 的 稀 固定系数矩阵X和字典矩阵D,字典的第k个原子为d_k,同时d_k对应的稀 固定系数矩阵X和字典矩阵D,字典的第k个原子为dk,同时dk对应的稀
疏 矩 阵 为 X 中 的 第 k 个 行 向 量 x T k . 假 设 当 前 更 新 进 行 到 原 子 d k , 样 本 矩 阵 和 疏矩阵为X中的第k个行向量x^k_T. 假设当前更新进行到原子d_k,样本矩阵和 疏矩阵为X中的第k个行向量xTk.假设当前更新进行到原子dk,样本矩阵和字典逼近的误差为:
在 得 到 当 前 误 差 矩 阵 E k 后 , 需 要 调 整 d k 和 X T k , 使 其 乘 积 与 E k 的 误 差 尽 可 能 的 小 . 在得到当前误差矩阵E_k后,需要调整d_k和X^k_T,使其乘积与E_k的误差尽可能的小. 在得到当前误差矩阵Ek后,需要调整dk和XTk,使其乘积与Ek的误差尽可能的小.
如 果 直 接 对 d k 和 X T k 进 行 更 新 , 可 能 导 致 x T k 不 稀 疏 . 所 以 可 以 先 把 原 有 向 量 x T k 中 零 如果直接对d_k和X^k_T进行更新,可能导致x^k_T不稀疏. 所以可以先把原有向量x^k_T中零 如果直接对dk和XTk进行更新,可能导致xTk不稀疏.所以可以先把原有向量xTk中零
元 素 去 除 , 保 留 非 零 项 , 构 成 向 量 x R k , 然 后 从 误 差 矩 阵 E k 中 取 出 相 应 的 列 向 量 , 元素去除,保留非零项,构成向量x^k_R,然后从误差矩阵E_k中取出相应的列向量, 元素去除,保留非零项,构成向量xRk,然后从误差矩阵Ek中取出相应的列向量,
构 成 矩 阵 E k R . 对 E k R 进 行 S V D ( S i n g u l a r V a l u e D e c o m p o s i t i o n ) 分 解 , 有 E k R = 构成矩阵E^R_k. 对E^R_k进行SVD(Singular Value Decomposition)分解,有E^R_k= 构成矩阵EkR.对EkR进行SVD(SingularValueDecomposition)分解,有EkR=
U Δ V T , 由 U 的 第 一 列 更 新 d k , 由 V 的 第 一 列 乘 以 Δ ( 1 , 1 ) 所 得 结 果 更 新 x R k . UΔV^T,由U的第一列更新d_k,由V的第一列乘以Δ(1,1)所得结果更新x^k_R. UΔVT,由U的第一列更新dk,由V的第一列乘以Δ(1,1)所得结果更新xRk.
import numpy as np
import matplotlib.pyplot as plt
from numpy import *
import scipy.io as sio
import random
from sklearn import linear_model
import scipy.misc
from PIL import Image
def esErrDic(data,recons):
m,n=data.shape
esErr=0
for i in range(m):
for j in range(n):
esErr+=(data[i][j]-recons[i][j])**2
return esErr/(m*n)
class KSVD(object):
def __init__(self, n_components, max_iter=100, tol=1e-6,n_nonzero_coefs=None):
"""
稀疏模型Y = DX,Y为样本矩阵,使用KSVD动态更新字典矩阵D和稀疏矩阵X
:param n_components: 字典所含原子个数(字典的列数)
:param max_iter: 最大迭代次数
:param tol: 稀疏表示结果的容差
:param n_nonzero_coefs: 稀疏度
"""
self.dictionary = None
self.sparsecode = None
self.max_iter = max_iter
self.tol = tol
self.n_components = n_components
self.n_nonzero_coefs = n_nonzero_coefs
def _initialize(self, y):
"""
初始化字典矩阵
"""
u, s, v = np.linalg.svd(y)
self.dictionary = u[:, :self.n_components]
def _update_dict(self, y, d, x):
"""
使用KSVD更新字典的过程
"""
for i in range(self.n_components):
index = np.nonzero(x[i, :])[0]#选出Xk中非零的元素下标
if len(index) == 0:
continue
d[:, i] = 0
r = (y - np.dot(d, x))[:, index]
u, s, v = np.linalg.svd(r, full_matrices=False)
d[:, i] = u[:, 0].T
x[i, index] = s[0] * v[0, :]
return d, x
def fit(self, y):
"""
KSVD迭代过程
"""
self._initialize(y)
for i in range(self.max_iter):
x = linear_model.orthogonal_mp(self.dictionary, y, n_nonzero_coefs=self.n_nonzero_coefs)
e = np.linalg.norm(y - np.dot(self.dictionary, x))
if e < self.tol:
break
self._update_dict(y, self.dictionary, x)
self.sparsecode = linear_model.orthogonal_mp(self.dictionary, y, n_nonzero_coefs=self.n_nonzero_coefs)
return self.dictionary, self.sparsecode
if __name__ == '__main__':
file='G:/lecture of grade one/pattern recognition/trial_two/train_data2_807802844.mat'
Img=loadData(file)
#字典学习部分代码,其中KSVD的参数就是原子个数,可修改
ksvd = KSVD(100)
dictionary, sparsecode = ksvd.fit(Img['Data'])
recons=dictionary.dot(sparsecode)
err=esErrDic(Img['Data'],recons)
'''
#测试KSVD代码的调试代码,选择一张图片,用自己编写的KSVD对其进行字典学习
image =Image.open('/home/swh/Downloads/scene.jpeg')
image = np.array(image)
image=image[:,:,0]
im_ascent = image.astype('float32')
#im_ascent = scipy.misc.ascent().astype(np.float)
ksvd = KSVD(30)
dictionary, sparsecode = ksvd.fit(im_ascent)
plt.figure()
plt.subplot(1, 2, 1)
plt.imshow(im_ascent)
plt.subplot(1, 2, 2)
recon=dictionary.dot(sparsecode)
plt.imshow(recon)
plt.show()
'''