传统方法学习(Sparse coding and ICA model)的过完备字典带来的问题

传统方法学习的过完备字典

    过完备字典能够很好的稀疏表示信号,但是引入了庞大的字典空间,不利传输,同时给信号的稀疏表示带来过多无用信息。如何解决学习较小的字典容量,同时不失去信号的表示效果呢,不失字典过完备性?

1.约束相似原子,迫使学习复杂特征;

2.引入平移不变因子,将位置变化但朝向不变的多原子用单一原子和平移项表示,即将字典分解为平移项与新字典成绩。新字典含有边缘、块、轮廓、拐角等信息



 

你可能感兴趣的:(传统方法学习(Sparse coding and ICA model)的过完备字典带来的问题)