二. 锚定邻域回归

1. 锚定邻域回归

论文题目:Anchored Neighborhood Regression for Fast Example-Based Super-Resolution

存在的问题

目前解决超分辨率的几种方法中,最大的一个问题就是计算量太大。

解决的问题

通过一种叫锚定邻域回归的方法,来减轻计算量。首先,这个方法是结合了稀疏字典和锚定邻域的方法。邻域是通过计算字典原子之间的相关性得来,而不是欧氏距离。其次,global collaborative coding能带来可观的计算提速。最后,这个方法能得到和其他方法的差不多的性能的情况下,能提速1-2个计算量级的速度。

论文要点

1. 邻域嵌入法

前提:假设低像素图片的图片块和高像素图片对应的图片块具有相似的几何结构。

步骤:

(1) 从低像素图片块中找到K个临近点

(2) 利用最小二乘法计算对应的K个权重系数

(3) 利用这些权重,建立对应的高分辨率图片块。

2. 稀疏编码

见上一章。

3. 锚定邻域回归

前提:(1)领域的大小是固定的; (2)邻域是和整个字典一致的。

步骤:

(1) 将字典的原子归入领域。具体地说,为字典中的每个领域点计算他的K个最邻近点。这个是依据字典原子间的相关性计算而不是根据欧氏距离。

(2) 计算每个字典原子的投影。

所以这个问题转化为计算每个输入图像块的临近原子和其到高维空间的映射矩阵。

2. 锚定邻域回归(A+)

论文题目:A+: Adjusted Anchored Neighborhood Regression for Fast Super-Resolution

没看太懂。

二. 锚定邻域回归_第1张图片

不知道改进了什么,有点看不懂什么mannifold和hypercell。

3. 锚定邻域回归(IA)

论文题目:Seven ways to improve example-based single image super resolution

本文要点:

1. Augmentation of training data

更多的训练数据会带来更好的模型性能。作者用了flipped和rotated的方法去增大数据集。

2. Large dictionary and hierarchical search

随着字典大小的增加,比如稀疏编码和锚定方法的性能会提高。但是运用更多的regressors会带来计算量的增大,导致速度变慢。为了解决这个问题,用了层次搜索(hierarchical search)。

层次搜索具体来说:给定N个anchors和对应的N个regressors,用k-means将它们分为根号N个类。对于每个中心,我们赋予c又根号N个的临近anchors。这个就有了2层的结构。

3. Back projection

使用迭代反向映射能提高性能。

4. Cascade of core SR method 

随着放大倍数的减小,超分辨率重建的图片会更精准。所以,建立了瀑布式的结构。就是不断的慢慢放大。比如要得到放大4倍的图片,不是一次性做到位。而是先得到放大2倍的图片,然后在这个基础上,再放大2倍,最终得到放大4倍的图片。

5. Enhanced prediction

将原图片做变换,比如cropping,flipping或者rotations。对于每个来说,在像素层面上,得到的高分辨率的图片是一样的。所以,运用在原图片上的变换得到许多张低像素图片,对每一张都做SR,然后将结果按回之前的变换做逆变换回去,最终平均每张的结果作为输出。

6. Self-similarities

既用内在字典(internal dictionaries)又用外部字典(external dictionaries)。有点看不懂什么叫内在外在字典。

7. Reasoning with context 

LR图片块的周围的内容会给超分辨率重建添加额外的参考信息。利用环境限制能提高。

你可能感兴趣的:(二. 锚定邻域回归)