文章链接:(CVPR 2020)https://arxiv.org/abs/2003.07018
代码链接:https://github.com/guoyongcs/DRN
深度神经网络通过学习LR到HR的非线性映射,在图像超分辨(SR)方面显示出了良好的性能。然而,现有的SR方法有两个潜在的局限性。
为了解决上述问题,本文提出了一个对偶回归方法(Dual Regression),通过在LR数据上引入额外的约束来减少可能函数的空间。具体来说,除了从LR到HR图像的映射之外,我们还学习了一个额外的对偶回归映射,用来估计下采样核并重建LR图像,从而形成一个闭环来提供额外的监督。更关键的是,由于这个对偶回归过程不依赖于HR图像,因此我们可以直接从LR图像中进行学习。
从这个意义上说,我们可以很容易地将SR模型应用于真实世界的数据,例如YouTube上的原始视频帧。通过在LR-HR数据对和未配对的真实数据上进行大量的实验,证明了文章提出的方法优于现有的方法。
本文的主要贡献:
Dual learning 通过同时训练两个相反方向的映射—— primal model 和 dual model,来增强语言翻译问题的性能。最近,这种模式被用在了无需成对训练数据集的图像风格潜移上面。
在 CycleGAN 中,加入了循环一致性检验以解决GAN的模式坍塌问题(这也是训练不成对图像的难点所在)。然而,这些方法依然没法直接应用到标准的SR问题当中去。
整个对偶回归结构的示意图如Fig. 2所示:
传统的超分任务——从LR图像到HR图像的映射,由函数 P P P表示,其中 P : X → Y P:\mathcal{X}\rightarrow\mathcal{Y} P:X→Y。这个映射生成的高分辨率图像SR与真实的HR作比较,得到primal regression loss L P ( P ( x i ) , y i ) \mathcal{L}_P(P(x_i),y_i) LP(P(xi),yi)。
此外,再用另一个对偶的映射,把生成的SR图像反向降采样到LR,这个映射用函数 D D D表示,其中 D : Y → X D:\mathcal{Y}\rightarrow\mathcal{X} D:Y→X。同样的,把映射 D D D得到的 L R ′ LR ' LR′与真实的 L R LR LR作比较,可以得到另一个loss:dual regression loss L D ( D ( P ( x i ) ) , x i ) \mathcal{L}_D(D(P(x_i)),x_i) LD(D(P(xi)),xi)。
最后,总的训练损失为:
∑ i = 1 N L P ( P ( x i ) , y i ) + λ L D ( D ( P ( x i ) ) , x i ) \sum^N_{i=1}\mathcal{L}_P(P(x_i),y_i)+\lambda\mathcal{L}_D(D(P(x_i)),x_i) ∑i=1NLP(P(xi),yi)+λLD(D(P(xi)),xi)
其中 λ \lambda λ为系数,用来决定对偶损失的权重大小; L P 、 L D \mathcal{L}_P、\mathcal{L}_D LP、LD用的都是 l 1 l_1 l1损失。
在应对无HR(Unpaired)的真实数据时,采用如下的训练策略:
实验表明,真实Unpaired数据与合成的Paired数据的数量之比 ρ = m / m + n = 30 % \rho=m/m+n=30\% ρ=m/m+n=30% 时效果最好。
文章所提出的对偶网络DRN的结构图如下:
可以看到,DRN的主干网络是一个U-Net类型的超分网络。其中,在网络的上采样部分,每一级都加入了大量残差通道注意力机制模块(RCAB),并且上采样使用了PixelShuffle。
右侧的红线部分就是DRN的对偶网络了,在结构上使用了跟U-Net下采样完全一样操作(在代码上,也共用了相同的代码)。
图中右边下面的“2x image”、"1x image"出就体现出了对偶损失 L D \mathcal{L}_D LD 。
DRN的常规BI退化结果比较如下:
粗体的是最佳结果,蓝色字是第二好结果,可以看到其在几个主流数据集上的PSNR、SSIM结果几乎都拿到了SOTA(2020)。
【1】(RDN)Residual Dense Network for Image Super-Resolution
【2】(IDN)Fast and Accurate Single Image Super-Resolution via Information Distillation Network
【3】(RCAN)Image Super-Resolution Using Very Deep Residual Channel Attention Networks