【文章阅读】【超解像】-- Wide Activation for Efficient and Accurate Image Super-Resolution

【文章阅读】【超解像】-- Wide Activation for Efficient and Accurate Image Super-Resolution

论文链接:https://arxiv.org/abs/1808.08718v1

code:https://github.com/JiahuiYu/wdsr_ntire2018

本提出的网络结构在NTIRE2018比赛中SISR中获得了3个第一,研究了论文后对论文主要问题进行总结如下:

1.主要贡献

​ 1). SISR中的残差网络,更多的激活函数具有更好的性能,本文在未增加计算量的基础上提出了WDSR-A网络结构,该网络结构具有(2倍到4倍)的激活函数,具有更好的性能;

​ 2). 提出的WDSR-B网络结构,使用了1*1的卷积,在未增加额外的参数和计算复杂度的情况下,激活函数可提高(6倍到9倍),具有更好的性能;

​ 3). BN不适合用于训练深层SR网络结构,本文引入权重初始化方法应用到训练网络结构;

​ 4). 在DIV2K图像数据集上,利用权重初始化训练WDSR-A和WDSR-B两种网络结构;

2.论文分析

【文章阅读】【超解像】-- Wide Activation for Efficient and Accurate Image Super-Resolution_第1张图片

1)WDSR-A

​ 残差卷积中首先将图像特征缩小,在ReLU之前将图像特征扩大,这样在未增加计算量的基础上增加了非线性特征;如上图中的中间图,实验表明非线性特征可放大2-4倍;

2) WDSR-B

​ 利用1x1卷积核降低图像维数,在使用3x3卷积作为特征提取,如上图中的右图;

3) 权重初始化

​ 利用BN的缺点为:a) 在SR中为了加速训练,图像的Patch和mini-batch都很小,这样每个batch中的均值和方差变化较大,导致每次的数据不稳定,影响实验效果;b) BN 是一种过拟合的方法,而在SR中几乎无过拟合问题;c)和分类问题不同,分类问题最终利用softmax函数来做预测,SR问题中训练和测试过程中利用不同的权重归一化导致重建图像的准确率下降;本文利用权重初始化的方法进行数据归一化。

3.结果分析

​ 本文利用DIV2K数据集进行模型训练,使用ADAM进行训练优化,在RGB空间利用PSNR进行评价;实验结果如下:
【文章阅读】【超解像】-- Wide Activation for Efficient and Accurate Image Super-Resolution_第2张图片

​ 同时,作者通过实验比较了BN和WN的性能比较和不同的学习率的影响结果如下:
【文章阅读】【超解像】-- Wide Activation for Efficient and Accurate Image Super-Resolution_第3张图片
【文章阅读】【超解像】-- Wide Activation for Efficient and Accurate Image Super-Resolution_第4张图片

4.参考

https://www.toutiao.com/i6595267600056320516/

论文个人理解,如有问题,烦请指正,谢谢!

你可能感兴趣的:(SR,深度学习)