SRGAN的理解

全文翻译见:https://blog.csdn.net/weixin_42113955/article/details/89001989
和https://blog.csdn.net/c2a2o2/article/details/78930865

1.

在这里插入图片描述
ptrain是真正的HR图像,也就是data要预测的。
pG是生成的超分辨图像
好处在于:固定 G,max V(G,D) 就表示 PG 和 Pdata 之间的差异,然后要找一个最好的 G,让这个最大值最小,也就是两个分布之间的差异最小。
在这里插入图片描述

2.训练

G: 使用两个卷积层,小的3×3内核和64个特征映射,然后是批量标准化层[32]和ParametricReLU [28]作为激活函数。 我们用Shi等人提出的两个经训练的子像素卷积层来增加输入图像的分辨率。
D: LeakyReLU激活(α= 0:2)并避免整个网络中的最大池化。 训练鉴别器网络以解决方程2中的最大化问题。它包含8个渐进层,其中3×3滤波器内核数量增加,从VGG网络中的64到512个内核增加2倍。 每次特征数量加倍时,使用条纹卷积来降低图像分辨率。 得到的512个特征图之后是两个密集层和最终的S形激活函数,以获得样本分类的概率

3.loss函数

SRGAN的理解_第1张图片

4.实验

  1. widely used bench mark datasets Set5 , Set14 and BSD100, the testing set of BSD300
  2. 四倍的放大比例
  3. 为了对比公正性,所有的PSNR[dB]和SSIM测量在enter-cropped (中心剪裁)的y 通道上计算,在每条边界上移除4像素宽的条带.
  4. 训练集: 350 thousand images from the ImageNet database
  5. content loss 的选择显得尤为重要
  6. 如何处理训练集:用下采样系数 r=4 的bicubic kernel。对每个mini-batch,剪裁16个不同训练图像的96*96的子图(随机),
  7. Adam来最优化,用学习率=0.0001和用10的六次方次更新迭代来训练SRResNet networks
  8. 当训练真实的GAN时,用训练好的基于MSE的SRResNET network 作为生成的的初始化,从而避免出现局部最优.所有的SRGAN变量经过10^5 次更新迭代训练(学习率=0.0001),另外进行了学习率=0.00001,迭代次数为10^5的训练.我们交替更新生成器和判别器网络,相当于Goodfellow等人用到的k=1.我们的生成器网络有16个相同的残差块(B=16).在测试时,我们我们turn batch-normalization off 来获得一个确定只依赖于输入的输出. 实现基于 Theano and Lasagne.
  9. 注意,我们可以把生成器模型应用到任意大小的图像上,因为它是全卷积的.

5.结论

content loss的发展.content loss function(描述图像空间内容,但在像素空间中对变化更不敏感)

你可能感兴趣的:(超分辨)