EDSR阅读笔记

原论文地址:https://arxiv.org/abs/1707.02921

  • 从Related Work中发现,不是所有的SR都是先interp再传入网络的,也有先传入网络,再upsampling(反卷积)为HR的(FSRCNN),后一种可以减少神经网络参数,因为传入的图像像素点数量较少,但无法解决不同scale的问题,即模型训练在什么scale上,就只能应用在什么scale上,而EDSR论文提出的MDSR解决了这个问题,且其single-scale的EDSR模型同样采取先传入网络再upsampling的方法
  • 相比较ResSR,EDSR取消了BN层和最后的ReLU:
    EDSR阅读笔记_第1张图片
  • 在该论文中提出的baseline model由于并没有采取太多的filter而没有使用residual scaling, 而在其final模型中,每层有256个channel,为了使training 更加stable,在残差与identity相加前,将残差乘以0.1,至于为什么乘以0.1可以使training更加stable,从论文中的链接找到了提出这个观点的论文:https://arxiv.org/abs/1602.07261
  • 在single-scale的模型中,使用2x的预训练模型参数来init4x的预训练模型参数使train更快收敛
  • 采取L1Loss
  • train的时候采用了减去平均RGB值的方法预处理
  • muti和single的训练方式有所不同:
    EDSR阅读笔记_第2张图片

你可能感兴趣的:(论文阅读笔记,EDSR,deep,Learning)