RCAN简记

RCAN简记

文章目录

      • RCAN简记
        • 参考
        • 问题与方案
        • Residual in Residual
        • Channel Attention
        • RIR与CA的结合
        • 实验
          • RIR和CA的作用
          • 与其他模型的对比

参考

  • RCAN
  • 源代码
  • 原文

注:SR=Super-Resolution

问题与方案

  • 作者提出研究问题:
    • 此前的SR相关的网络大多都受限于网络深度(在CV中这是很重要的一点)
    • 此前的SR相关的研究都没有引入Attention机制(CV中的Attention,类似于SENet,CBAM这种)
  • 于是作者提出网络结构:
    • RIR:Residual in Residual
    • CA:Channel Attention

Residual in Residual

  • long skip connections和short skip connections结合使用,我的理解是就是增加跳跃链接的数量用以减少网络深度增加对网络新能退化的影响。
  • RCAN简记_第1张图片

Channel Attention

  • 用的应该是SENet的Channel Attention,图重新画了一下而已
  • RCAN简记_第2张图片

RIR与CA的结合

  • 具体架构上是这么设计的, F g , b − 1 到 F g , b F_{g,b-1}到F_{g,b} Fg,b1Fg,b是先后经过Conv+Channel Attention然后通过short skip connection连接起来,如下所示:
  • RCAN简记_第3张图片

实验

RIR和CA的作用
  • RCAN简记_第4张图片

  • 可以看到(最右边的那一列),当全部加上RIR(LSC+SSC,这俩是长短跳跃链接的缩写)与CA的时候,PSNR得分最高。

与其他模型的对比
  • 确实是有效果

你可能感兴趣的:(论文阅读杂记,深度学习,计算机视觉,神经网络)