论文阅读笔记-Progressive Attention Guided Recurrent Network for Salient Object Detection

论文名翻译:渐进注意引导循环网络用于显著性目标检测。
发表情况:该论文于2018年发表在CVPR。
论文核心思想:

  1. 引入空间注意力(SA)和通道注意力(CA),提出了一种新型注意力驱动框架。其目的是想以一种渐进的方式选择性的融合多层特征。
  2. 在骨干网络VGG19上加入了多路循环连接。其目的是把顶层的全局语义信息反馈给浅层,从而提高网络的特征学习能力。

一.提出问题

  1. 目前的深度学习的方法仅是把多层特征机械地整合在一起。
  2. 网络的浅层缺乏获取全局语义信息的能力,限制了有效的特征学习。

二.解决问题
针对问题1,作者就提出了论文核心思想中的1;针对问题2,作者就提出论文核心思想中的2。

三. 框架
论文阅读笔记-Progressive Attention Guided Recurrent Network for Salient Object Detection_第1张图片
这是整个网络框架。上面表示在VGG的第三四五层上引入多路循环连接,将顶层语义信息反馈到浅层。将得到的最顶层的特征图Conv5_5通过所提出的注意力模块得到注意力专注后的特征图,再将其上采样2倍后与来自VGG的第四层卷积的特征图Conv4-4结合。与此同理后推,将最终得到的特征图来预测最终的显著性图。

四. 注意力模块:SA + CA
论文阅读笔记-Progressive Attention Guided Recurrent Network for Salient Object Detection_第2张图片
先对顶层特征生成每个通道权重,公式如下:‘
在这里插入图片描述
在这里插入图片描述
其中v是对每个通道特征作平均池化操作,得到的一个通道特征向量。然后对v进行卷积操作得到u,再通过softmax操作得到每个通道注意力权重。将该通道注意力权重乘以特征图f就得到对应的通道注意特征力 f c a f^{ca} fca

f c a f^{ca} fca生成空间注意力权重,公式如下:
在这里插入图片描述
f c a f^{ca} fca做卷积操作得到m,再对m进行softmax操作得到每个位置的注意力权重。将该空间注意力权重乘以 f c a f^{ca} fca对应位置的元素值得到最终的注意力特征图 f c s a f^{csa} fcsa

五.多路循环连接模块
论文阅读笔记-Progressive Attention Guided Recurrent Network for Salient Object Detection_第3张图片
利用上一个time step得到的最后输出特征图,进行数次反卷积操作,再与当前time step的对应层的特征相加,公式如下:
论文阅读笔记-Progressive Attention Guided Recurrent Network for Salient Object Detection_第4张图片
六.实验结果
论文阅读笔记-Progressive Attention Guided Recurrent Network for Salient Object Detection_第5张图片
从结果看,该论文所提出的方法确实取得不错的结果。

你可能感兴趣的:(论文阅读笔记-Progressive Attention Guided Recurrent Network for Salient Object Detection)