【显著性检测】PiCANet: Learning Pixel-wise Contextual Attention for Saliency Detection【论文笔记】

论文链接

主要思想:如果能够识别相关的上下文区域并为每个像素构建信息性上下文特征,则可以做出更好的检测结果。

我们的方案:提出了Pixel-wise Contextual Attention network (PiCANet),来学习每个像素的信息性上下文特征,然后将其嵌入到UNet中,PiCANet整合全局上下文和多尺度的局部上下文来提升显著性检测性能。

模型结构:PiCANet的部分看得我脑壳痛,大概理解的是,对特征进行按方向的LSTM,然后就记忆了其他方向的信息,从而知道了上下文,最后一层接卷积层得到D=HxW的特征层,表示的是权重,然后对原本特征进行Mask,即可得到所谓的Attened Contextual Feature Map。

【显著性检测】PiCANet: Learning Pixel-wise Contextual Attention for Saliency Detection【论文笔记】_第1张图片

 我理解的方式是:在UNet的思路上,在decoder时候,原本只是结合原始的特征,现在再进行一下PiCANet,除了原本的特征,还利用了,全局或局部的语义信息。从而进行了提升。

你可能感兴趣的:(S)