CVPR2019行人重识别论文笔记1902.09080:SSA-CNN: Semantic Self-Attention CNN for Pedestrian Detection

原文链接: https://arxiv.org/abs/1902.09080v1
摘要:
作者提出了通过探索分割结果作为自注意力机制的线索有助于提升识别性能。将语义特征图和卷积特征图合并,为行人识别与分类提供了更多的区分性特征。通过联合学习,作者提出的自注意力机制可以高效的识别行人区域并抑制背景。

文章贡献:
(1)提出了通过探索分割结果作为自注意力机制的线索有助于提升识别性能。
(2)提出了多尺度多任务学习框架,通过多尺度中间网络连接学习行人检测和语义分割,可以融合不同粒度的语义信息到共享特征图中。
(3)实验结果证明,本文的模型的识别性能是同类中的最高,且计算高效。

方法论:
作者的模型是以Faster R-CNN为框架,包含两部分:语义自注意力RPN(SSA-RPN)和语义自注意力R-CNN(SSA-RCNN)。其中SSA-RPN用于产生候选行人区域。SSA-RCNN用于提炼SSA-RPN的候选结果。网络结构:
CVPR2019行人重识别论文笔记1902.09080:SSA-CNN: Semantic Self-Attention CNN for Pedestrian Detection_第1张图片
1. SSA-RPN
为了获得语义特征图,作者加入了两个语义分割分支conv4_3_seg和conv5_3_seg,并将seg分支的特征图和卷积特征图相连,损失函数:
在这里插入图片描述
Lc为分类损失,Lr是边框回归对的损失,Ls是语义分割损失。

2. SSA-RCNN
首先,切割RGB输入图像,添加25%的padding填充,并缩放为112*112大小。与SSA-RPN不同的是,池化conv4_3层获得的语义特征图,与conv5_3层的语义特征图连接为自注意特征图,再将自注意力特征图与conv5_3的卷积特征图相连,进而为行人分类。损失函数:
在这里插入图片描述

实验结果:
与SDS-RCNN相比,作者的模型在特征图中对于行人的注意力更强,效果更好。
CVPR2019行人重识别论文笔记1902.09080:SSA-CNN: Semantic Self-Attention CNN for Pedestrian Detection_第2张图片
与其他的模型相比,文中的模型的性能有很大的超越:
CVPR2019行人重识别论文笔记1902.09080:SSA-CNN: Semantic Self-Attention CNN for Pedestrian Detection_第3张图片
网络的运算时间也非常快:
在这里插入图片描述

完结撒花!
欢迎大家评论吐槽!

你可能感兴趣的:(行人重识别论文笔记)