ICCV2019-行人重识别-Pose-Guided Feature Alignment for Occluded Person Re-Identification

动机:

这篇文章的中心思想很明确,就是针对于目标遮挡情况下的行人重识别问题。我们知道在目标检测的数据集,尤其是较密集的数据集里对检测目标都会有是否遮挡这样的标注,而re-id数据集里,默认的都是少部分遮挡的目标。所以这个工作对于现实场景下的很有帮助。

创新:

这个文章对于遮挡目标的处理方法很直接,就是将未遮挡区域提出其特征,再结合原始的全局特征进行re-id学习。

  1. 遮挡数据集:作者分析了原Duke数据集在training,query,gallery遮挡目标的占比大约是14%/15%/10%。但是现实生活中,检测的目标的遮挡率不可能这么低,所以作者增加了遮挡样本的个数,将query的遮挡样本的数据占比提升到了100%,也就是说,所有的查询目标均为遮挡目标。
  2. 提取未遮挡部分:这个使用了额外的人体特征点检测的方法,通过COCO数据集标注的人体特征点数据训练一个人体特征点检测网络。将遮挡样本送入到这个网络后,得到了未遮挡区域的关键点。

ICCV2019-行人重识别-Pose-Guided Feature Alignment for Occluded Person Re-Identification_第1张图片

  1. 得到关键点特征图:对于每一个检测到的关键点,对其通过2维的高斯函数,得到它对整个图像在这个点的相应程度。当然,若未检测到,则响应为0。
    在这里插入图片描述
  2. inference阶段:既然query的数据都是遮挡目标,那当然也不能采用原来的inference,即将全局输入得到特征了,这里作者继续采用了人体特征点检测的方法,得到了未遮挡区域,将query和gallery的样本求他们的交集区域,对交集部分进行验证。
    ICCV2019-行人重识别-Pose-Guided Feature Alignment for Occluded Person Re-Identification_第2张图片

框架:

ICCV2019-行人重识别-Pose-Guided Feature Alignment for Occluded Person Re-Identification_第3张图片

  • 框架结构:主流(全局特征+基于part的local特征)+支流(未遮挡区域特征)
  • 特征:未遮挡区域特征&全局特征 和 基于part的local特征
  • 损失函数:CE loss
  • backbone:Resnet50 ( last stride = 1)

实验:

主流数据集上效果一般:
ICCV2019-行人重识别-Pose-Guided Feature Alignment for Occluded Person Re-Identification_第4张图片
在Occluded-DukeMTMC数据集上优于其他方法。
ICCV2019-行人重识别-Pose-Guided Feature Alignment for Occluded Person Re-Identification_第5张图片
作者还对比了不同姿态提取网络的影响,最后作者选取了AlphaPose
ICCV2019-行人重识别-Pose-Guided Feature Alignment for Occluded Person Re-Identification_第6张图片

总结:

我认为这是一篇很不错的文章,从实分析问题出发,到解决问题,结构设计,都很符合逻辑,有理有据。而不是那种模块堆叠,特征拼凑的方法。

你可能感兴趣的:(行人重识别)