Simple Baselines for Human Pose Estimation and Tracking 论文解读

paper title: simple baselines for human pose estimation and tracking
paper link: https://arxiv.org/abs/1804.06208
github:https://github.com/microsoft/human-pose-estimation.pytorch
conf & anthor: ECCV 18,Bin Xiao et al. (MSRA,UEST)
arXiv submit v1: 2018.04

姿态估计系列:

  • DeepPose - human pose estimation via deep nerual networks
  • Efficient Object Localization Using Convolutional Networks
  • Convolutional Pose Machines
  • Human Pose Estimation with Iterative Error Feedback
  • Hourglass Network - stacked hourglass network for human pose estimation
  • OpenPose - Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
  • RMPE: Regional Multi-person Pose Estimation
  • Pose flow: Efficient Online Pose Tracking
  • CrowdPose: Efficient Crowded Scenes Pose Estimation and A New Benchmark

主要内容:

这篇文章提出了一种简洁高效的姿态估计和跟踪baseline方法,姿态估计方面使用ResNet+deconvolution, 跟踪方面使用optical Flow(光流)。

网络结构:

1.姿态估计
使用Faster-RCNN生成人的proposal,然后在关键点检测部分,使用ResNet作为主干网络,然后接三个反卷积层,生成最后的heatmap。

2.姿态跟踪
姿态跟踪方面使用基于Optical flow的方法。
1.Joint propagation using optical flow
对于前一帧中的检测到的人体各个关节点,计算optical flow移动后的值,然后确定一个boundingbox, 作为传播到当前帧中的人体proposal,这样可以弥补在运动模糊等情况下造成的人体proposal提取失败的情况。

2.Flow-based pose similarity
帧间追踪需要计算不同“人”的相似度,使用boundingbox IoU在运动较快或者密集场景下效果不好,使用关节点的OKS(Object Keypoint Similarity)当两帧间的姿态相差较大效果也不好,都有一些弊端。这篇文章就利用了光流,先计算下一帧的加上光流偏移后的姿态,然后再计算OKS,考虑到两帧之间可能有各种原因造成的不连续情况,所以这里可以计算连续多帧的OKS。

3.Flow-based pose tracking
首先将1中说的Joint propagation得到proposal和检测模型得到的proposal做NMS,然后进行单人姿态估计,之后计算如2中所述的两帧之间的OKS,并进行贪婪匹配,完成跟踪。

实验和结果:

部分比较结果如下(图片来自原论文):
Simple Baselines for Human Pose Estimation and Tracking 论文解读_第1张图片

这篇写的也有真点 simple 了 ╮(╯_╰)╭

你可能感兴趣的:(simple,baseline,optical,flow,Human,Pose,Estimation)