Part-based Graph Convolutional Network for Action Recognition 论文笔记

摘要
本文介绍了一种基于局部的(图卷积方法有基于全局和基于局部的两种方法)图卷积网络(PB-GCN)。将骨架图划分为四个节点共享的子图,利用基于局部的图卷积网络学习识别模型。与使用整个骨架图的模型相比,该模型提高了识别性能。用相对坐标和时间位移代替三维关节坐标作为节点特征,提高了性能。
该模型使用的基准数据集NTURGB+D和HDM05。

介绍
在视频中识别人类行为是理解它们的必要条件。RGB、depth和skeleton等(三种行为识别的方法)视频模式为理解人类行为提供了不同类型的信息。S-video(或骨骼模式)提供了3D关节位置,相对于RGB或深度,这是一个相对较高的级别信息。S-vide使用了图形卷积方法,它将整个骨架视为一个单独的图形。但是,人体骨骼是由多个身体部位组成的。Wepresenta模型采用基于部分的图卷积网络来识别s视频中的动作,采用了一种新的基于部分的图卷积方案。
本文使用三维坐标表示骨骼点。受以下观点启发,作者在模型中使用一个几何特征编码相对关节坐标和运动特征编码每个顶点的时间位移:
(1)相对关节坐标等几何特征和时间位移等运动特征可以为动作识别提供更多的信息
(2)光流有助于从RGB视频[30]的动作识别和曼哈顿线图帮助生成三维布局从单一图像[37]
(3)几何特征[36]和运动学特征[34]曾被用于骨骼动作识别
本文主要贡献:

  • 构建了PB-GCN,它可以学到任何具有众所周知的属性的图形及其应用于识别S-video的动作;
  • 使用几何和运动特征代替每个顶点处的3D关节位置以提高识别性能;
  • 在NTU RGB+D和HDM05上取得了优异的效果。
    Part-based Graph Convolutional Network for Action Recognition 论文笔记_第1张图片

未完。。。

你可能感兴趣的:(论文阅读笔记)