[骨架动作识别]Global Context-Aware Attention LSTM

1. Introduction

本文的主要结构是一个两层的lstm,第一层生成global context memory(GCA),就是一个全局的背景信息。第二层LSTM加了注意力模型。这个注意力信息的生成有来自第一层的全局背景信息GCA的辅助,然后生成的注意力信息再用来重新调节全局背景GCA信息。是一个反复迭代的过程。最后GCA被用来分类。
[骨架动作识别]Global Context-Aware Attention LSTM_第1张图片
为什么要这样做?

  • 对于普通的LSTM而言,虽然后来的step包含更多的累积信息,但是相对于初始帧来说,背景信息还是非常local。本文的GCA-LSTM,将初始背景信息送给每一个step。
  • 不是所有的节点都有有用信息,所以引入注意力模型

ST-LSTM

S for Spatial
T for Temporal

你可能感兴趣的:(paper阅读)