小样本学习--动作识别--文章(持续更新)

Few-shot Learning&Action Recognition--论文

  • CMN (Compound Memory Networks), ECCV2018
  • TARN (Temporal Attentive Relation Network), BMVC2019
  • Permutation-invariant Attention, ECCV2020
  • Based on Video Contents, WACV2020
  • OTAM (Temporal Alignment), CVPR2020
  • AMeFu-Net (Depth Guided Adaptive Meta-Fusion Network), ACMMM2020
  • TRX (Temporal-Relational CrossTransformers), CVPR2021
  • 最新更新: (20210523)

今年开始了解小样本学习应用于动作识别这个领域;也是查阅了很多资料,关于动作识别、小样本学习–image classification、小样本学习–video、小样本学习–action recognition。相关资料很多,方向也各有不同,这里主要整理一下关于动作识别的小样本学习方法。(持续更新,将做两年)

CMN (Compound Memory Networks), ECCV2018

这篇文章应该是近年来,动作识别方面大家比较的最早的一篇文章了。
Compound Memory Networks for Few-Shot Video Classification
小样本学习--动作识别--文章(持续更新)_第1张图片

TARN (Temporal Attentive Relation Network), BMVC2019

TARN: Temporal Attentive Relation Network for Few-Shot and Zero-Shot Action Recognition
小样本学习--动作识别--文章(持续更新)_第2张图片

Permutation-invariant Attention, ECCV2020

Few-shot Action Recognition with Permutation-invariant Attention
小样本学习--动作识别--文章(持续更新)_第3张图片

Based on Video Contents, WACV2020

Few-Shot Learning of Video Action Recognition Only Based on Video Contents

OTAM (Temporal Alignment), CVPR2020

Few-Shot Video Classification via Temporal Alignment

AMeFu-Net (Depth Guided Adaptive Meta-Fusion Network), ACMMM2020

Depth Guided Adaptive Meta-Fusion Network for Few-shot Video Recognition

已开源 https://github.com/lovelyqian/AMeFu-Net/
文章主要提出将depth作为场景的补充信息进行引入,从多模态信息利用的角度缓解小样本学习下标注信息严重不足的问题。文章主要提出两个方法:1)DGAdaIN,基于adaptive instance normalization的rgb模态与depth模态特征融合模块。 2)temporal asynchronization augmentation mechanism,时间异步采样策略,通过获取不完全匹配的rgb和depth clip,在特征层做数据增强,提升模型鲁棒性。
小样本学习--动作识别--文章(持续更新)_第4张图片

TRX (Temporal-Relational CrossTransformers), CVPR2021

Temporal-Relational CrossTransformers for Few-Shot Action Recognition
这一篇也是最近开源的文章,作者非常的友好(遇到了点问题询问作者得到了极快的回复)
最近也在复现这篇论文的工作,后面会专门写一篇文章来介绍TRX的工作。
这里附上论文最后的比较:
小样本学习--动作识别--文章(持续更新)_第5张图片

最新更新: (20210523)

更新了AMeFu-Net这篇文章(0513开源)。

你可能感兴趣的:(小样本学习,Action,Recognition,深度学习,python)