【论文阅读】LSSNet

简介

  • LSSNet: A Two-stream Convolutional Neural Network for Spotting Macro- and Micro-expression in Long Videos
  • 研究领域:macro- and micro-expression spotting
  • 期刊:MM 21
  • 作者:中国电子科技大学-Wang-Wang Yu
  • 代码:williamlee91/mer_spot
  • not important

总体概括:

在本文中,作者提出了一种高效的双流网络,称为基于位置抑制的定位网络(LSSNet),它包括三个部分。

  • 第一,使用传统的 TV-L1 算法提取光流,该算法捕获细微的面部运动,同时添加时间信息以缓解样本不足的问题
  • 第二,通过 I3D 模型从采样的光流和原始图像中提取固定长度的特征,用于设置滑动窗口。
  • 最后,将位置抑制模块(LSM)添加到金字塔卷积神经网络(CNN)中,以减少间隔过长和过短的提议。

如下图所示,作者的主网络类似于 A2Net,主要区别在于修改了特征图层数以适当地适应 CAS(ME)2 和 SAMM-LV 数据集以及引入 LSM。
【论文阅读】LSSNet_第1张图片

LSM:

通常,使用的下采样时间越少,生成的尺度越少,生成的提议越多。 两个数据集中区间长度分布非常集中,长区间非常少。 这种情况意味着有必要限制减少负面的建议规模,特别是对于那些长度较长和较短的建议。 因此作者提出了位置抑制模块(LSM),其作用类似于non-local neural network
【论文阅读】LSSNet_第2张图片


学习产出:

  • CSDN 技术博客 1 篇
  • 论文笔记

你可能感兴趣的:(文献阅读,计算机视觉)