【论文阅读】视频理解系列论文精读

文章目录

  • 1. Large-scale Video Classification with Convolutional Neural Networks
    • 摘要
    • 1. 介绍
    • 2. 相关工作
    • 3. 模型
      • 3.1 时间信息的融合
      • 3.2 多分辨率CNN
    • 4. 实验细节、训练结果
    • 5. 结论和未来工作
  • 2. Two-Stream Convolutional Networks for Action Recognition in Videos
    • 摘要
    • 1. 介绍
    • 2. 用于视频识别的双流架构
    • 3. 光流卷积网络
      • 3.1 ConvNet输入配置:
    • 4. 实验细节、训练结果
    • 5. 结论
  • 3. Beyond Short Snippets: Deep Networks for Video Classification
    • 摘要
    • 1. 介绍
    • 2. 相关工作
    • 3. 模型
      • 3.1 特征池化结构
      • 3.2 LSTM架构
    • 4. 训练结果
    • 5. 结论
  • 4. Convolutional Two-Stream Network Fusion for Video Action Recognition
    • 摘要
    • 1. 介绍
    • 2. 相关工作
    • 3. 方法
      • 3.1 空间融合
      • 3.2 在哪融合网络
      • 3.3 时间融合
    • 4. 实验与训练结果
      • 4.1 融合双流网络的方式
      • 4.2 在哪融合
      • 4.3 精度对比
    • 5. 结论
  • 5. Temporal Segment Networks: Towards Good Practices for Deep Action Recognition
    • 摘要
    • 1. 介绍
    • 2. 相关工作
    • 3. 模型
      • 3.1 时序段网络TSN
      • 3.2 学习时序段网络
    • 4. 训练结果
    • 5. 结论

视频理解论文串讲(上)【论文精读】

1. Large-scale Video Classification with Convolutional Neural Networks

摘要

我们研究了多种扩展CNN在时域上的连接性的方法,以利用局部的时空信息,并建议采用多分辨率、凹陷的架构作为加速训练的一种有希望的方式。

1. 介绍

在图像领域积极成果的鼓舞下,我们研究了CNN在大规模视频分类中的表现,在这种情况下,网络不仅可以获得单个静态图像中的外观信息,还可以获得其复杂的时间演变。在这种情况下,扩展和应用CNN有几个挑战。

  • 目前还没有与现有图像数据集的规模和种类相匹配的视频分类基准,为了获得足够的数据量来训练我们的CNN架构,我们收集了一个新的Sports-1M数据集,以支持这一领域的未来工作。
  • 从建模的角度来看,我们通过评估多个CNN架构来实证研究这些问题,这些架构都采取了不同的方法来结合整个时域的信息。
  • 从计算的角度来看,加快CNN运行性能的有效方法是修改架构,使其包含两个独立的处理流:一个是在低分辨率帧上学习特征的上下文流,一个是只在帧的中间部分操作的高分辨率凹陷流。我们观察到,由于输入维度的降低,网络的运行时间性能增加了2-4倍,同时保留了分类精度。
  • 我们根据经验调查了转移学习问题,通过重新利用在Sports-1M数据集上学到的低级特征,在UCF-101上取得了明显更好的性能。

2. 相关工作

视频分类的标准方法包括三个主要阶段。首先,描述视频区域的局部视觉特征被密集地提取出来或在一组稀疏的兴趣点上提取。接下来,这些特征被组合成一个固定大小的视频级描述。最后,训练一个分类器(如SVM),以区分感兴趣的视觉类别。
与图像数据领域相比,在视频分类中应用CNN的工作相对较少。由于CNN在图像领域的所有成功应用都有大量的训练集,我们推测这部分是由于缺乏大规模的视频分类基准。我们的模型是在完全监督下进行端到端的训练。

3. 模型

3.1 时间信息的融合

我们将每个视频视为一袋短的、固定大小的片段。由于每个片段在时间上包含几个连续的帧,我们可以在时间维度上扩展网络的连接性,以学习空间-时间特征。对于扩展连接的精确细节有多种选择,我们在下面描述了三种广泛的连接模式类别(早期融合、晚期融合和缓慢融合)。
【论文阅读】视频理解系列论文精读_第1张图片
红色、绿色和蓝色方框分别表示卷积层、归一化和池化层。在慢速融合模型中,所描述的列共享参数。

  • Single Frame。我们使用一个单帧基线结构来了解静态外观对分类准确性的贡献。这个网络类似于简单的卷积神经网络。最后一层连接到一个softmax分类器。
  • Late Fusion。在第一个全连接层中合并这两个数据流。因此,两个单帧塔都不能单独检测到任何运动,但第一个全连接层可以通过比较两个塔的输出来计算全局运动特征。
  • Early Fusion。将整个时间窗口的信息立即在像素层面上结合起来。这是通过修改单帧模型中第一个卷积层的过滤器来实现的,将其扩展为11×11×3×T像素大小,其中T是时间范围。早期与像素数据的直接连接使网络能够精确地检测局部运动方向和速度。
  • Slow Fusion。慢速融合模型是这两种方法的平衡组合,它在整个网络中缓慢地融合时间信息,使高层在空间和时间维度上逐渐获得更多的全局信息。

3.2 多分辨率CNN

【论文阅读】视频理解系列论文精读_第2张图片
输入帧被送入两个独立的处理流:一个是模拟低分辨率图像的上下文流,一个是处理高分辨率中心作物 (因为感兴趣的对象往往占据中心区域) 的凹陷流。这两个流由交替的卷积(红色)、归一化(绿色)和池化(蓝色)层组成。两个数据流都汇聚到两个完全连接层(黄色)。

4. 实验细节、训练结果

【论文阅读】视频理解系列论文精读_第3张图片

5. 结论和未来工作

  • 多分辨率和slow fusion可以提高网络的性能。
  • 我们还确定了混合分辨率架构,它由低分辨率的上下文和高分辨率的凹流组成,是在不牺牲精度的情况下加快CNN的有效方法。
  • 我们在UCF-101上进行的迁移学习实验表明,所学的特征是通用的,并能概括其他视频分类任务。

未来的工作中,我们希望在数据集中纳入更广泛的类别,以获得更强大和通用的特征,研究明确推理摄像机运动的方法,并探索循环神经网络作为一种更强大的技术,将片段级预测结合到全局视频级预测中。


2. Two-Stream Convolutional Networks for Action Recognition in Videos

摘要

我们研究了用于视频中动作识别的辨别性训练的深度卷积网络(ConvNets)的架构。我们面临的挑战是如何从静止帧和帧之间的运动中捕捉到互补的外观信息。
我们的贡献有三个方面。首先,我们提出了一个包含空间和时间网络的双流ConvNet架构。其次,我们证明,尽管训练数据有限,但在多帧密集光流上训练的ConvNet能够达到非常好的性能。最后,我们展示了多任务学习,应用于两个不同的动作分类数据集,可以用来增加训练数据量并提高两者的性能。

1. 介绍

与静态图像分类相比,视频的时间成分为识别提供了额外的(重要的)线索,因为一些动作可以根据运动信息被可靠地识别。此外,视频为单一图像(视频帧)分类提供了自然的数据增强(抖动)。
我们研究了一种基于两个独立识别流(空间和时间)的不同架构,然后通过后期融合将其结合起来。空间流从静止的视频帧中进行动作识别,而时间流则被训练为从密集的光流形式的运动中识别动作。

2. 用于视频识别的双流架构

【论文阅读】视频理解系列论文精读_第4张图片
视频可以自然地被分解为空间和时间部分。空间部分,以单个帧的形式出现,带有视频中描述的场景和物体的信息。时间部分,以跨帧运动的形式,表达了观察者(摄像机)和物体的运动。

3. 光流卷积网络

【论文阅读】视频理解系列论文精读_第5张图片
一个ConvNet模型,它构成了我们架构的时间识别流,模型的输入是由几个连续帧之间的光流位移场堆叠而成。这种输入明确地描述了视频帧之间的运动,这使得识别更容易。

3.1 ConvNet输入配置:

光流的叠加:
密集的光流可以被看作是一组连续帧t和t+1之间的位移矢量场dt,矢量场的水平和垂直分量,d x t和d y t,可以被看作是图像通道,非常适合使用卷积网络进行识别。为了表示一连串帧的运动,我们将L个连续帧的流动通道堆叠在一起,形成总共2L个输入通道。
【论文阅读】视频理解系列论文精读_第6张图片
轨迹叠加:
【论文阅读】视频理解系列论文精读_第7张图片
左图:光流堆叠(1)在多帧中的同一位置对位移向量d进行采样。右图:轨迹堆叠(2)对轨迹上的向量进行采样。帧和相应的位移向量以相同的颜色显示。
涨点方法:(需要在代码中体现)

  • 双向的光流
  • 平均流量减法。一般来说,对网络输入进行零中心化是有益的

4. 实验细节、训练结果

训练采用了很多技巧:裁剪、翻转、RGB抖动、多GPU加速、光流图被缩放到[0,255]并保存为JPEG格式。

【论文阅读】视频理解系列论文精读_第8张图片
在使用迁移学习,如果对所有网络做微调,则Dropout率设大一点可以防止过拟合。如果只做最后一层的参数更新的话,Dropout率应设置小一点,因为只有最后一层参数参与学习。

【论文阅读】视频理解系列论文精读_第9张图片

【论文阅读】视频理解系列论文精读_第10张图片

5. 结论

(i) 时间和空间识别流是互补的,因为它们的融合对两者都有明显的提高(比时间网提高6%,比空间网提高14%);
(ii) 基于SVM的软分数融合优于平均法的融合;
(iii) 在ConvNet融合的情况下,使用双向流没有好处;
(iv) 使用多任务学习训练的时间ConvNet,单独和与空间网融合时都表现最好。


3. Beyond Short Snippets: Deep Networks for Video Classification

摘要

我们提出了两种能够处理全长视频的方法。第一种方法探索了各种卷积时间特征池架构,研究了在为这项任务调整CNN时需要做出的各种设计选择。第二种提议的方法明确地将视频建模为一个有序的帧序列。为此,我们采用了一个循环神经网络,该网络使用长短期记忆(LSTM)单元,这些单元与底层CNN的输出相连。

1. 介绍

我们评估了两种能够满足这一要求的方法:特征集合和递归神经网络。特征汇集网络使用CNN独立处理每一帧,然后使用各种汇集层结合帧级信息。我们采用的递归神经网络架构源自长短时记忆(LSTM)单元,并使用记忆单元来存储、修改和访问内部状态,使其能够发现长范围的时间关系。与特征池一样,LSTM网络在帧级CNN激活的基础上运行,可以学习如何随着时间的推移整合信息。通过通过时间共享参数,这两种架构都能够保持恒定的参数数量,同时捕捉到视频的时间演变的全局描述。
为了在保持低计算量的同时学习视频的全局描述,我们建议每秒钟只处理一帧。为了弥补隐性运动信息的丢失,我们以相邻帧计算的光流图像的形式纳入显性运动信息。光流使我们能够保留运动信息的好处(通常通过高帧率采样实现),同时仍然捕捉到全局视频信息。
【论文阅读】视频理解系列论文精读_第11张图片
我们的贡献可以概括为以下几点:

  1. 我们提出了用于获得全局视频级描述符的CNN架构,并证明使用越来越多的帧数可以显著提高分类性能。
  2. 通过时间共享参数,在特征池和LSTM架构中,参数的数量与视频长度的关系保持不变。
  3. 我们确认光流图像可以极大地有利于视频分类。

2. 相关工作

我们没有试图在小时间段内学习空间-时间特征,而是考虑了几种不同的方法,在视频的长时间内(几十秒)聚集强大的CNN图像特征,包括特征池和递归神经网络。由于梯度消失和爆炸的问题,标准的递归网络在长序列的学习上有困难。相比之下,长短时记忆(LSTM)使用记忆单元来存储、修改和访问内部状态,使其能够更好地发现长距离的时间关系。

3. 模型

3.1 特征池化结构

【论文阅读】视频理解系列论文精读_第12张图片
不同的特征池架构。堆叠的卷积层用 "C "表示。蓝色、绿色、黄色和橙色的矩形分别代表最大池、时域卷积层、全连接层和softmax层。

3.2 LSTM架构

与产生顺序不变的表征的Max-pooling相比,我们建议使用一个循环神经网络来明确考虑CNN激活的序列。由于视频包含动态内容,帧与帧之间的变化可能编码了额外的信息,这对做出更准确的预测很有帮助。

【论文阅读】视频理解系列论文精读_第13张图片

这里作者介绍了LSTM的模型,但现在LSTM使用的很少。

【论文阅读】视频理解系列论文精读_第14张图片
深度视频LSTM在每个连续的视频帧中接受最后一个CNN层的输出的输入。CNN输出通过时间向前处理,并通过五层堆叠的LSTM向上处理。一个softmax层预测每个时间步骤的类别。卷积网络(粉色)和softmax分类器(橙色)的参数在不同的时间步骤中共享。

4. 训练结果

【论文阅读】视频理解系列论文精读_第15张图片

【论文阅读】视频理解系列论文精读_第16张图片

5. 结论

与以前在几秒钟的视频上进行训练的工作不同,我们的网络利用了长达两分钟的视频(120帧)来获得最佳的分类性能。如果对速度有要求,我们的方法可以在一次拍摄中处理整个视频。通过将较小的网络扩展到逐渐变大的网络并进行微调,可以进行训练。由此产生的网络在Sports-1M和UCF-101基准上都达到了最先进的性能,支持了学习应该在整个视频而不是短片段中进行的想法。
我们也表明,使用光流并不总是有帮助的,特别是如果视频没有被预处理,如Sports-1M数据集的情况。为了在这种情况下利用光流的优势,有必要采用更复杂的序列处理架构,如LSTM。此外,在图像帧上使用LSTM和光流,可以产生Sports-1M基准的最高公开性能指标。


4. Convolutional Two-Stream Network Fusion for Video Action Recognition

摘要

我们研究了一些在空间和时间上融合ConvNet的方法,有如下的:
(i)利用卷积代替softmax可以节约参数,不损失精度
(ii)在最后一个卷积层融合这种网络的空间性比早期更好,另外在类预测层融合可以提高准确性
(iii)在时空邻域汇集抽象的卷积特征进一步提高性能

1. 介绍

利用卷积网络解决动作识别问题的效果不如卷积网络在其他任务中的表现。可能原因是数据集太小而且噪声很大,而且卷积网络专注与空间信息,无法充分利用时间信息。

【论文阅读】视频理解系列论文精读_第17张图片
双流结构(或以前的任何方法)无法利用视频中两个非常重要的线索进行动作识别。(i) 识别什么东西在哪里移动,即把外观识别(空间线索)与光流识别(时间线索)登记在一起;
(ii) 这些线索如何随时间演变。

2. 相关工作

C3D在有限时间学习3D卷积,卷积核为3×3×3。另一种方法是将三维卷积拆分成二维空间卷积与一维时间卷积。
截止到目前为止(2016年),双流网络是深度学习应用于动作识别的最有效方法。

3. 方法

作者的结构构建在双流网络上。该网络有两个主要缺点:

  • 融合只在最后一层,所以不能学习空间和时间的特征。
  • 在时间尺度上的记忆是有限的,因为空间卷积只在单帧上操作,而时间卷积只在时间上相邻的L个光流帧的堆栈。

3.1 空间融合

作者列举了一系列融合空间层的方式:Sum fusion,Max fusion,Concatenation fusion,Conv fusion,Bilinear fusion
在实验部分,我们评估和比较了这些可能的融合方法在分类准确性方面的表现

3.2 在哪融合网络

【论文阅读】视频理解系列论文精读_第18张图片
左边的例子显示了在第四个卷积层之后的融合。从融合的角度看,只使用了一个网络塔。右图显示了在两层(conv5之后和fc8之后)的融合,其中两个网络塔都被保留,一个是混合时空网,一个是纯粹的空间网。
【论文阅读】视频理解系列论文精读_第19张图片
融合时间信息的不同方式。( a ) 二维汇集忽略了时间,只是在空间邻域上进行汇集,单独缩小每个时间样本的特征图的大小。( b ) 三维汇集从局部时空邻域汇集,首先跨时间堆叠特征图,然后收缩这个时空立方体。( c ) 三维卷积+三维汇集在三维汇集之前,还用一个跨越特征通道、空间和时间的融合核进行了卷积。

3.3 时间融合

将特征图xt与时间t相结合,有3D Pooling,3D Conv + Pooling

【论文阅读】视频理解系列论文精读_第20张图片
在细的时间尺度上捕捉短期信息,在粗的时间尺度上捕捉时间相邻的输入。

4. 实验与训练结果

【论文阅读】视频理解系列论文精读_第21张图片

4.1 融合双流网络的方式

【论文阅读】视频理解系列论文精读_第22张图片
对于表中所示的所有融合方法,与ReLU5相比,FC层的融合导致了较低的性能,方法的排序与表1相同,除了双线性融合不可能在FC层实现。在所有FC层中,FC8比FC7和FC6表现更好,Conv融合为85.9%,其次是Sum融合为85.1%。我们认为ReLU5表现稍好的原因是在这一层,外观和运动之间的空间对应关系被融合了,这在FC层就已经被折叠。

4.2 在哪融合

【论文阅读】视频理解系列论文精读_第23张图片
在ReLU5或ReLU5+FC8融合时,性能最好(但涉及的参数几乎是两倍)。

4.3 精度对比

【论文阅读】视频理解系列论文精读_第24张图片

5. 结论

(1)相比在最后的Softmax层融合,在中间的卷积层融合既能够提升性能,又不会增加太多参数(见融合方式)
(2)在最后一个卷积层融合(relu5)的性能是最好的,如果再配合最后一个全连接层融合(fc8),性能还能再提升一点(见融合位置)
(3)在融合后使用pool3d代替代替pool2d能更进一步地提高性能(见3D Conv和3D Pooling)


5. Temporal Segment Networks: Towards Good Practices for Deep Action Recognition

摘要

作者主要想通过较少的训练样本,高效的训练出用于动作识别的ConvNet,主要贡献有两点:

  1. 提出temporal segment network(TSN)网络模型:
    TSN采样,具备稀疏性和全局性的特征,能够建模间隔更长帧之间时间依赖关系,确保获取视频级信息
    TSN包含提取空间信息和提取时间信息两路模型,并基于后期融合方式来融合两路模型的结果
  2. 提出了一系列最佳实践方案,如数据增强、正则化、交叉模态预训练等。并取得了非常好的效果

1. 介绍

在动作识别中,有两个关键和互补的方面:外观和动态。识别系统的性能在很大程度上取决于它是否能够从中提取和利用相关信息。然而,由于许多复杂因素,如比例变化、视点变化和相机运动,提取此类信息并非易事。
主流ConvNet框架通常侧重于外观和短期运动,因此缺乏整合长期时间结构的能力。

ConvNets在基于视频的动作识别中的应用受到两个主要障碍的阻碍。首先,长距离的时间结构在理解动作视频的动态方面起着重要作用。
然而,主流的ConvNet框架通常专注于表象和短期运动,因此缺乏纳入长程时间结构的能力。其次,在实践中,训练深度ConvNets需要大量的训练样本以达到最佳性能。但数据集有限。因此,卷积网络面临着过拟合的风险。
时空段网络(TSN),这个框架用稀疏的采样方案在一个长的视频序列上提取短的片段,其中的样本沿着时间维度均匀分布。在此基础上,采用分段式结构来汇总采样片段的信息。在这个意义上,时间段网络能够对整个视频的长距离时间结构进行建模。此外,这种稀疏的抽样策略以极低的成本保留了相关的信息,从而在合理的时间和计算资源预算下实现了长视频序列的端到端学习。

探索了一些好的做法来克服上述因训练样本数量有限而造成的困难,包括:1)跨模态预训练;2)正则化;3)增强数据增量。

作者认为,在训练视频分类模型时,连续的帧会造成冗余,所以密集采样的策略是没必要的,所以作者采用了稀疏采样的策略。

2. 相关工作

主要有两种做法:

  • 双流结构,一个模型学习图像层面的信息,一个模型学习时间层面的信息,最后融合两路模型的结果
  • 使用3D卷积核,同时抽取图像层面和时间层面的信息,这衍生出了不同3D卷积核的变种

3. 模型

3.1 时序段网络TSN

具体来说,我们提出的时间段网络框架,旨在利用整个视频的视觉信息来进行视频级预测,也是由空间流ConvNets和时间流ConvNets组成。
时间段网络不是在单帧或帧堆上工作,而是在整个视频中稀疏采样的短片段序列上工作。
【论文阅读】视频理解系列论文精读_第25张图片
一个输入视频被分成K个片段,并从每个片段中随机选择一个简短的片段。不同片段的等级分数通过片段共识函数进行融合,产生片段共识,这是一个视频级别的预测。然后,来自所有模式的预测被融合以产生最终的预测。所有片段的ConvNets共享参数。

3.2 学习时序段网络

  1. 模型架构:之前的two-stream模型采用的是相对浅的模型结构,作者选择BN-Inception这种比较深的模型结构来当做building block,因为该模型在速度和准确率上都不错。

  2. 模型输入:之前two-stream模型采用RGB作为spatial stream的输入,采用光流作为temporal stream的输入。作者研究了额外的两种模态,RGB difference和warped光流。

【论文阅读】视频理解系列论文精读_第26张图片

图2. 四种类型的输入模式的例子。RGB图像、RGB差分、光流场(x,y方向)和扭曲的光流场(x,y方向)

  1. 模型训练:由于视频样本较少,训练较深的ConvNet可能会过拟合。为了解决该问题,作者提出了如下的策略:
  • 跨模态预训练:RGB网络可以使用ImageNet预训练,但是光流网络没有预训练的数据集,所有作者采用ImageNet上预训练的参数来初始化光流模型参数。
  • 正则化:Batch Normalization用来解决协变量偏移的问题。在学习过程中,BN将估计每批中的激活均值和方差,并使用它们将这些激活值转换为标准高斯分布。该操作会使得模型收敛速度变快,但是同时会带来了过拟合的问题。因为,作者通过固定住除了第一层以外,其他层的BN参数,来解决该问题。而且,作者在BN-Inception模型后面加入了dropout层,来解决过拟合的问题。
  1. 数据增强:random cropping、horizontal flipping、corner cropping、scale jittering。

4. 训练结果

(1)跨模态预训练和partial BN with dropout实验:
【论文阅读】视频理解系列论文精读_第27张图片
(2)新模态特征:RGB Difference和warped optical flow fields实验
【论文阅读】视频理解系列论文精读_第28张图片

RGB Difference和RGB特征有一定的互补性
结合RGB和光流特征,能取得非常好的效果

【论文阅读】视频理解系列论文精读_第29张图片
所以在下面的实验中,我们选择平均池化作为默认的聚合函数。

【论文阅读】视频理解系列论文精读_第30张图片
"BN-Inception+TSN "指的是在性能最好的BN-Inception架构上应用时间段网络框架的设置。
【论文阅读】视频理解系列论文精读_第31张图片

UCF101数据集上的拟议方法的成分分析。从左到右,我们一个一个地添加组件。BN-Inception被用作ConvNet架构

【论文阅读】视频理解系列论文精读_第32张图片
基于时间段网络(TSN)的方法与其他最先进的方法的比较。分别介绍了使用两种输入模式(RGB+Flow)和三种输入模式(RGB+Flow+Warped Flow)的结果。

5. 结论

作者提出了Temporal Segment Network,用于建模视频级模型,捕获长时间的运动特征。通过稀疏采样的分段结构以及各种数据增强策略,该模型在HMDB51和UCF101上取得了非常好的效果。

你可能感兴趣的:(Video,Understanding,论文阅读,视频理解,双流卷积网络)