STTran: Spatial-Temporal Transformer for Dynamic Scene Graph Generation

文章目录

  • 0 Abstract
  • 1 Introduction
  • 2 Related Work
  • 3 Method
    • 3.1 Transformer
    • 3.2 Relationship Representation
    • 3.3 Spatio-Temporal Transformer
      • 3.3.1 Spatial Encoder
      • 3.3.2 Frame Encoding
      • 3.3.3 Temporal Decoder
    • 3.4 Loss Function
    • 3.5 Graph Generation Strategies
  • 4 Experiments
    • 4.1 Dataset and Evaluation Metrics
    • 4.2 Technical Details
    • 4.3 Quantitative Results and Comparison
    • 4.4 Temporal Dependency Analysis
    • 4.5 Ablation Study
    • 4.6 Qualitative Results
  • 5 Conclusion

0 Abstract

动态场景图生成的目标是在给定的视频中生成场景图。与静态图片的场景图生成相比之下,它由于动态关系和时间依赖,能够获得更丰富的语义解释。本文提出STTran,包含了spatial encoder和temporal decoder

  • spatial encoder:对输入的每一帧提取空间上下文以及视觉关系。
  • temporal decoder:以spatial encoder的输出作为输入,从而捕获帧与帧之间的时间依赖关系,并推理动态关系。

STTran能适用于不同时长的视频,尤其是能对长视频能有不错的效果。我们的方法在Action Genome(AG) benchmark数据集上验证,实现了动态场景图生成的SOTA,并对每个模块做了消融实验。

Contributions

  • 提出了一个新的框架STTran,对每帧的空间上下文进行编码,并对帧之间时间依赖的视觉关系表征进行解码。
  • 不同于大多数相关工作,提出了一个新的策略去生成动态场景图。
  • 验证了时间依赖会对关系预测有积极影响,模型提高了视频理解的性能,最终在AG数据集上实现SOTA。

1 Introduction

STTran: Spatial-Temporal Transformer for Dynamic Scene Graph Generation_第1张图片
图1 图片和视频的场景图生成之间的区别

动态场景图生成会利用spatial context和temporal dependencies,每个不同颜色的节点表示不同物体

静态场景图生成是基于一个object detector生成object proposals,然后再推断它们之间的关系以及对象类别。然而,对象不一定在视频序列中是连续的,任意两个对象的关系会随着它们的运动而变化,我们称之为dynamic,因此,静态场景图生成方法无法直接用于动态场景。

2 Related Work

  • Scene Graph Generation
    • 概念:场景图生成最早在图像检索中提出来,它是一种基于图的表示,描述对象之间的交互,节点表示对象,而边表示关系。
    • 应用:图像检索、图像捕获、视觉问答VQA,以及图像生成。
    • 不足:现实生活中普遍会出现多样化的交互关系,而大多数任务默认edge预测为single-label分类。这些方法往往是针对静态图像设计的,而为了扩展到视频,Ji等人根据分解视频中的活动,收集了大量的动态场景图,并提高了视频动作识别的SOTA。
  • Transformer for Computer Vision
    • 在NLP任务上,尤其是大规模预训练语言模型,如GPT、BERT。
    • 在视觉-语言任务上,例如image captioning、VQA、Caption-Based Image Retrieval和Visual Commonsense Reasoning(VCR)。最近,提出了DERT用于目标检测和全景分割。
    • Transformer用来挖掘视觉信息,取代了传统的CNN backbone。
      • 它的核心机制是self-attention building block,通过有选择地关注输入点进行预测,从而捕获不同输入点之间的context和每个点的表征。
      • 然而,以前方法都聚焦于学习单张图片中的spatial context,而temporal dependencies在视频理解中是十分重要的。
        • Action Transformer中利用了transformer实现了spatio-temporal representations,参考了I3D模型,然后在RPN网络提供的RoI中池化,对视频片段进行人的行为识别。
        • 每帧的特征是由CNN backbone提取出来的,输入至transformer encoder,去学习视频序列的时间信息。
  • Spatial-Temporal Networks
    • Spatial-temporal信息是视频理解的关键,最流行的方法是基于RNN/LSTM的、基于3D ConvNets的框架。
      • 基于RNN/LSTM的框架:对每帧按顺序提取特征,并学习时间信息。
      • 基于3D ConvNets的框架:利用输入序列的时间维度,扩展了传统的2D卷积(height和width)
    • 本工作中,我们不仅利用transformer去学习对象之间的空间context,还学习了帧与帧之间的时间依赖,从而推断随着时间变化的动态关系。

3 Method

动态场景图是基于静态场景图的,有一个额外的索引t表示随时间变化的关系。transformer的两个特性:

  1. 结构是包裹不变的(permutation-invariant)。
  2. 序列与位置编码兼容。

我们提出一个新模型STTran,能够利用视频中的时空上下文。

3.1 Transformer

Transformer最早由Vaswani提出,它由一叠基于点积注意的多头transformer精炼层组成,每一层中的输入是 X ∈ R N × D X∈R^{N×D} XRN×D,N个entityD个维度,通过线性变换为queries( Q = X W Q , W Q ∈ R D × D q Q=XW_Q, W_Q∈R^{D×D_q} Q=XWQ,WQRD×Dq),keys( K = X W K , W K ∈ R D × D k K=XW_K,W_K∈R^{D×D_k} K=XWK,WKRD×Dk)以及values( V = X W V , W V ∈ R D × D v V=XW_V,W_V∈R^{D×D_v} V=XWV,WVRD×Dv)

注意: D q , D k , D v D_q,D_k,D_v Dq,Dk,Dv通常在实现中相同,每个entity都通过点积attetion与其他entity进行细化,定义如下:
A t t e n t i o n ( Q , K , V ) = S o f t m a x ( Q K T D k ) V Attention(Q,K,V)=Softmax(\frac{QK^T}{\sqrt{D_k}})V Attention(Q,K,V)=Softmax(Dk QKT)V
为了提高attention层的性能,应用的多头注意力定义为:
M u l t i H e a d ( Q , K , V ) = C o n c a t ( h 1 , . . . , h h ) W O MultiHead(Q,K,V)=Concat(h_1,...,h_h)W_O MultiHead(Q,K,V)=Concat(h1,...,hh)WO

h i = A t t e n t i o n ( X W Q , X W K , X W V i ) h_i=Attention(XW_Q,XW_K,XW_{V_i}) hi=Attention(XWQ,XWK,XWVi)

一个完整的自注意力层包含了如上的self-attention模块,之后是一个残差连接的归一化层和一个前馈层。

后续自注意力层简称为 A t t ( . ) Att(.) Att(.)

本工作中,我们设计了一个时空transformer,探索单帧的空间context、序列的时间dependencies。

3.2 Relationship Representation

我们使用Faster R-CNN作为backbone,对 T T T帧的视频 V = [ I 1 , I 2 , . . . , I T ] V=[I_1,I_2,...,I_T] V=[I1,I2,...,IT],时间为t时的帧表示为 I t I_t It,detector提取的视觉特征为 { v t 1 , . . . , v t N ( t ) } ∈ R 2048 \{v_t^1,...,v_t^{N(t)}\}∈R^{2048} {vt1,...,vtN(t)}R2048,bounding boxes为 { b t 1 , . . . , b t N ( t ) } \{b_t^1,...,b_t^{N(t)}\} {bt1,...,btN(t)},对象种类分布为 { d t 1 , . . . , d t N ( t ) } \{d_t^1,...,d_t^{N(t)}\} {dt1,...,dtN(t)},其中 N ( t ) N(t) N(t)表示该帧下对象的数量。在每帧的 N ( t ) N(t) N(t)个对象之间有一组关系向量 R t = { r t 1 , . . . , r t K ( t ) } R_t=\{r_t^1,...,r_t^{K(t)}\} Rt={rt1,...,rtK(t)},第i和j个对象之间的 r t k r_t^k rtk关系对应的表征向量 x t k x_t^k xtk包含了视觉外观、空间信息、和语义嵌入,公式如下:
x t k = < W s v t i , W o v t j , W u ϕ ( u t i , j ⊕ f b o x ( b t i , b t j ) ) , s t i , s t j > x_t^k= xtk=<Wsvti,Wovtj,Wuϕ(uti,jfbox(bti,btj)),sti,stj>
其中, < , > <,> <,>表示连接操作, ϕ \phi ϕ表示扁平操作、 ⊕ ⊕ 表示逐元素加法, W s , W o ∈ R 2048 × 512 , W u ∈ R 12544 × 512 W_s,W_o∈R^{2048×512},W_u∈R^{12544×512} Ws,WoR2048×512WuR12544×512表示维度压缩的线性矩阵。 u t i , j ∈ R 256 × 7 × 7 u_t^{i,j}∈R^{256×7×7} uti,jR256×7×7表示RoIAlign计算出的union box的特征图,而 f b o x f_{box} fbox是一个将subject和object的bbox转换成一个完整的特征(与 u t i , j u_t^{i,j} uti,j形状一致),语义嵌入向量 s t i ∈ R 200 s_t^i∈R^{200} stiR200由subject和object的对象类别决定。关系表征在时空transformer中交换了spatial和temporal信息。

3.3 Spatio-Temporal Transformer

STTran: Spatial-Temporal Transformer for Dynamic Scene Graph Generation_第2张图片

ST-transformer依然保持着encoder-decoder架构,不同的是,此处的encoder和decoder会处理更具体的任务。

3.3.1 Spatial Encoder

Spatial Encoder集中在每一帧的空间上下文,其输入是单个的 X t = { x t 1 , x t 2 , . . . , x t K ( t ) } X_t=\{x_t^1,x_t^2,...,x_t^{K(t)}\} Xt={xt1,xt2,...,xtK(t)},queries Q Q Q、keys K K K和values V V V在第n个encoder层中共享着相同的输入和输出,表示为:
X T ( n ) = A t t e n c . ( Q = K = V = X t ( n − 1 ) ) X_T^{(n)}=Att_{enc.}(Q=K=V=X_t^{(n-1)}) XT(n)=Attenc.(Q=K=V=Xt(n1))
这个encoder由N个自注意力层 A t t e n c . Att_{enc.} Attenc.依次堆叠组成,第n-1层的输出作为第n层的输入。为了简便,我们下面不讨论superscript n。不像大多数transformer方法,由于帧之间的关系直观上是平行的,因此我们没有将额外的positional encoding集成到inputs里面去。隐藏关系表中的空间信息在self-attention机制中起着关键作用。encoder statcks最后的输出会作为Temporal decoder的输入。

3.3.2 Frame Encoding

在temporal decoder介绍之前,先介绍一下frame encoding。没有卷积和递推,序列顺序的知识(例如位置编码)必须嵌入transformer的input。与word position和pixel position不同,我们定制了frame encodings,在关系表征中注入了时间位置。帧编码 R f R_f Rf是由学到的embedding参数所构建的,因为嵌入向量的数量(取决于Temporal Decoder的窗口大小)是稳定且相对较小的: E f = [ e 1 , . . . , e η ∈ R ] E_f=[e_1,...,e_\eta∈R^] Ef=[e1,...,eηR],其中 e 1 , . . . , e η ∈ R 1936 e_1,...,e_\eta∈R^{1936} e1,...,eηR1936是学到的相同长度为 x t k x_t^k xtk的向量。

广泛使用的正弦编码在table 5中尽心了对比,我们使用的拥有更好性能的learned encoding,窗口大小 η \eta η是固定的,因此视频长度不会影响到frame encoding的长度。

3.3.3 Temporal Decoder

通过temporal decoder捕获帧之间的时间依赖,计算量和内存消耗都急剧提高,但有用信息很容易被大量无关表示压倒。在本文中,我们采用一个滑动窗口用于批处理视频帧,以至于消息在相邻帧之间传递,从而避免了与远处帧发生干扰。

我们temporal decoder的自注意力层与spatial encoder A t t e n c . ( ) Att_{enc.}() Attenc.()相同,即masked multi-head self-attention layers被移除。滑动窗口 η \eta η在空间上下文表示 [ X 1 , . . , X T ] [X_1,..,X_T] [X1,..,XT]的序列上执行,第i个生成的输入批次表示为:
Z i = [ X i , . . . , X i + η − 1 ] , i ∈ { 1 , . . . , T − η + 1 } Z_i=[X_i,...,X_{i+\eta-1}],i∈\{1,...,T-\eta+1\} Zi=[Xi,...,Xi+η1],i{1,...,Tη+1}
其中窗口大小 η ≤ T \eta≤T ηT T T T是视频长度。

这个decoder是由N个堆叠的相同self-attention layer A t t d e c ( ) Att_{dec}() Attdec()组成的。第一层如下“
Q = K = Z i + E f , V = Z i , Z i ^ = A t t d e c . ( Q , K , V ) Q=K=Z_i+E_f, \\ V=Z_i, \\ \hat{Z_i}=Att_{dec.}(Q,K,V) Q=K=Zi+Ef,V=Zi,Zi^=Attdec.(Q,K,V)
如上第一行公式,同样的encoder也被添加到关系表征中,与Queries和Keys放在同一个框架中。最后一个decoder层的输出将作为最终的预测结果。由于滑动窗口,每个帧的关系会在不同的batch中有多种多样的表征。本文中我们选择最早在窗口中出现的表征。

3.4 Loss Function

我们采用multiple linear transformer的来推断精炼表征与不同类型的关系(如注意力、空间、接触)。事实上,两个对象之间的同种关系在语义上不是唯一的,例如同义动作person-holding-broom和person-touching-broom。因此,我们使用multi-label margin loss function去进行谓词分类:
L p ( r , P + , P − ) = ∑ p ∈ P + ∑ q ∈ P − m a x ( 0 , 1 − ϕ ( r , p ) + ϕ ( r , q ) ) L_p(r,P^+,P^-)=\sum_{p∈P^+}\sum_{q∈P^-}max(0,1-\phi(r,p)+\phi(r,q)) Lp(r,P+,P)=pP+qPmax(0,1ϕ(r,p)+ϕ(r,q))
其中,一个人-物对 r r r P + P^+ P+是已标记的谓词,而 P − P^- P是一组不在标注内的谓词。 ϕ ( r , p ) \phi(r,p) ϕ(r,p)表示计算出的第p个谓词的置信度。

在训练过程中,物体类别分布是由两个全连接层(ReLU激活函数+批量归一化)计算得到的, L o L_o Lo使用的是标准交叉熵损失,完整的损失函数为: L t o t a l = L p + L o L_{total}=L_p+L_o Ltotal=Lp+Lo

3.5 Graph Generation Strategies

以前的工作中,生成场景图有两种经典策略:

  1. With Constraint
    • 只允许每个subject-object对最多只有一个谓词
    • 更加严格,表明了模型预测最重要关系的能力,但它与multi-label任务是不兼容的。
  2. No Constraint
    • 允许每个subject-object有多个谓词。
    • 反映多标签预测能力,能容忍多个财产导致生成的场景图中出现错误信息。

为了能够使生成的场景图更接近Ground Truth,我们提出了一个新的策略叫做Semi Constraint,允许一个subject-object对有多重谓词,如person-holding-food、person-eating-food

如果关系的置信度高于阈值,则相应谓词被视为正谓词。在测试时,每个关系三元组的得分计算如下:
s r e l = s s u b ⋅ s p ⋅ s o b j s_{rel}=s_{sub}·s_p·s_{obj} srel=ssubspsobj
其中三者分别是subject、predicate和object的置信度。

4 Experiments

4.1 Dataset and Evaluation Metrics

Dataset:Action Genome(AG)基于Charades数据集,35个object类别(不包括person)共有476229个bbox,25个关系类别共有1715568个实例,标注在234253帧中。

25种关系可以分为三种类型:

  1. attention关系
  2. spatial关系
  3. contact关系

AG种有135484个subject-object对被标记为多重spatial关系(如door-in front of-person、door-on the side of-person),多重contact关系(如person-eating-food、person-holding-food)

Evaluation Metrics:我们遵循图片场景图生成的三个标准任务进行评估

  1. predicate classification (PREDCLS)

    给定ground truth的labels和bbox,预测subject-object对的谓词label。

  2. scene graph classification (SG-CLS)

    对ground truth bbox进行分类,预测关系label。

  3. scene graph detection (SGDET)

    检测目标并预测关系label。(若预测的box与ground truth bbox的IoU大于0.5,则目标检测结果正确)

三个任务均由Recall@K(K=[10,20,50]) 指标,分别按照With Constraint、Semi Constraint和No Constraint进行评估。默认设置Semi Constraint的关系置信度阈值为0.9

4.2 Technical Details

目标检测的backbone采用的是基于ResNet101的FasterRCNN,我们在Action Genome训练集上训练一个检测器,得到24.6的mAP(0.5 IoU的COCO指标)。该检测器用于所有baselines进行公平对比,训练场景图生成模型时的参数(包括RPN)均固定,每个类别的NMS的IoU阈值为0.4,能够减少region proposals。

我们利用AdamW优化器,初始学习率为 1 e − 5 1e^{-5} 1e5,批量大小为1,训练我们的模型。梯度剪切的maximal norm为5,窗口大小$ \eta 为 2 ,步长为 1 。 s p a t i a l e n c o d e r 包含一层,而 t e m p o r a l d e o c o d e r 包含了 3 个迭代层。 e n c o d e r 和 d e c o d e r 种的自注意力模块有 8 个 h e a d s , 为2,步长为1。spatial encoder包含一层,而temporal deocoder包含了3个迭代层。encoder和decoder种的自注意力模块有8个heads, 2,步长为1spatialencoder包含一层,而temporaldeocoder包含了3个迭代层。encoderdecoder种的自注意力模块有8headsd_{model}=1936, dropout=0.1$,前馈网络将 1936-d 输入投射到 2048-d,然后在 ReLU 激活后再次投射到 1936-d。

4.3 Quantitative Results and Comparison

STTran: Spatial-Temporal Transformer for Dynamic Scene Graph Generation_第3张图片

STTran: Spatial-Temporal Transformer for Dynamic Scene Graph Generation_第4张图片

表1,2对比了我们的模型在三种约束下均实现了SOTA,所有的方法均使用相同的object detector,提供了相同的feature maps和region proposals。

4.4 Temporal Dependency Analysis

以前基于图片的场景图生成相比,动态场景图有额外的temporal dependencies,接下来讨论一下它是如何提高关系推理的,并验证我们的利用了它的方法。

为了探索temporal dependencies的效果,我们迁移广泛使用的循环网络LSTM,如下图3所示。在将特征向量转入最终分类器之前,代表视频中各种关系的整个向量被组织成一个序列,并由 LSTM 进行处理。

STTran: Spatial-Temporal Transformer for Dynamic Scene Graph Generation_第5张图片

我们随机选取1/3的视频打乱或者翻转,与不打乱或者翻转的情况对比,如下所示,打乱或者翻转会导致最后的结果较差。

STTran: Spatial-Temporal Transformer for Dynamic Scene Graph Generation_第6张图片

4.5 Ablation Study

在STTran种,包含了Spatial Encoder和Temporal Decoder两个模块,以及通过Frame Encoding整合了temporal position到关系表征中(在Temporal Decoder模块中),为了验证哪个部分对模型性能影响最大,进行了相应的消融实验,如下表所示:

STTran: Spatial-Temporal Transformer for Dynamic Scene Graph Generation_第7张图片

如下图所示,没有temporal dependencies时,spatial encoder会误检为person-touching-food,而不是正确的person-eating-food。

STTran: Spatial-Temporal Transformer for Dynamic Scene Graph Generation_第8张图片

4.6 Qualitative Results

如下五列图片分别是RGB frame、Ground Truth生成的场景图、top-10可信的关系预测结果在三种策略下生成的场景图(With / Semi / No Constraint)。灰色表示False Positive、瓜色表示Truth Positive、绿色box表示未被detector检测出。

With Constraint只允许每对subject-object有一个类型的关系,而No Constraint中的person-not contacting-bottle取代了attention relationship。

注:下面两帧不是相邻的,因为人的IoU小于0.5。

STTran: Spatial-Temporal Transformer for Dynamic Scene Graph Generation_第9张图片

5 Conclusion

  • 提出了STTran,针对动态场景图生成,其中的encoder提取每帧的spatial context,decoder捕获帧与帧之间的temporal dependencies。
  • 与以往单标签loss不同的是,我们利用一个multi-label margin loss并采用一个新的场景图生成策略。
  • 几个实验都演示了temporal context对关系预测是有积极影响的,在AG数据集上的动态场景图生成任务上获得了SOTA。

你可能感兴趣的:(论文笔记,计算机视觉,transformer,计算机视觉)