CV_Daily Issue 28

CV_Daily Issue 28

Yang Xian
  • [2019 ICCV oral]Temporal Attentive Alignment for Large-Scale Video Domain Adaptation

尽管近年来已经提出了各种基于图像的域自适应(DA)技术,但视频中的域移位仍未得到很好的研究。
以前的大多数工作只评估饱和的小规模数据集的性能。
因此,我们首先提出两个具有较大域差异的大型视频DA数据集:UCF-HMDB_full和Kinetics-Gameplay。
其次,我们研究了视频的不同DA集成方法,并表明即使没有复杂的DA方法,同时对齐和学习时间动态也可以实现有效对齐。
最后,我们提出了时间注意力对抗适应网络(TA3N),该网络使用域差异显式地参与时间动态,以实现更有效的域对齐,从而在四个视频DA数据集上实现了最先进的性能(例如,在7.9%的精度下,
“仅来源”的收入从“ HMDB-> UCF”的73.9%增至81.8%,而“运动学->游戏性”的收益则为10.3%。)
CV_Daily Issue 28_第1张图片

  • [2019 ICCV oral]DeepGCNs: Can GCNs Go as Deep as CNNs?

卷积神经网络(CNN)在广泛的领域中均取得了令人印象深刻的性能。
当能够深度可靠地训练非常深的CNN模型时,他们的成功得益于巨大的推动力。
尽管有其优点,但CNN无法正确解决非欧几里得数据的问题。
为了克服这一挑战,图卷积网络(GCN)建立了表示非欧几里得数据的图,从CNN中借鉴了概念,并将其应用于训练中。
GCN显示出令人鼓舞的结果,但由于梯度问题消失,它们通常仅限于非常浅的模型。
因此,大多数最新的GCN模型的深度都不超过3或4层。
在这项工作中,我们提出了成功训练非常深的GCN的新方法。
为此,我们借鉴了CNN的概念,特别是残差/密集连接和膨胀卷积,并将其调整为GCN架构。
大量的实验表明了这些深层的GCN框架的积极作用。
最后,我们使用这些新概念构建了一个非常深的56层GCN,并展示了它在点云语义分割任务中如何显着提高性能(与最新技术相比提高了3.3%mIoU)。
我们相信社区可以从这项工作中大大受益,因为它为推进基于GCN的研究提供了许多机会。
CV_Daily Issue 28_第2张图片CV_Daily Issue 28_第3张图片
CV_Daily Issue 28_第4张图片

你可能感兴趣的:(3.,深度学习)