CV Papers|计算机视觉论文推荐周报20200504期

五月第四周,推荐本周新出的几篇不错的CV论文,其中包含5篇最新综述,希望对大家有帮助。

   图像检索

#CVPRW2020##衣服检索#

[1].An Effective Pipeline for a Real-world Clothes Retrieval System

真实世界服装拍照检索

本文为DeepFashion2 Clothes Retrieval 2020挑战赛第二名方案

其方法主要分三个部分:检测、检索和后处理。首先对目标服装进行检测,然后对找到的感兴趣的目标部分进行精确的检索,然后用基于度量学习的模型检索出相应的物品。为了提高检索的鲁棒性,应用了加权框融合和特征聚合等后处理方法来提高检索的鲁棒性。

作者 | Yang-Ho Ji, HeeJae Jun, Insik Kim, Jongtack Kim, Youngjoon Kim, Byungsoo Ko, Hyong-Keun Kook, Jingeun Lee, Sangwon Lee, Sanghyuk Park

单位 | NAVER/LINE Vision

论文 | https://arxiv.org/abs/2005.12739

   水下图像增强

#CVPRW 2020#

[2].L^2UWE: A Framework for the Efficient Enhancement of Low-Light Underwater Images Using Local Contrast and Multi-Scale Fusion

L^2UWE:基于局部对比度和多尺度融合的高效低光照水下图像增强框架

该算法分为两个模型,一个突出细节,一个消除黑暗。在 7 个评价指标上与 7 个SOTA算法比较取得了明显的有效性。

作者 | Tunai Porto Marques, Alexandra Branzan Albu

单位 | 维多利亚大学

论文 | https://arxiv.org/abs/2005.13736

   3D目标重建

#实例分割##三维重建#

[3].AutoSweep: Recovering 3D Editable Objects from a Single Photograph

AutoSweep: 从一张照片中恢复可编辑的3D目标

本文提出了一个全自动的框架,可以直接从一张照片中提取可编辑的3D对象。与以往的方法不同,我们的目标是恢复具有语义部分的三维物体,并且可以直接编辑。

我们的工作基于这样的假设,即大多数人类制造的物体都是由部分组成的,而这些部分可以用广义基元来很好地表示。我们的工作试图恢复两种类型的原形对象,即广义立方体和广义圆柱体。

定性和定量实验表明,我们的算法可以恢复高质量的三维模型,在实例分割和三维重建方面都优于现有的方法。

IEEE transactions on visualization and computer graphics 论文

作者 | Xin Chen, Yuwei Li, Xi Luo, Tianjia Shao, Jingyi Yu, Kun Zhou, Youyi Zheng

单位 | 上海科技大学;利兹大学;浙大

论文 | https://arxiv.org/abs/2005.13312

网站 | https://chenxin.tech/files/Paper/TVCG2018_

AutoSweep/AutoSweep.html

   GAN

#CVPRW 2020#

[4].SegAttnGAN: Text to Image Generation with Segmentation Attention

文本到图像生成

该文将目标的mask引入到文本到图像生成中(SegAttnGAN),发现提升了文本生成的质量。为进一步自动化获取mask,作者引入self-attention SegAttnGAN,使得mask也是系统自动生成,同样获得了高质量的图像合成效果。

摘要:在本文中,我们提出了一种新型的生成器网络(SegAttnGAN),利用额外的分割信息来完成文本到图像合成任务。由于引入到模型中的分割数据为生成器训练提供了有用的指导,与以往的先进方法相比,所提出的模型可以生成具有更好的真实度质量和更高的量化指标的图像。该方法在CUB数据集上的Inception Score为4.84,在Oxford-102数据集上的Inception Score为3.52。

此外,我们测试了self-attention SegAttnGAN,该模型使用生成的分割数据代替数据集中的mask,并取得了类似的高质量结果,表明我们的模型可以适用于高质量的文本到图像合成任务。

作者 | Yuchuan Gou, Qiancheng Wu, Minghao Li, Bo Gong, Mei Han

单位 | PAII Inc,加州大学伯克利分校

论文 | https://arxiv.org/abs/2005.12444

   人体姿态迁移

[5].Towards Fine-grained Human Pose Transfer with Detail Replenishing Network

基于细节补充网络的细粒度人体姿态迁移研究

人体姿态迁移(HPT)是一个新兴的研究课题,在时装设计、媒体制作、网络广告和虚拟现实等领域具有巨大的应用潜力。对于这些应用来说,外观细节的视觉逼真度对制作质量和用户参与度至关重要。然而,现有的HPT方法往往存在三个基本问题:细节缺陷、内容模糊和风格不一致,严重降低了生成图像的视觉质量和真实度。针对现实世界的应用,我们开发了一种更具挑战性但又更实用的HPT设置,被称为Fine-grained Human Pose Transfer (FHPT),更注重语义保真和细节补充。

具体来说,我们通过一个例子分析了现有方法的潜在设计缺陷,并将内容合成和特征转移的思想梳理在一起,以相互指导的方式建立了FHPT的核心方法论。此后,我们用一个细节补充网络(DRN)和相应的粗到细模型训练方案来证实所提出的方法。

此外,我们建立了一套完整的细粒度评估协议,以全面解决FHPT的挑战,包括语义分析、结构检测和感知质量评估。在DeepFashion基准数据集上进行的大量实验验证了所提出的基准方法与该领域最初工作相比的优势,在Top-10检索召回上有12%-14%的增益,联合定位精度提高了5%,在人脸身份保持上的增益接近40%。

作者 | Lingbo Yang, Pan Wang, Chang Liu, Zhanning Gao, Peiran Ren, Xinfeng Zhang, Shanshe Wang, Siwei Ma, Xiansheng Hua, Wen Gao

单位 | 北大、阿里、中国科学院大学

论文 | https://arxiv.org/abs/2005.12494

   换装人员重识别

[6].Long-Term Cloth-Changing Person Re-identification

长时间隔的换装人员重识别

前几天中科院等公布了一个换装人员重识别数据集并提出了相关算法,这篇文章也重点关注换装人员的重识别,但挑战更大,间隔时间可在几天或几个月,看来ReID领域,换装ReID是大家都看到的想要解决的问题。

摘要:人员重识别(Re-ID)的目的是在不同地点和时间,在不同的摄影机视角中匹配目标人物。现有的Re-ID研究主要集中在短期内的衣着一致性设置上,在这种情况下,一个人以相同的服装重新出现在不同的摄像头视图中。因此,现有的深度Re-ID模型所学习的判别特征表示是由服装的视觉外观所主导的。

在这项工作中,我们专注于一个难度更大但实用性更强的场景,即人与人的匹配是在长时间间隔后进行的,例如,在几天和几个月的时间里,因此不可避免地面临着人物换衣服的新挑战。由于缺乏大规模的数据集,这个被称为长时间隔换装人员重识别(Long-Term Cloth-Changing (LTCC) Re-ID)的问题研究不足。

这项工作的第一个贡献是建立了一个新的LTCC数据集,其中包含了长时频繁换衣的人群。

第二个贡献,我们提出了一种新型的Re-ID方法,专门用于解决换衣的挑战。具体来说,我们认为在换衣的情况下,身体形状等柔性的生物计量学方法会更可靠。因此,我们引入了一个形状嵌入模块,同时也引入了一个消除布匹的形状分解模块,旨在消除现在不可靠的服装外观特征,将注意力集中在体形信息上。

大量的实验表明,在新的LTCC数据集上,所提出的模型取得了优异的性能。

代码和数据集将公布。

作者 | Xuelin Qian, Wenxuan Wang, Li Zhang, Fangrui Zhu, Yanwei Fu, Tao Xiang, Yu-Gang Jiang, Xiangyang Xue

单位 | 复旦;牛津;英国萨里大学;

论文 | https://arxiv.org/abs/2005.12633

网站 | https://naiq.github.io/LTCC_Perosn_ReID.html

   少样本学习

#CVPR 2020#

[7].Boosting Few-Shot Learning With Adaptive Margin Loss

通过自适应Margin损失促进少样本学习

华为等提出通过自适应Margin损失促进少样本学习

作者 | Aoxue Li, Weiran Huang, Xu Lan, Jiashi Feng, Zhenguo Li, Liwei Wang

单位 | 华为诺亚方舟实验室;北大;伦敦玛丽女王大学;新加坡国立大学

论文 | https://arxiv.org/abs/2005.13826

   无人机路径优化

#ICRA 2020#

[8].Perception-aware time optimal path parameterization for quadrotors

用于无人机的考虑感知时间的最优路径参数化问题研究

研究无人机根据视觉信息的路径优化问题,提出了一种基于视场要求转化为平方速度曲线的凸约束的算法。

作者 | Igor Spasojevic, Varun Murali, Sertac Karaman

单位 | MIT

论文 | https://arxiv.org/abs/2005.13986

   医学影像

#CVPRW 2020##深度学习##肺炎检测#

[9].Deep Learning for Automatic Pneumonia Detection

自动肺炎检测的深度学习方案

本文为Kaggle X光肺炎检测比赛第二名方案。

作者 | Tatiana Gabruseva, Dmytro Poplavskiy, Alexandr A. Kalinin

单位 | 密歇根大学;深圳大数据研究院

论文 | https://arxiv.org/abs/2005.13899

代码|https://github.com/tatigabru/kaggle-rsna

数据集下载:Kaggle新上比赛:胸部X光片肺炎检测

   局部特征提取

[10].D2D: Keypoint Extraction with Describe to Detect Approach

关键点检测新方法D2D:先描述后检测

以往局部特征的提取往往采用先检测关键点再描述,或者检测和描述同步进行的方法,该文一反常规,提出一种新颖的思路,先进行密度特征描述,再按照大量不同位置的描述的信息的丰富程度筛位置作为关键点。该方法可以与现有的大量的传统和CNN特征描述相结合。

实验显示,使用上述思路提取的关键点显著改进了图像匹配、相机定位、3D重建等任务。

作者 | Yurun Tian, Vassileios Balntas, Tony Ng, Axel Barroso-Laguna, Yiannis Demiris, Krystian Mikolajczyk 

单位 | 伦敦帝国学院;Scape Technologies

论文 | https://arxiv.org/abs/2005.13605

   遮挡目标检测

#CVPR 2020# 

[11].Robust Object Detection under Occlusion with Context-Aware CompositionalNets

基于上下文感知的CompositionalNets,用于遮挡鲁棒的目标检测

一般认为上下文信息有助于目标的检测,但该文认为在强烈遮挡的场景中,目标的上下文(背景)信息,会大大阻碍正确检测到目标。作者在CompositionalNets算法的基础上做了两项改进来提高遮挡目标的检测:

  • 在训练时通过将目标与上下文mask分割,减弱上下文对目标本身特征的影响;

  • 改进CompositionalNets中的投票方案,使其对目标的边界框角点进行投票,这使得模型能够可靠的估计部分被遮挡的目标的边界框。

大量实验表明,该文提出的模型对遮挡目标检测鲁棒,相对于Faster R-CNN,将PASCAL3D+和MS-COCOCO数据集上的强列遮挡车辆的检测性能分别提高了41%和35%。

作者 | Angtian Wang, Yihong Sun, Adam Kortylewski, Alan Yuille

单位 | 约翰斯·霍普金斯大学

论文 | https://arxiv.org/abs/2005.11643

   目标跟踪

[12].AFAT: Adaptive Failure-Aware Tracker for Robust Visual Object Tracking

自适应的错误感知跟踪器,用于稳健的视觉目标跟踪

该文发明了一种跟踪质量预测网络(QPN),用于预测跟踪出现错误的情况,并将其与先进的Siamese跟踪器结合,实现了自适应的错误感知的目标跟踪。

具体方法为收集前一帧的序列响应图和当前帧的序列响应图来预测跟踪置信度,在决策层基于卷积和LSTM模块实现时空融合,预测跟踪出现错误的概率。

实验结果证明了本文提出的错误感知系统的有效性,在精度和速度上都有出色的平衡性能。

作者 | Tianyang Xu, Zhen-Hua Feng, Xiao-Jun Wu, Josef Kittler

单位 | 萨里大学 ;江南大学

论文 | https://arxiv.org/abs/2005.13708

   SLAM

#CVPR 2020#

[13].Neural Topological SLAM for Visual Navigation

用于视觉导航的神经拓扑SLAM

本文研究了图像-目标导航的问题,它涉及到在一个新的未知环境中导航到目标图像所指示的位置。为了解决这个问题,本文设计了有效地利用语义和近似几何推理的空间拓扑表示。其表示的核心是具有语义特征的节点,这些节点使用粗糙的几何信息相互连接。该文实验了基于监督学习的算法,这些算法可以在即使存在噪声情况下建立、维护和使用这样的表征。在视觉和物理仿真中的实验研究表明,该方法能够建立有效的表示,能够捕获结构规律性,并有效地解决长距离导航问题。与现有的研究该任务的方法相比,该方法相对改进了50%以上。

作者 | Devendra Singh Chaplot, Ruslan Salakhutdinov, Abhinav Gupta, Saurabh Gupta

单位 | CMU、FAIR、UIUC

论文 | https://arxiv.org/abs/2005.12256

网站 | https://www.cs.cmu.edu/~dchaplot/projects/neural-topological-slam.html

video | https://youtu.be/R4hMm6AXCwo

   掌纹识别

[14].A Joint Pixel and Feature Alignment Framework for Cross-dataset Palmprint Recognition

用于跨数据集掌纹识别的联合像素和特征对齐的框架

西安交大提出一种跨数据集的掌纹识别新方法,通过在像素级和特征级的数据对齐,实现新的SOTA。

在几个基准数据集上的实验结果表明,该文算法JPFA优于其他模型,达到了最先进的水平。与基线相比,交叉数据集识别的准确率提高了28.10%,交叉数据集验证的等效误差率(EER)降低了4.69%。

作者 | Huikai Shao,钟德星

单位 | 西安交大

论文 | https://arxiv.org/abs/2005.12044

数据集 | http://gr.xjtu.edu.cn/web/bell/resource

   最新综述

#少样本学习#

[15].A Concise Review of Recent Few-shot Meta-learning Methods

简评近期少样本元学习方法

本文将少样本元学习方法分为四类,总结了其存在挑战和未来可能方向。

作者 | Xiaoxu Li, Zhuo Sun, Jing-Hao Xue, Zhanyu Ma

单位 | 兰州理工大学;伦敦大学学院;北京邮电大学

论文 | https://arxiv.org/abs/2005.10953

#语义分割##域自适应#

[16].Unsupervised Domain Adaptation in Semantic Segmentation

语义分割中的无监督域自适应

作者 | Marco Toldo, Andrea Maracani, Umberto Michieli, Pietro Zanuttigh

单位 | 帕多瓦大学

论文 | https://arxiv.org/abs/2005.10876

#车辆重识别#

[17].A survey on vehicle re-identification

车辆再识别技术综述

这‮一是‬篇中‮论文‬文,从技术分类、特征提取、‮法方‬设计‮现表能性和‬等方面对‮辆车‬再识别技术‮概了行进‬述、比较和分析,指出‮挑前目了‬战及发展趋势。

作者 | 刘凯,李浥东,林伟鹏

单位 | 北京交通大学

论文 | http://www.infocomm-journal.com/znkx/CN/abstract/abstract170094.shtml#1

#GAN#

[18].Generative Adversarial Networks (GANs): An Overview of Theoretical Model, Evaluation Metrics, and Recent Developments

生成对抗网络(GANs):理论模型、评价指标及其最新进展综述

在本文中,在介绍了GAN的主要概念和理论后,对比了两种新的深度生成器模型,并对文献中使用的评价指标和GAN目前面临的挑战进行了总结。此外,还对最知名的GAN架构进行了分类和讨论。最后,研究了GAN在计算机视觉中的应用。

作者 | Pegah Salehi, Abdolah Chalechale, Maryam Taghizadeh

单位 | Razi University

论文 | https://arxiv.org/abs/2005.13178

我爱计算机视觉公众号对话框回复“CVPapers”即可获取以上所有论文下载地址。(网盘位置:Papers周报--20200504期)

往期"精彩阅读"

  • CV Papers|计算机视觉论文推荐周报20200501期

  • CV Papers|计算机视觉论文推荐周报20200502期

  • CV Papers|计算机视觉论文推荐周报20200501期

END

备注如:目标检测

细分方向交流群

2D、3D目标检测、图像分割、检索、NAS等最新资讯,

若已为CV君其他账号好友请直接私信。

我爱计算机视觉

微信号:aicvml

QQ群:805388940

微博知乎:@我爱计算机视觉

投稿:[email protected]

网站:www.52cv.net

在看,让更多人看到  

你可能感兴趣的:(CV Papers|计算机视觉论文推荐周报20200504期)