论文主要解决的是semantic segmentation中imbalanced training data distributions问题。在semantic segmentation数据集包括现实世界中存在明显的长尾分布的问题,即大多数的数据组成了小部分的类别,因此会导致学习器更偏向于这些类别。
这篇论文是作者将何恺明(Kaiming He)博士残差网络Deep Residual Networks与其之前研究的Dilated Convolution相结合的结果。
知识表示学习的思想(TransE)已经被成功应用于视觉关系提取(Visual Relation Extraction),提交 CVPR 2017 的新论文《Visual Translation Embedding Network for Visual Relation Detection》提出的 VTransE 方法是在这方面所迈出的重要一步。清华大学计算机系助理研究员刘知远对此评论说:「视觉关系和语义关系既有重叠又有互补,未来会有很多有趣的问题值得探索。」
文中论文提出了一个新的深度学习模型,这个模型推广了传统的字典学习 (dictionary learning) 和残差编码 (Residual Encoders)。
论文GMS的方法实际上是消除错误匹配的一种方案,比如可以替换ransac。算法执行的大致流程是:先执行任意一种特征点的检测和特征点的描述子计算,论文中采用的是ORB特征。然后执行暴力匹配BF,最后执行GMS以消除错误匹配。
文中包括main conference中单目标跟踪相关的论文,总共11篇,相关滤波7篇,其中1篇是oral,3篇用到卷积特征,相关滤波占了64%,(非卷积特征的)CNN相关4篇,可以看出目标跟踪现在最火的是相关滤波和深度学习。
文章作者基于深度学习提出一种半自动目标事例标注(semi-automatic annotation of object instances)的算法。
文章作者基于深度学习提出一种半自动目标事例标注(semi-automatic annotation of object instances)的算法。
Martin Danelljan的又一新作。继C-COT之后又一刷新纪录的作品。不管是从结果还是速度上都有提升,尤其是速度提升明显。用传统特征HOG+CN的版本速度有60+FPS,用CNN+HOG+CN的速度有8FPS。
各位大神在目标检测,目标跟踪,GAN等领域都提出了自己的看法,可以看看.
这项研究是李飞飞团队在今年CVPR上的一项最新工作,该方法提出了一种模型用于自动标注网络中巨量的嘈杂视频。
本文将对抗学习引入到目标检测问题中,通过对抗网络生成一下遮挡和变形的训练样本来训练检测网络,从而使得网络能够对遮挡和变形问题更加的 robust.
多人姿态实时估计,这里主要亮点还是 多人实时+效果。
博主解读了多篇CVPR2017论文,可以一读
微软亚研院创研举办的关于CVPR2017的论文分享会,共有22篇论文10到15分钟的解读,涉及跟踪,检测,人脸再识别等多个计算机视觉主题。可以回看视频。
VALSE举办的三场关于cvpr217论文解读的线上分享,有大牛出现。
视频链接: http://pan.baidu.com/s/1o8MAWL8 密码: x6i6(视频转自valse官方)
本届 CVPR 共有两篇最佳论文、两篇最佳论文提名、一篇最佳学生论文。苹果去年 12 月发表的对抗网络 SimGAN 研究,是两篇最佳论文之一。
CVPR 2017获奖论文公布,其中一篇最佳论文为康奈尔大学、清华大学、Facebook FAIR 实验室合著的《Densely Connected Convolutional Networks》。在这篇文章中,Momenta 高级研发工程师胡杰对这篇文章进行了解读。此文为该系列专栏的第三篇。
这里介绍的文章是来自 Facebook 的特征金字塔网络 Feature Pyramid Networks(FPN)。FPN 主要解决的是物体检测中的多尺度问题,通过简单的网络连接改变,在基本不增加原有模型计算量情况下,大幅度提升了小物体检测的性能。
这里介绍的文章是来自 Facebook 的特征金字塔网络 Feature Pyramid Networks(FPN)。FPN 主要解决的是物体检测中的多尺度问题,通过简单的网络连接改变,在基本不增加原有模型计算量情况下,大幅度提升了小物体检测的性能。
本文解读的是一篇CVPR论文,它主要解决了一个深度学习中的重要问题:如何使用尽可能少的标签数据来训练一个效果promising的分类器。
本文为极市分享干货。在这期分享中,发表过CVPR2017论文的申发龙,介绍了关于语义图像分割的内容。
本文中所述CVPR2017论文本质上的研究, 是从EEG脑电波提取视觉特征, 从而进行我们常见的视觉分类任务。
在CVRP 2017 会议上,李飞飞与 Jia Deng 在 ImageNet Workshop 上做主题演讲,对 8 年的 ImageNet 挑战赛历史进行了总结,并宣布之后的 ImageNet 挑战赛将转由 Kaggle 主办。
这篇文章中,ActivityNet Challenge冠军队伍成员之一林天威对他们采用的这个方案进行了介绍。
在CVPR 2017会议上,微软亚洲研究院提出了“Recurrent Attention Convolutional Neural Network”(RA-CNN,基于递归注意力模型的卷积神经网络)网络结构。这种网络可以更精准地找到图像中有判别力的子区域,然后采用高分辨率、精细化特征描述这些区域,进而大大提高精细化物体分类的精度。
本文为极市分享干货。在本期分享中,UIUC联合培养博士沈志强,通过解读他最新的收录于CVPR2017的论文《Weakly Supervised Dense Video Captioning》,讲述了如何让计算机进行视频描述的自动生成。