三维检测/三维语义分割

2018-12-26

PointRCNN: 3D Object Proposal Generation and Detection from Point Cloud

2018-12-06 3d检测数据集

Ua-detrac: A new benchmark and protocol for multi-object detection and tracking
3D tracking dataset
Mot16: A benchmark for multi-object tracking
Are we ready for autonomous driving? the kitti vision benchmark suite
Tell Me Where to Look: Guided Attention Inference Network(弱监督的 效果比grad-cam好一些)

2018-12-01 两篇论文

Multi-view Self-supervised Deep Learning for 6D Pose Estimation in the Amazon Picking Challenge
亚马逊抓取挑战中6D姿态估计的多视图自监督深度学习

SegICP: Integrated Deep Semantic Segmentation and Pose Estimation
SegICP:集成深度语义分割和姿态估计


2018-11-29 两篇论文

PointConv: Deep Convolutional Networks on 3D Point Clouds
PointConv:3D点云上的深度卷积网络

SPNet: Deep 3D Object Classi cation and Retrieval using Stereographic Projection
SPNet:使用立体投影进行深度3D对象分类和检索


2018-11-26 马斯克:只凭一个摄像头,3D目标检测成绩也能媲美激光雷达

link


2018-11-18 边界框,分割与目标坐标轴:论自动驾驶场景中识别对于3D场景流估计的重要性

链接
标题:Bounding boxes, Segmentations and Object Coordinates: How Important is Recognition for 3D Scene Flow Estimation in Autonomous Driving Scenarios?

作者:Aseem Behl, Omid Hosseini Jafari, Siva Karthik Mustikovela, Hassan Abu Alhaija, Carsten Rother, Andreas Geiger.

来源:International Conference on Computer Vision (ICCV 2017)

现有的3D场景流估计方法通常难以应对较大位移与局部模糊等情况,例如缺乏纹理或者反射率较高的表面。然而这些挑战在本工作重点研究的动态道路场景中频繁出现。我们主要的贡献在于通过挖掘识别技术来解决这类3D运动估计问题。我们特别关注识别粒度的重要性,从2D实例分割估计得到的粗粒度2D包络框细粒度3D物体部分的预测。我们借助一个由新标记的双目数据集训练得到的CNN网络来计算这些线索,并将其整合到一个用于鲁棒3D场景流估计的基于CRF的模型中,我们称此方法为直接场景流。我们在消融学习中分析每种识别线索的重要性并发现在我们的设定中,实例分割线索是目前最强壮的。我们在KITTI 2015具有挑战性的场景流基准上验证了我们方法的有效性,并且达到了目前业界最新效果标准。


2018-10-15 三维深度学习中的目标分类与语义分割

链接

在过去的几年中,基于RGB的深度学习已经在目标分类与语义分割方面取得了非常好的效果,也促进了很多技术的发展,深度学习在现实生活中的应用也越来越多。但是在很多实际应用中,例如自动驾驶中,只使用RGB信息是远远不够的,因为我们不仅仅想要知道周围有什么物体,还想要知道物体具体的三维信息(位置,运动状态等),因此,三维方面的深度学习也逐渐发展了起来并取得了不错的效果。

你可能感兴趣的:(note)