输入
❖ 点:X, Y, Z和反射强度R
❖ 点云:多个点的集合(无序的,非结构化的数据)
输出
❖ 目标的类别和置信度
❖ 目标的边框(BoundingBox)
中心点3D坐标,长宽高,旋转角度
❖目标的其它信息
速度,加速度等
算法
❖ 点云表示:点视图,俯视图,前视图
如下表所示:常见的点云数据库由KITTI、NuScenes、WOD等数据库。
为了直观,先将激光雷达物体检测的一些常用算法列出。
算法类别 | 算法 |
---|---|
点视图 | PointNet/PointNet++,Point-RCNN,3D-SSD |
俯视图 | VoxelNet,SECOND,PIXOR,AFDet |
前视图 | LaserNet,RangeDet |
多视图融合 (俯视图+点视图) | PointPillar,SIENet,PV-CNN |
多视图融合(俯视图+前视图) | MV3D,RSN |
Qi et al., Pointnet: Deep learning on point sets for 3d classification and segmentation, 2017.
论文地址:https://arxiv.org/pdf/1612.00593.pdf
PointNet有以下的用法:
识别/分类(Classification):对于给定的一帧点云,判断该 点云中物体所属的种类。
分割(segmentation):对于给定的一帧点云,将点云分成 若干个特定的、具有独特性质的区域。
核心思路:点云特征提取
端对端学习,对点云进行分类/语义分割
物体检测:Clustering得到候选 + PointNet分类
Qi et al., Pointnet++: Deep hierarchical feature learning on point sets in a metric space, 2017.
论文地址:https://papers.nips.cc/paper/2017/file/d8bf84be3800d12f74d8b05e9b89836f-Paper.pdf
在物体检测方向进行扩展:Clustering+PointNet
PointNet和PointNet++中存在的问题
Shi et al., PointRCNN: 3D Object Proposal Generation and Detection from Point Cloud, 2018
论文地址:https://arxiv.org/pdf/1812.04244.pdf
PointRCNN是一个两步式目标检测网络,该网络第一步进行前景点分割,找出点云中所有的目标点;第二步利用前景点回归目标的准确边界框。该网络同时兼顾了检测的准确([email protected]=75.6%)与实时性(10FPS)。
点处理 + Faster RCNN
运行速度瓶颈++中的Feature Propagation
Yang et al., 3dssd: Point-based 3d single stage object detector, 2020
论文地址:https://arxiv.org/pdf/2002.10187.pdf
提高聚类质量
避免重复计算
❖ PointNet++的主要问题在于运行速度太慢
❖ 速度的瓶颈在于聚类过程中需要将点集特征映射回原始点云
❖ Point RCNN和3D-SSD的改进主要在于提高运行速度
Zhou and Tuzel, Voxelnet: End-to-end learning for point cloud based 3d object detection, 2018
论文地址:https://arxiv.org/pdf/1711.06396.pdf
核心点:
VoxelNet中存在的问题
❖ 数据表示低效,大量空白区域
❖ 三维卷积计算量巨大
Yan et al., Second: Sparsely embedded convolutional detection, Sensors, 2018.
论文地址:https://www.mdpi.com/1424-8220/18/10/3337
稀疏卷积避免无效计算
Yang et al., Pixor: Real-time 3d object detection from point clouds, CVPR, 2018
论文地址:https://arxiv.org/pdf/1902.06326.pdf
PIXOR (ORiented 3D object detection from PIXel-wise neural network predictions)
❖ 手工设计高度维度的特征
❖ 3D->2D:高度维度变成特征通道
❖ 可以用2D卷积来提取特征
Ge et al., Real-Time Anchor-Free Single-Stage 3D Detection with IoU-Awareness, 2021
论文地址:https://arxiv.org/pdf/2006.12671.pdf
❖ 单阶段,无Anchor
❖ Waymo 3D物体检测 2021年度的获胜算法
❖ 算法方面的改进
❖ 俯视图
❖ 点视图
前视图的特点
❖ 优点
❖ 问题
Meyer et al., LaserNet: An Efficient Probabilistic 3D Object Detector for Autonomous Driving, 2019.
论文地址:https://arxiv.org/pdf/1903.08701.pdf
❖ 输入数据为多通道的前视图图像
❖ 卷积和下采样提取多尺度特征
❖ 每个像素都预测物体边框的分布(均值和方差)
❖ MeanShift聚类+NMS得到最终的输出
Fan et al., RangeDet: In Defense of Range View for LiDAR-based 3D Object Detection, 2021
论文地址:https://arxiv.org/pdf/2103.10039.pdf
核心点:
❖ Meta-Kernel Convolution
❖ Range Conditioned Pyramid
❖ 基本思路
❖ 代表性方法
Lang et al., PointPillars: Fast Encoders for Object Detection from Point Clouds, 2019.
论文地址:https://openaccess.thecvf.com/content_CVPR_2019/papers/Lang_PointPillars_Fast_Encoders_for_Object_Detection_From_Point_Clouds_CVPR_2019_paper.pdf
❖ 特征: PointNet提取点特征(点视图),然后进行Voxel量化(俯视图)
❖ 主干:Feature Pyramid Network
❖ 检测头:SSD
Li et al., SIENet: Spatial Information Enhancement Network for 3D Object Detection from Point Cloud, 2021.
论文地址:https://arxiv.org/pdf/2103.15396.pdf
❖ 融合策略与PV-CNN相似
❖ 解决远处物体点云相对稀疏的问题
Liu et al., Point-voxel CNN for efficient 3d deep learning, 2019.
论文地址:https://arxiv.org/pdf/1907.03739.pdf
❖Voxel分支:低分辨率的Voxel提取邻域特征,然后映射回每个点上
❖Point分支:利用MLP来提取点特征,没有量化损失,也避免空白区域的计算
❖两个分支的特征合并用于后续的物体检测
❖ 基本思路
❖ 代表性方法
Chen, et al., Multi-view 3d object detection network for autonomous driving, 2017
论文地址:https://openaccess.thecvf.com/content_cvpr_2017/papers/Chen_Multi-View_3D_Object_CVPR_2017_paper.pdf
❖ BEV网格生成3D物体候选,再转换为不同视图下的候选
❖ 不同候选中进行ROI-Pooling
❖ 在候选层级上融合不同视图的特征
Sun, et al., RSN: Range Sparse Net for Efficient, Accurate LiDAR 3D Object Detection, 2021.
论文地址:https://arxiv.org/pdf/2106.13365.pdf
两阶段检测器,目的在于提高检测距离的可扩展性
本人所有文章仅作为自己的学习记录,若有侵权,联系立删。本系列文章主要参考了清华大学、北京理工大学、深蓝学院、百度Apollo等相关课程。