摄像头、激光雷达、毫米波雷达等传感器联合标定方法(自动驾驶之数据融合)

本文是来自黄浴博士的知乎专栏,(原谅我文章的图都是截图)主要概述自动驾驶系统中的传感器的标定的方法。讨论不同传感器之间的外参标定,特别是激光雷达和摄像头之间的标定。
地址为https://zhuanlan.zhihu.com/p/57028341
1、引言
传感器标定是自动驾驶的基本需求,一个车上装了多个/多种传感器,而它们之间的坐标关系是需要确定的。湾区自动驾驶创业公司ZooX的co-founder和CTO是Sebastia Thrun的学生Jesse Levinson,他的博士论文就是传感器标定。
这个工作可分成两部分:内参标定和外参标定,内参是决定传感器内部的映射关系,比如摄像头的焦距,偏心和像素横纵比(+畸变系数),而外参是决定传感器和外部某个坐标系的转换关系,比如姿态参数(旋转和平移6自由度)。
摄像头的标定曾经是计算机视觉中3-D重建的前提,张正友老师著名的的Zhang氏标定法,利用Absolute Conic不变性得到的平面标定算法简化了控制场。
这里重点是,讨论不同传感器之间的外参标定,特别是激光雷达和摄像头之间的标定。另外在自动驾驶研发中,GPS/IMU和摄像头或者激光雷达的标定,雷达和摄像头之间的标定也是常见的。不同传感器之间标定最大的问题是如何衡量最佳,因为获取的数据类型不一样:

1. 摄像头是RGB图像的像素阵列;
2. 激光雷达是3-D点云距离信息(有可能带反射值的灰度值);
3. GPS-IMU给的是车身位置姿态信息;
4. 雷达是2-D反射图

这样的话,实现标定误差最小化的目标函数会因为不同传感器配对而不同。标定方法分targetless和target两种,前者在自然环境中进行,约束条件少,不需要用专门的target;后者则需要专门的控制场,有ground truth的target,比如典型的棋盘格平面板。这里仅限于targetless方法的讨论,依次给出标定的若干算法。
2、手-眼标定(Hand-Eye Calibration)
这是一个被标定方法普遍研究的,一定约束条件下的问题:可以广义的理解,一个“手”(比如GPS/IMU)和一个“眼”(激光雷达/摄像头)都固定在一个机器上,那么当机器运动之后,“手”和“眼”发生的姿态变化一定满足一定的约束关系,这样求解一个方程就可以得到“手”-“眼”之间的坐标转换关系,一般是AX=XB形式的方程。

摄像头、激光雷达、毫米波雷达等传感器联合标定方法(自动驾驶之数据融合)_第1张图片

手眼系统分两种:eye in hand和eye to hand,我们这里显然是前者,即手-眼都在动的情况。手眼标定分两步法和单步法,后者最有名的论文是“hand eye calibration using dual quaternion"。一般认为,单步法精度高于两步法,前者估计旋转之后再估计平移。
这里通过东京大学的论文“LiDAR and Camera Calibration using Motion Estimated by Sensor Fusion Odometry”来看看激光雷达和摄像头的标定算法。
显然它是求解一个手-眼标定的扩展问题-,即2D-3D标定,如图所示:
摄像头、激光雷达、毫米波雷达等传感器联合标定方法(自动驾驶之数据融合)_第2张图片
求解激光雷达的姿态变化采用ICP,而摄像头的运动采用特征匹配。后者有一个单目SFM的scale问题,论文提出了一个基于传感器融合的解法:初始估计来自于无尺度的摄像头运动和有尺度的激光雷达运动;之后有scale的摄像头运动会在加上激光雷达点云数据被重新估计。最后二者的外参数就能通过手-眼标定得到。下图是算法流程图:

摄像头、激光雷达、毫米波雷达等传感器联合标定方法(自动驾驶之数据融合)_第3张图片
手眼标定的典型解法是两步法:先求解旋转矩阵,然后再估计平移向量,公式在下面给出:

摄像头、激光雷达、毫米波雷达等传感器联合标定方法(自动驾驶之数据融合)_第4张图片
现在因为scale问题,上述解法不稳定,所以要利用激光雷达的数据做文章,见下图:
摄像头、激光雷达、毫米波雷达等传感器联合标定方法(自动驾驶之数据融合)_第5张图片
3-D点云的点在图像中被跟踪,其2D-3D对应关系可以描述为如下公式:
在这里插入图片描述
而求解的问题变成了:在这里插入图片描述

上面优化问题的初始解是通过经典的P3P得到的。
得到摄像头的运动参数之后可以在两步手眼标定法中得到旋转和平移6参数,其中平移估计如下:
在这里插入图片描述
注:这里估计摄像头运动和估计手眼标定是交替进行的,以改进估计精度。除此之外,作者也发现一些摄像头运动影响标定精度的策略,看下图分析:

摄像头、激光雷达、毫米波雷达等传感器联合标定方法(自动驾驶之数据融合)_第6张图片可以总结出:
1)摄像头实际运动a 越小,投影误差越小;
2) (alpha- beta )越小,投影误差越小。第一点说明标定时候摄像头运动要小,第二点说明,标定的周围环境深度要变化小,比如墙壁。
另外还发现,增加摄像头运动的旋转角,摄像头运动估计到手眼标定的误差传播会小。
这个方法无法在室外自然环境中使用,因为点云投影的图像点很难确定。
有三篇关于如何优化激光雷达-摄像头标定的论文,不是通过3-D点云和图像点的匹配误差来估计标定参数,而是直接计算点云在图像平面形成的深度图,其和摄像头获取的图像存在全局匹配的测度。
不过这些方法,需要大量迭代,最好的做法是根据手眼标定产生初始值为好。
另外,密西根大学是采用了激光雷达反射值,悉尼大学在此基础上改进,两个都不如斯坦福大学方法方便,直接用点云和图像匹配实现标定。
斯坦福论文“Automatic Online Calibration of Cameras and Lasers”。斯坦福的方法是在线修正标定的“漂移”,如下图所示:精确的标定应该使图中绿色点(深度不连续)和红色边缘(通过逆距离变换 IDT,即inverse distance transform)匹配。
密西根大学的论文“Automatic Targetless Extrinsic Calibration of a 3D Lidar and Camera by Maximizing Mutual Information”。这里定义了标定的任务就是求解两个传感器之间的转换关系,如图:求解R,T。
摄像头、激光雷达、毫米波雷达等传感器联合标定方法(自动驾驶之数据融合)_第7张图片
澳大利亚悉尼大学的论文“Automatic Calibration of Lidar and Camera Images using Normalized Mutual Information”。本文是对上面方法的改进。传感器配置如图:
摄像头、激光雷达、毫米波雷达等传感器联合标定方法(自动驾驶之数据融合)_第8张图片
标定的流程在下图给出:
摄像头、激光雷达、毫米波雷达等传感器联合标定方法(自动驾驶之数据融合)_第9张图片
西安交大论文“Integrating Millimeter Wave Radar with a Monocular Vision Sensor for On-Road Obstacle Detection Applications”。
在讲传感器融合的时候提过这部分工作,这里重点介绍标定部分。首先坐标系关系如下:
摄像头、激光雷达、毫米波雷达等传感器联合标定方法(自动驾驶之数据融合)_第10张图片
传感器配置如下:
摄像头、激光雷达、毫米波雷达等传感器联合标定方法(自动驾驶之数据融合)_第11张图片摄像头、激光雷达、毫米波雷达等传感器联合标定方法(自动驾驶之数据融合)_第12张图片标定其实是计算图像平面和雷达反射面之间的homography矩阵参数,如下图:
在这里插入图片描述
融合后检测障碍物的地图结果:
摄像头、激光雷达、毫米波雷达等传感器联合标定方法(自动驾驶之数据融合)_第13张图片

你可能感兴趣的:(linux操作系统,ROS学习)