3D激光雷达与图像传感器的外参标定

激光雷达与摄像机的外参标定

自动驾驶应用中激光雷达(3D扫描)与图像特征融合需要明确两个传感器的外参数,那么如何获得此外参数呢?笔者总结了两类方法:1. 基于标定板的离线标定 2. 感知或定位系统在线标定

1. 基于标定板的离线标定技术

基于标定板的离线标定技术较容易实现,且具体方法较多,如基于2D-3D的标定方法I,
m i n ∣ ∣ π ( R c l X + t ) − x ∣ ∣ (1) min||\pi(R_{cl}X+t)-x||\tag{1} minπ(RclX+t)x(1)
即利用外参Tcl将点云坐标转换到相机坐标系并投影优化重投影误差,
条件是需要确定图像特征点与点云特征的同名关系。常见思路是用圆形镂空的板子,通过点云边缘检测获得圆心,并与图像Blob质心相匹配。

方法II 基于点在平面上的约束优化外参,利用棋盘格等相机内参标定板,获得标定板在相机坐标下的平面方程,优化点到平面的距离误差,

m i n ∣ ∣ d ( p p a r a , ( R c l X + t ) ) ∣ ∣ (2) min||d(p_{para}, (R_{cl}X+t))||\tag{2} mind(ppara,(RclX+t))(2)

方法III 手眼标定,如用任意三面体的雷达-相机系统外部参数标定方法:利用环境的三面体,以其设世界坐标系,将激光点云拟合三个平面,求得平面参数,并求得两帧间的雷达的相对位姿A,同时,利用射极几何模型,获得图像传感器的相对位姿运动B,构造手眼标定方程
A X = X B (3) AX=XB\tag{3} AX=XB(3)
或者直接使用ICP算法。

方法 IV 基于3D-3D的外参ICP估计
此方法要求条件须以方法I为前提,并能估计图像坐标系下特征点的3D坐标,然后将摄像头坐标系下的点P与雷达坐标系下的同名点Q做ICP。
m i n ∣ ∣ R c l Q l + t − P c ∣ ∣ min||R_{cl}Q_l+t-P_c|| minRclQl+tPc

2. 感知或定位系统在线标定

上面使用了特定的人造物体做特征检测与匹配来实现了离线的外参标定,在Lidar-Camera等多传感器建图、定位系统的实际运行场景,可以从自然环境中提取有效的点、面等特征,利用前述的方式之一实现外参约束,在线实时估计最优参数,具有更强的鲁棒性与更高的效率。

参考文献

  1. Calibration of RGB Camera With Velodyne LiDAR
  2. Accurate Calibration of LiDAR-Camera Systems using Ordinary Boxes
  3. LiDAR-Camera Calibration using 3D-3D Point correspondences

你可能感兴趣的:(自动驾驶,算法,algorithm,传感器,计算机视觉,算法)