标定--故事的开端 (阅读请评论,技术交流,创造不易)

第一章 感知传感器 万物皆可标

离开slam,踏足视觉测量已经5个月,出去转一趟,进一步了解PCL点云库的应用。再次回归slam,倍感亲切。继续奋斗吧!加油!知识有限,大家一块合作!啥也不说了,上干货,大家一起为slam事业前进啊,毕竟以后还要去星辰大海呢!哈哈

1.单目相机标定
(1)Ubuntu版本;
(2)Windows版本:参考:张正友标定
1)OpenCV实现张正友标定主要解决:
相机标定原因和目的:获取摄像机的内参外参矩阵(同时也会得到每一幅标定图像的旋转和平移矩阵),内参和外参系数可以对之后相机拍摄的图像就进行矫正,得到畸变相对很小的图像。(小孔成像原理,小孔曝过的光线太少,选择凸透镜汇聚光线成像变强变亮,凸透镜工艺和原理会造成成像发生径向和切向畸变,通过标定计算内外参数,修正图像)。
**相机标定的输入:**标定图像上所有内角点的图像坐标,标定板图像上所有内角点的空间三维坐标(一般情况下假定图像位于Z=0平面上,投影计算)。
**相机标定的输出:**摄像机的内参、外参系数。
2)准备工作
-》棋盘格标定图
-》对每张标定图片提取角点信息
-》对每张标定图片提取亚像素角点信息
-》在棋盘标定图上绘制找到角点
-》相机标定
-》对标定结果进行评价
-》查看标定效果-利用标定结果对棋盘格图进行矫正

注意:**面阵摄像机的成像面以像素为最小单位。**例如某CMOS摄像芯片,其像素间距为5.2微米。摄像机拍摄时,将物理世界中连续的图像进行了离散化处理。到成像面上每一个像素点只代表其附近的颜色。至于“附近”到什么程度?就很困难解释。两个像素之间有5.2微米的距离,在宏观上可以看作是连在一起的。**但是在微观上,它们之间还有无限的更小的东西存在。这个更小的东西我们称它为“亚像素”。**实际上“亚像素”应该是存在的,只是硬件上没有个细微的传感器把它检测出来。于是软件上把它近似地计算出来。

2.双目相机标定
3.深度相机标定
4.2D激光雷达标定
激光雷达标定,主要是计算激光雷达坐标系与基坐标系(如车身坐标系、世界地图原点坐标系)之间的误差。误差主要包括旋转角度误差平移误差,其中平移误差可由激光测距仪激光跟踪仪等测量工具测得,且对最终输出的结果精度影响较小。而旋转角度误差,主要分为3个方向的误差:pitch、roll、yaw(欧拉角) 通过坐标系之间的旋转变换和平移变换,获取激光雷达获取数据在基坐标系的位置。

开源标定单线激光雷达方法:
Autoware标定SICK-2D激光雷达和相机
Autoware入门

激光雷达标定方法

两个单线lidar位置的标定方法
5.3D激光雷达标定

6.激光轮廓仪+深度测距仪标定
7.多轴机械臂+末端传感器标定
8.相机和激光雷达联合标定
1)
共同点:都被广泛用于感知外部环境。
不同点:相机能捕获丰富的可见光图像信息,但不能快速可靠的感知深度信息,易受光照、环境因素影响;而激光雷达能快速获取周围物体的深度信息且精度高、可靠性强,但数据的分辨率较低。
解决方法:信息融合
通过激光雷达和相机的信息融合,将高精度感知信息(图像和深度信息)进行融合,增加算法可信度。融合之前必须先对两种传感器进行联合标定,即计算激光雷达和相机两个坐标系之间的旋转变换和平移变换。
2)目前常用的联合标定方法分为:两大类。
基于标定物的标定方法;自标定方法。
基于标定物的标定方法中,提出基于点-面约束的棋盘格模板的标定方法,利用激光点位于棋盘格平面上的空间约束实现参数的标定。

3)多传感器融合
多传感器融合:一般融合包括时间同步以及空间同步。而激光雷达与摄像头之间的联合标定则是属于空间维度上的融合同步了。此外,点云具有稀疏性,在进行点云标注时,仅依靠点云数据是不行的,此时若有时间同步的图像,利用深度学习进行处理,就可高效检测出来,为了精确标注,还需把点云反投影到图像上面,判断两者是否重合,此时就需要用到激光雷达与摄像头的联合标定了。
4)【Autoware】激光雷达-摄像头联合标定1- Calibration Tool Kit
链接描述

9.其他标定

你可能感兴趣的:(自动驾驶,计算机视觉,人工智能)