在七月算法上报了《无人驾驶实战》课程,老师讲的真好。好记性不如烂笔头,记录一下学习内容。 课程入口,感兴趣的也可以跟着学一下。
—————————————————————————————————————————
定位+高精度地图:提供当前位置的静态环境感知 (车道线/交通指示牌/红绿灯/柱子/建筑物/等)定位+动态物体感知:将感知到的动态物体正确放入静态环境定位获取位置姿态:用于路径规划/决策
outside-in: 接收的外界信号包含位置相关信息 / GNSS UWB WIFI Lidar-Hdmap Camera-marker(室外街景门牌室内maker) 磁条加marker(规划都做了) 扫地机本身贴marker加顶部相机 / (适合测量方程)inside-out: 通过自身观察和感受获取位置信息 / IMU magnetometer SLAM VR中的墙面贴marker建图 / (适合状态方程)
基于信号的定位: GNSS UWB WIFI / 几何关系环境特征匹配: Lidar-HDmap Camera-marker Radar / 需要建图,观测特征与数据库的特征匹配得到当前位姿态航迹推算: IMU odometry(轮子里程计/视觉里程计SLAM) / 根据之前的位姿推断当前的位姿
IMU+GNSS:高频率累计误差+低频率高精度 无人机/无人车/导弹/室外GNSS + Lidar-HDmap/Camera-marker:适合开放环境+适合密集特征环境 无人车/室内外VIO(SLAM+IMU+GNSS) 无人机/无人车/室内外IMU+magnetometer 矫正角度(例如:互补滤波/MadgwickAHRS) 无人机/无人车/室内外
遮挡:GPS接收机在高楼周围,容易失去某一方向所有卫星信号,仅有特定方向的卫星信号使得定位精度降低反射:有些信号被大楼楼体反射之后才被接收到,称作多路径信号(Multi-Path Signal),多路径信号计算得到的距离会明显大于实际距离(因为时间偏大)。解决: 仅靠GPS一种传感器很难在复杂场景中实现精确定位,必须引入其它互补传感器进行融合定位
优点:输出频率高,短时精度高,六自由度,可工作于任何复杂环境缺点: 误差随时间累积
ICP:最常见的是迭代最近点法(Iterative Closest Point ,ICP),该方法基于当前扫描和目标扫描的距离度量来完成点云配准NDT:正态分布变换(Normal Distributions Transform,NDT)也是进行点云配准的常用方法,它基于点云特征直方图来实现配准
优点: 鲁棒性比较好/ 无GPS可工作 / 能实现10厘米以内的定位精度缺点: 需要预先制作地图并定期更新地图(环境会发生变化),雨雪天气情况下Lidar被折射导致收到的点云数据变少,开放路段点云少仍需要GNSS(对于场景单一路段例如高速公路 GNSS+Lidar-HDmap成本过高)
原理: 预先标注出路牌号码,商店牌匾,红绿灯等静态marker的全球坐标系。车载相机检测出maker之后通过透视原理或者相对距离推算出车辆自身的全球坐标优点: 简单直接:街景地图标记好之后,车辆本身只需要摄像机就可以实现精准的定位和导航缺点: 巨大的数据量和人工标注,摄像机采图问题:强光/弱光/逆光都会影响检查效果,基于图像计算深度图存在误差(越远视察越小 误差越大 z=fb/d),开放场景下(如高速公路) maker少甚至没有marker
前端:Visual Odometry 视觉里程计用于估计邻近时刻的相机运动(类似IMU航迹推算)后端:Optimization(滤波器法/图优化法)使用局部约束关系估计最优轨迹与地图回环检测:Loop Closing 检测是否形成了一个回环进而矫正整圈轨迹建图:Mapping 度量地图、拓扑地图、稀疏地图、稠密地图
IMU+GNSS:高频率累计误差+低频率高精度 无人机/无人车/导弹/室外GNSS + Lidar-HDmap/Camera-marker:适合开放环境+适合密集特征环境 无人车/室内外VIO(SLAM+IMU+GNSS) 无人机/无人车/室内外IMU+magnetometer 矫正角度(例如:互补滤波/MadgwickAHRS) 无人机/无人车/室内外