Visual Localization within LiDAR Maps for Automated Urban Driving 讲解

这篇Paper是由UM的两位所作,Ryan Wolcott和Ryan Eustice。基本可以确定是Ryan一个人写的代码、整套东西,比较Tenure很少自己写代码了。这篇Paper是iROS2014的best paper,所以还是具有很高的含金量的。

这篇Paper主要是提出了使用LiDAR map进行单目定位的方法,思想不是很复杂,但是从最后效果来看作者在加速方面花了不少心思。

整个算法流程如下:

  • 建立地图:使用SLAM建立LIDAR的地图,保存为Meshgrid的三角地图;并且进行了mesh gird的聚类和高度裁剪;
  • 在增量空间[x,y,z]里面进行暴力搜索,生成这个尺度下的synthetic image;
  • 将synthetic image和mono image进行一个比较,使用NMI(normalized mutual information)的score,越大的越好;
  • 使用IMU、轮子编码器、单目摄像头在KF框架中,更新定位结果

Synthetic image:是将LiDAR的点云根据当前预测pose映射到虚拟摄像头的图片上,使用的是LiDAR的intensity。

在算法加速方面,用了OpenGL、CUDA等。对camera的image进行homograph的旋转变化,这样就可以减少synthetic image的数量。

算法结果:对于阴影、些许障碍物有一定的容错性;但是在很少road marker的时候比较容易出错。进行滤波的后结果能够有接近LiDAR的定位精度,让人印象深刻。

目前该算法有以下假设:

  • z = 0,对于z方向就是高度不做优化
  • 初始pose已知,比如通过GPS得到
  • 要更好的结果,最好是加滤波框架,否则错误的距离可以在1.5m左右
  • 采用了32线的LiDAR

转载请注明出处: https://blog.csdn.net/c602273091/article/details/88884658

你可能感兴趣的:(__WORKING__)