IROS2019 |新开源SuMa++:语义激光雷达SLAM可靠过滤动态物体

SLAM大牛Cyrill Stachniss组发表在IROS2019的新论文SuMa++: Efficient LiDAR-based Semantic SLAM,已经开源。

demo视频:

论文链接:

http://www.ipb.uni-bonn.de/wp-content/papercite-data/pdf/chen2019iros.pdf

开源代码:

https://github.com/PRBonn/semantic_suma

该论文背景及主要工作:
可靠并精确的定位和建图是大多数自动驾驶和机器人系统的关键组成部分。除了环境的几何信息之外,语义信息在智能导航方面也起着重要作用。在大多数现实环境中,由于存在动态物体,传统的基于环境几何信息的方法很难实现可靠并精确的定位与建图。这些传统几何方法方法常常因动态物体的存在出现定位偏移以及建图扭曲的情况。

在本文中,我们提出一种新的基于语义信息的激光雷达SLAM系统来更好地解决真实环境中的定位与建图问题。该系统通过语义分割激光雷达点云来获取点云级的密集语义信息,并将该语义信息集成到激光雷达SLAM中来提高激光雷达的定位与建图精度。通过基于深度学习的卷积神经网络,我们的方法可以十分高效地在激光雷达“范围图(range image)”上进行语义分割,并对整个激光雷达点云进行语义标记。通过结合几何深度信息,我们的方法可以进一步提升语义分割的精度。基于带语义标记的激光雷达点云,我们的方法能够构建带有语义信息且全局一致的密集“面元(surfel)”语义地图。基于该语义地图,我们提出的算法能够可靠地过滤移除动态物体,而且还可以通过语义约束来进一步提高投影匹配ICP的位姿估计精度。我们利用KITTI数据集中的公路(road)数据集和里程计数据集(odometry)来测试我们提出的语义SLAM系统。该数据集(尤其是KITTI公路数据集)中包含大量的行驶中的汽车。实验结果表明,在真实的动态环境中我们的语义SLAM方法具有更高的定位精度以及鲁棒性。我们的激光雷达语义SLAM系统已经开源。

交流群
欢迎加入公众号读者群一起和同行交流,目前有SLAM、检测分割识别、三维视觉、医学影像、GAN、自动驾驶、计算摄影、算法竞赛等微信群(以后会逐渐细分),请关注公众号:计算机视觉life,回复 「加群」,获得加群方式。

你可能感兴趣的:(计算机视觉,SLAM)