MapNet:Geometry-Aware Learning of Maps for Camera Localization相机定位的几何感知学习地图

摘要

地图是基于图像的相机定位和视觉SLAM系统的关键组成部分。本文MapNet除了图像之外还利用廉价且无处不在的感官输入,如视觉里程计和GPS,并将它们融合在一起以进行相机定位。

本文还提出了一种新的相机旋转参数化方法。

分别在7-Scenes和Oxford RobotCar数据集上测试

介绍

本文做出了如下贡献

1.大多数用于相机定位的DNN都是使用标有摄像机绝对姿势的翻译图像来训练的。在MapNet中,我们展示了如何在训练中把观察对之间的几何约束作为一个额外的损失项。这些约束来自视觉里程计(VO)或者GPS或者IMU读数的旋转约束等等,我们把这些称之为几何感知学习。

2.将MapNet和PGO融合。MapNet+PGO。

3.我们提出了一个新的相机旋转参数化,即单位四元数的对数。

建议的方法

MapNet的核心是一个从输入图像回归绝对相机姿势的DNN。

MapNet在成对的姿势预测之间实施约束。MapNet+通过利用同一场景中额外的无标签视频或同步的GPS读数上的视觉测距(VO)所表达的几何约束来改进训练后的MapNet。

在推理过程中采用移动窗口PGO

用DNN进行相机位姿回归

本文对PoseNet做了一些修改。首先,我们使用ResNet-34,并对其进行了修改,在最后一个conv层之后引入了一个全局平均池化层,然后是一个具有2048个神经元的fc层,一个ReLU和p=0.5的dropout。之后是最后的fc层,输出6个DoF的相机姿势。

其次本文将相机方向参数化为单位四元数的对数。四元数是3-DoF旋转的过度参数化,需要对输出的四元数进行归一化,但往往导致更差的性能。

单位四元数的对数log q有三个维度,没有过度参数化,不需要归一化。

MapNet:Geometry-Aware Learning of Maps for Camera Localization相机定位的几何感知学习地图_第1张图片

如下表所示,使用这种旋转参数化取得了比PoseNet更好的结果。

MapNet:Geometry-Aware Learning of Maps for Camera Localization相机定位的几何感知学习地图_第2张图片

MapNet:几何感知学习

MapNet:Geometry-Aware Learning of Maps for Camera Localization相机定位的几何感知学习地图_第3张图片

MapNet:Geometry-Aware Learning of Maps for Camera Localization相机定位的几何感知学习地图_第4张图片

MapNet+:用无标签数据更新

MapNet融合了这些额外的数据T,通过自监督学习来更新MapNet的权重。本文通过最小化损失函数来微调预训练的MapNet,该损失函数由标记数据集D的原始损失和未标记数据集T的损失组成。

MapNet:Geometry-Aware Learning of Maps for Camera Localization相机定位的几何感知学习地图_第5张图片

MapNet+PGO:在推理过程中优化

实验评估

7-Scenes和Oxford RobotCar

在7-Scenes上的实验

MapNet:Geometry-Aware Learning of Maps for Camera Localization相机定位的几何感知学习地图_第6张图片

在Oxford RobotCar上的实验

MapNet:Geometry-Aware Learning of Maps for Camera Localization相机定位的几何感知学习地图_第7张图片

总结

本文的模型将视觉SLAM和SFM中广泛使用的几何约束带入基于DNN的学习中。与传统的视觉SLAM中的映射不同,MapNet和MapNet+不能将地图扩展到未知空间中。在未来的工作中,与视觉SLAM系统更紧密的结合可能会实现对未知领域的映射。利用最近在提取高层次语义信息方面的成功,也可以改善相机的定位。

你可能感兴趣的:(相机重定位,python,深度学习,神经网络,图像处理,回归)