SLAM综述阅读笔记一:Past, Present, and Future of Simultaneous Localization And Mapping(2016)

 转自

1、第一篇 SLAM的过去现在和未来:稳健感知时代 - 知乎

2、最详细的SLAM综述_陈建驱的博客-CSDN博客_slam综述 

Past, Present, and Future of Simultaneous Localization And Mapping: Towards the Robust-Perception Age(2016)

https://arxiv.org/pdf/1606.05830.pdf

1 引言

SLAM作用:机器人的状态估计和传感器感知的环境模型(模型)。机器人的状态包括位姿(位置与方向)、机器人速度、传感器偏差(sensor biases)和校准参数。地图作为兴趣点的表示(如路标位置、障碍物)机器人所在环境的描述。

环境地图的作用:一是地图通常用于支撑其他任务,如路径规划、可视化。第二,地图可以限制机器人状态估计误差。假如没有地图,航位的推算会随时间推移而迅速漂移;另一方面,利用地图的一系列明显的路标进行回环检测,并通过访问已知区域重置定位误差。

早期SLAM问题称之为古典时代(1986-2004),主要是概率公式的引用,包含的方法有扩展卡尔曼滤波(EKF),Rao–Blackwellized粒子滤波器和最大似然估计。

我们将迄今主要的SLAM综述总结在了表I

SLAM综述阅读笔记一:Past, Present, and Future of Simultaneous Localization And Mapping(2016)_第1张图片

本文概述了SLAM当前发展状态,并提供部分社区SLAM研究的开放问题及未来方向的看法。我们主要关注点是度量和语义SLAM,我们建议读者参考Lowry等人最近的研究,主要提供了基于视觉的场景识别和拓扑SLAM的全面回顾

SLAM的核心旨在建立环境的全局一致表示,同时利用自身运动测量和回环检测。核心词为回环检测,如何我们忽略回环检测,SLAM将退化成里程计。齿轮编码器里程计会漂移,这使得经过几米后位姿估计变得不可用。外部路标的观测有助于轨迹漂移并纠正漂移。最近基于视觉和惯导信息的里程计算法,保证很小漂移(<0.5%轨迹长度)。

关于环境的真实拓扑结构。机器人只执行里程计而忽略回环检测将世界理解为“无限走廊”,并在其中不断探索新领域。回环检测事件告知机器人这条走廊不断与自身相交。回环检测的优势变得明了:通过回环检测,机器人知道环境的真实拓扑,并且能够找到两点间的最短路径(地图中点B和C)。然而,如果SLAM的优点之一是得到环境的真实拓扑结构,为何不丢掉度量信息,只进行简单的场景识别呢?答案很简单:度量信息可以使得场景识别简单并鲁棒,度量重构告知机器人回环检测的成功概率并允许丢弃虚假的回环检测。因此,虽然理论上SLAM可能是多余的(一个oracle场景识别模块足够用来拓扑建图),但SLAM提供一种天然防御,可以防止错误的对数据关联和感知混淆,如看似一样却不在同一地点的场景,会欺骗场景识别模块。在这种意义下,SLAM地图可以提供预测和验证未来测量的方法:我们坚信这种机制对稳健操作是至关重要的。

SLAM综述阅读笔记一:Past, Present, and Future of Simultaneous Localization And Mapping(2016)_第2张图片

评估SLAM的成熟度:

  1. 机器人:运动类型(如:动态,最大速度),可用传感器(如,分辨率,采样率),可用计算资源。
  2. 环境:平面或3维,存在自然或人造路标,运动元素数量,对称的数量,感知混淆的风险。特别注意,这些方面其实依赖传感器与环境匹配对:如,2个房间可能在激光扫描器下是完全一样的,而相机却很容易从外观线索中辨别它们。
  3. 性能要求:期望机器人状态估计的准确率,环境的表示形式(如基于路标的,还是稠密的),成功率(检测的准确率达到标准),估计延迟,最大工作时间,建图的最大区域。

例如,使用配备轮式编码器和激光扫描仪的机器人绘制二维室内环境,具有足够的精度(<10cm)和足够的鲁棒性(例如,低故障率),可以认为在很大程度上解决了问题(例如执行SLAM的工业系统是 Kuka Navigation Solution)。类似地,基于视觉的SLAM与缓慢移动的机器人(例如,火星探测器、家用机器人)和视觉惯性里程计可以被认为是成熟的研究领域。

SLAM 的第三个时代,即鲁棒感知时代,其特征要求:

  1. 鲁棒的性能:SLAM系统在广泛的环境中长时间以低故障率运行;该系统包括故障安全机制并具有自调整能力,因为它可以根据场景调整系统参数的选择。
  2. 高级理解:SLAM系统超越了基本的几何重建,以获得对环境的高级理解(例如,高级几何、语义、物理、可供性[affordances])。
  3. 资源感知:SLAM系统针对可用的传感和计算资源进行定制,并提供了根据可用的资源调整计算负载的方法。
  4. 任务驱动感知:SLAM系统能够提取相关的感知信息并过滤掉无关的传感器数据,为了支持任务,机器人必须执行;此外,SLAM 系统产生自适应地图表示,其复杂性可能因当前的任务而异。

2 现代SLAM系统剖析

SLAM系统的架构包括两个主要组件:前端和后端。前端将传感器数据抽象为可用于估计的模型,而后端则对前端生成的抽象数据进行推理。该架构总结在图 2 中。我们从后端开始研究这两个组件。

SLAM综述阅读笔记一:Past, Present, and Future of Simultaneous Localization And Mapping(2016)_第3张图片

A 最大后验估计与SLAM后端

SLAM 的当前的标准公式起源于Lu和Milios的开创性论文,随后是 Gutmann 和 Konolige 的工作。从那时其,很多方法都在致力于改进这一优化问题的效率和鲁棒性。所有这些方法都将SLAM问题归结于最大后验估计问题,通常用因子图来解析变量之间的依赖关系。

假设我们要估计一个未知变量 X ,本来表示机器人的轨迹(即位姿的离散集合)和环境中路标的位置。假设给定一系列测量值  ,因此每个测量值和变量可用下式表示:

 

 在最大后验估计中,我们通过最大后验概率\textup{​{\color{Red} p}}(\chi | Z)来计算\chi的估计值\chi ^{*},如下式:

\chi ^*\doteq {\underset{\chi }{a\textrm{rgmax}}} {\color{Red} \textup{\textrm{p}}}(\chi |Z) = {\underset{\chi }{a\textrm{rgmax}}} {\color{Red} \textup{\textrm{p}}}(Z|\chi) {\color{Red} \textup{\textrm{}p}}(\chi)  (1) 

这是由贝叶斯公式得到的。在上式中,\textup{​{\color{Red} p}}(Z|\chi )为给定变量测量值\chiZ的似然函数,\textup{​{\color{Red} p}}(\chi )为变量\chi的先验概率分布。当不知道先验服从何种分布时,可以假设为一个常量(均一分布),可以在后面的优化中直接去掉。这样最大后验估计就退化成最大似然估计。值得一提的是,不同于卡尔曼滤波,最大后验估计不需要明确区分运动和观测模型,两个模型都被看做因子,不做任何区分直接加入到估计过程。更进一步的,值得一提的是卡尔曼滤波和最大后验估计在线性高斯情况下估计结果是一致的,但在通常情况下线性高斯假设是不成立的。

 假设测量值Z是相互独立的(即噪声不相关的),上式可以分解为:

SLAM综述阅读笔记一:Past, Present, and Future of Simultaneous Localization And Mapping(2016)_第4张图片

 

其中,在公式右边,我们注意到z_k只依赖变量的子集\chi _k

上式可以用因子图推断来理解。变量对应因子图的节点。似然值\textup{​{\color{Red} p}}(z_k|\chi_k )与先验\textup{​{\color{Red} p}}(\chi )称为因子,它们在节点子集约束下进行概率编码。当对第k个因子(即测量值z_k)和对应的变量\chi _k之间的依赖性进行编码时一个因子图就是一个图模型。用因子图进行解释的第一个优点在于它可以对问题进行一个最直接的可视化表示。下图展示了一个简单SLAM问题的因子图表示形式。该图显示了变量,即机器人位姿、地标位置和相机校准参数,以及这些变量之间施加约束的因素。第二个优点是通用性:因子图可以对具有异构变量和因子以及任意互连的复杂推理问题进行建模。此外,因子图的连通性反过来会影响所产生的 SLAM 问题的稀疏性,如下所述。

 

 

SLAM综述阅读笔记一:Past, Present, and Future of Simultaneous Localization And Mapping(2016)_第5张图片

为了以更显式的形式写出式(2)的具体形式,假设测量噪声\varepsilon _k是具有信息矩阵\Omega _k(协方差矩阵的逆)的零均值高斯噪声。接下来,式(2)中的测量似然变为

SLAM综述阅读笔记一:Past, Present, and Future of Simultaneous Localization And Mapping(2016)_第6张图片

这里我们定义。同样地,我们假设先验分布可以表示为

\textup{​{\color{Red} p}}(\chi )\propto \exp (-\frac{1}{2}\left \| h_0(\chi ) - z_0 \right \|^2\Omega _0)

。因为最大化后验等价于最小化负对数log后验,因此最大化后验MAP式(2)可以转化为下式:

 

SLAM综述阅读笔记一:Past, Present, and Future of Simultaneous Localization And Mapping(2016)_第7张图片

上式是一个非线性最小二乘问题,这是在机器人领域中经常遇到的有意思的问题,h_k(\cdot )为一个非线性函数。注意上式是在正态分布噪声的假设下得到的。其他噪声分布会导致不同的代价函数。比如假设噪声分布为拉布拉斯分布时,上式中的l2范数将会变成l1范数。为了更好的抑制奇异值,我们通常将平方l2范数用一些更鲁棒的损失函数代替(比如Huber 或 Tukey 损失)。

计算机视觉专家可能会注意到问题(4)与运动中恢复结构(SFM)中的捆集调整(bundle adjustment BA)之间的相似之处。问题(4)和BA确实都是从最大后验公式中推导出来的。但是,有两点特殊特征使得SLAM很特殊。第一,式(4)中的因子不限于像BA中那样对射影几何建模,而是包括各种传感器模型,例如惯性传感器、车轮编码器、GPS等等。例如,在激光建图中,这些因子通常会限制相对位姿对应于不同视角,而在视觉SLAM的直接法中,这些因子会惩罚场景同一部分在不同视图中像素强度的差异。与BA相关的第二个区别是,在 SLAM 场景中,问题(4)通常需要增量解决:随着机器人的移动,每个时间步都会提供新的测量值。

最小化问题(4)通常通过连续线性化来解决,例如Gauss-Newton或Levenberg-Marquardt方法(基于凸松弛和拉格朗日对偶的替代方法会面将介绍)。连续线性化方法进行迭代处理,首先给定一个初始值\tilde{\chi},将代价函数在\tilde{\chi}处进行二次近似,可以通过求解线性方程组以封闭形式进行优化(正规方程)。这些方法可以无缝推广到属于平滑流形(例如旋转)的变量,这些变量在机器人技术中很重要[1][82]。 

现代SLAM求解器背后的关键核心是,出现在正规方程中的矩阵是稀疏的,其稀疏结构由底层因子图的拓扑结构决定,因此可以采用快速线性求解器[125, 126, 146, 204]。也可以设计出增量(在线)求解器,可以当观测值到来时实时更新变量的估计值。当前的SLAM库(如GTSAM[61]、Ceres[214]、iSAM[126]、SLAM++[206])可以在秒级处理万次级别变量问题。实操指南教程[62]、[98]很好地介绍了两个最流行的SLAM 库;每个库还包含一组展示真实SLAM 问题的示例。

到目前为止SLAM方程通常包括最大后验估计、因子图优化、图SLAM、完全平滑或平滑和映射(SAM)。该框架的一个流行变体是位姿图优化,其中要估计的变量是沿机器人轨迹采样的位姿,每个因子对一对位姿施加约束。

最大后验估计已被证明比基于非线性滤波的SLAM方法更准确和更有效。我们建议读者参阅文献[8]、[70]以了解有关过滤方法的概述,并参阅 [236] 以了解过滤和平滑之间的比较。我们注意到一些基于EKF的SLAM系统也被证明可以达到最先进的性能。基于EKF的SLAM系统的优秀代表包括Mourikis和Roumeliotis[175]的多状态约束卡尔曼滤波器,以及 Kottas 等人的VIN系统。 [139]和Hesch等人。毫不奇怪,当EKF的线性化点准确时(就像在视觉惯性导航问题中发生的那样),滤波和MAP估计之间的性能不匹配会变得很小。当使用滑动窗口滤波器以及潜在的不一致源时,将尽量慎用EKF[105, 108, 139].

正如下一节所讨论的,MAP估计通常在传感器数据的预处理版本上执行。因此,它通常被称为SLAM后端。

B依赖传感器的SLAM前端

在实际的机器人应用中,可能很难将传感器测量值直接写成MAP估计中所要求的那样的状态解析函数。例如,如果原始传感器数据是图像,则可能很难将每个像素的强度表示为SLAM状态的函数;更简单的传感器(例如,具有单光束的激光器)也会出现同样的困难。在这两种情况下,问题都与我们无法设计出足够通用且易于处理的环境表示这一事实有关。即使存在这样的一般表示形式,也很难编写出测量值与参数联系起来的解析函数。

由于这一原因,在SLAM后端之前,通常有一个模块,即前端,用于从传感器数据中提取相关特征。例如,在基于视觉的SLAM中,前端提取环境中少数可区分点的像素位置;这些点的像素观测很容易在后端对其建模。前端还负责将每个测量值与环境中的特定地标(例如3-D点)相关联:这就是所谓的数据关联。更抽象地说,数据关联模块将每个测量z_k与未知变量\chi _k的子集相关联,使得z_k=h_k(\chi_k)+\epsilon _k。最后,前端还要为非线性优化(4)中的变量提供初始值。例如,在基于特征的单目SLAM中,前端通过对来自多个视图的地标位置进行三角测量来处理地标初始化。

图2给出了一个典型的SLAM系统的图形表示。前端的数据关联模块包括一个短期数据关联和一个长期数据关联模块。短期数据关联负责关联连续传感器测量中的相应特征;例如,短期数据关联将跟踪连续帧中的2个像素测量值描绘相同的3-D点这一事实。另一方面,长期数据关联(或回环检测)负责将新测量值与旧地标相关联。我们注意到后端通常将信息反馈给前端,例如,以支持回环检测和验证。

前端发生的预处理取决于传感器,因为特征的概念会根据我们考虑的输入数据流而变化。

3 长期自主性 I:稳健性

SLAM系统可能在许多方面都很脆弱:失败可能与算法或硬件有关。前一类包括由现有SLAM算法的限制引起的故障模式(例如,难以处理的高机动性或恶劣的环境)。后者包括由于传感器或执行器退化引起的故障。明确解决这些故障模式对于长期运行至关重要,因为人们无法再对环境结构(例如,大部分是静态的)进行简化假设或完全依赖搭载传感器。在本节中,我们回顾了算法鲁棒性的主要挑战。然后我们讨论开放性问题,包括针对硬件相关故障的鲁棒性。

算法失败的主要来源之一是数据关联。如第二部分所述,数据关联将每个测量与测量所指的状态部分相匹配。例如,在基于特征的视觉SLAM中,它将每个视觉特征与特定的地标相关联。感知混叠,即不同的传感器输入导致相同的传感器特征的现象,使这个问题特别困难。在存在感知混叠的情况下,数据关联会建立错误的测量状态匹配(异常值或误报),这反过来会导致后端的错误估计。另一方面,当数据关联决定错误地拒绝传感器测量为虚假(假阴性)时,用于估计的测量值会减少,但会降低估计的准确性。

由于环境中存在包括短期和季节性变化在内的未建模动态,情况变得更糟,这可能会欺骗短期和长期数据关联。当前SLAM方法中一个相当普遍的假设是,当机器人通过时,世界保持不变(换句话说,地标是静态的)。只要没有短期动态(例如,人和物体四处移动),这种静态世界假设在小规模场景中的单个建图中成立。在更长的时间尺度和大型环境中进行建图时,变化是不可避免的。

鲁棒性的另一个方面是在水下等恶劣环境中进行SLAM[74]、[131]。这种情况下的挑战是能见度有限、条件不断变化以及无法使用传统传感器(例如激光测距仪)。

A 简要总结

与错误数据关联相关的稳健性问题可以在SLAM系统的前端和/或后端解决。传统意义上,前端被指派建立正确的数据关联。短期数据关联更容易解决:如果传感器的采样率相对较快,与机器人的动力学相比,跟踪对应于相同3-D地标的特征很容易。例如,如果我们想跟踪连续图像中的3-D点并假设帧速率足够高,则基于描述符匹配或光流的标准方法 [218]可确保可靠的跟踪。直观地说,在高帧率下,传感器(相机、激光)的视点没有显着变化,因此t+1时刻的特征(及其外观)保持接近t时刻观察到的特征。长期数据关联在前端更具挑战性,涉及闭环检测和验证。对于前端的闭环检测,检测当前测量(例如图像)中的特征并尝试将它们与所有先前检测到的特征快速匹配的蛮力方法变得不切实际。词袋模型[226]通过量化特征空间并允许更有效的搜索来避免这种难以处理的问题。词袋可以排列成分层词汇树[189],可以在大规模数据集中进行有效查找。[54]等基于词袋的技术在单会话闭环检测任务中显示出可靠的性能。然而,这些方法不能处理严重的光照变化,因为视觉词不再能够匹配。这导致开发出新的方法,通过匹配序列[173],将不同的视觉外观收集到统一的表示[49]或使用空间和外观信息[107]来明确解释这种变化。可以在Lowry等人中找到关于视觉位置识别的详细描述[160]。基于特征的方法也被用于基于激光的SLAM前端的闭环检测;例如,Tipaldi 等人[242]提出了用于二维激光扫描的FLIRT特征

闭环验证由额外的几何验证步骤组成,以确定闭环的质量。在基于视觉的应用中,RANSAC通常用于几何验证和异常值剔除,参见[218]和其中的参考文献。在基于激光的方法中,可以通过检查当前激光扫描与现有地图的匹配程度(即扫描匹配产生的残余误差有多小)来验证回环检测。

尽管在前端的闭环检测鲁棒性方面取得了进展,但在存在感知混叠的情况下,错误的闭环被反馈到后端是不可避免的。错误的闭环会严重破坏MAP估计的质量 [238]。为了解决这个问题,最近的一系列研究[34]、[150]、[191]、[238]提出了使SLAM后端能够抵御虚假测量的技术。这些方法通过查看优化期间约束引起的残差来推断闭环约束的有效性。其他方法尝试先验地检测异常值,即在进行任何优化之前,通过识别里程计不支持的回环来识别错误的闭环[215]。

在动态环境中,挑战是双重的。首先,SLAM系统必须检测、丢弃或跟踪变化。虽然主流方法试图丢弃场景的动态部分[180],但一些工作将动态元素作为模型的一部分[12]、[253]。第二个挑战是SLAM系统必须对永久性或半永久性变化进行建模,并了解如何以及何时相应地更新地图。当前处理动态SLAM系统要么维护同一位置的多个(时间相关)地图[61],要么具有由某个时变参数控制的的单个表示[140]。

B 开放问题

在本节,我们将回顾在长期SLAM中的开放问题及新的研究问题。

1)故障安全SLAM与恢复

尽管SLAM后端取得了进展,但当前的SLAM求解器仍然容易受到异常值的影响。这主要是因为几乎所有稳健的SLAM技术都是基于非凸代价函数的迭代优化。这有两个后果:首先,异常值拒判结果取决于提供给优化的初始值的质量;其次,该系统本质上是脆弱的:包含单个异常值会降低估计的质量,这反过来又会降低以后识别异常值的能力。这些类型的故障会导致不正确的线性化点,从该点恢复并非易事,尤其是在增量算法中。理想的SLAM解决方案应该是故障安全和故障感知的,即系统需要意识到即将发生的故障(例如,异常值或退化)并提供可以重新建立正确操作的恢复机制。现有的SLAM方法都没有提供这些功能。实现这一点的一种可能方法是在前端和后端之间进行更紧密的集成,但如何实现这一点仍然是一个悬而未决的问题。

2)对硬件故障稳健性

虽然解决硬件故障可能出现在SLAM的范围之外,但这些故障会影响SLAM系统,后者(****)可以在检测和缓解传感器和运动故障方面发挥关键作用。如果传感器的精度由于故障、非标称条件或老化而降低,则传感器测量的质量(例如,噪声、偏差)与后端使用的噪声模型不匹配 [参见 cf(3)],导致估计不佳。这自然会提出不同的研究问题:我们如何检测退化的传感器操作?我们如何相应地调整传感器噪声统计数据(协方差、偏差)?更一般地说,我们如何解决来自不同传感器的冲突信息?这在安全关键型应用(例如自动驾驶汽车)中似乎至关重要,在这些应用中,对传感器数据的误解可能会危及人类生命。

3)度量重定位

虽然基于外观的方法与基于特征的方法相反,能够在昼夜序列或不同季节之间闭合回路,但由此产生的回路闭合本质上是拓扑的。对于度量重定位(即,估计相对于先前构建的地图的相对位姿),基于特征的方法仍然是规范的;然而,当前的特征描述符缺乏足够的不变性在这种情况下可靠地工作。可以利用SLAM问题固有的空间信息,例如轨迹匹配来克服这些限制。此外,使用一种传感器模态(例如,3-D 激光雷达)进行建图并使用不同的传感器模态(例如,相机)在同一地图中进行定位可能是一个有用的补充。 Wolcott 等人的工作[260]是朝着这个方向迈出的第一步。

4)时变和可变形地图

主流SLAM方法是在考虑刚性和静态世界假设的情况下发展的;然而,由于动态性以及物体固有的可变形性,现实世界是非刚性的。一个理想的SLAM解决方案应该能够推理环境中的动态,包括非刚性,长时间工作生成“全地形”地图,并且能够实时完成。在计算机视觉社区中,自80年代以来已经有过几次尝试从非刚性物体中恢复形状,但适用性有限。最近在非刚性SfM中的结果,例如[92]、[97],限制较少,但仅适用于小场景。在SLAM社区中,Newcombe等人[182]已经解决了小规模重建的非刚性情况。然而,大规模解决非刚性地图的问题在很大程度上仍未得到探索。

5)自动参数调整

SLAM系统(特别是数据关联模块)需要大量参数调整才能在给定场景下正常工作。这些参数包括控制特征匹配的阈值、RANSAC参数以及决定何时向图中添加新因子或何时触发闭环算法来搜索匹配的准则。如果SLAM必须在任意场景中“开箱即用”工作,则需要考虑自动调整相关参数的方法。

4 长期自主性 II:可扩展性

虽然现代SLAM算法主要在室内建筑规模环境中得到成功验证,但在许多应用尝试中,机器人必须在更大的区域内长时间运行。这些应用包括用于环境监测的海洋探索、在不断变化的城市中的不间断清洁机器人或大规模精准农业。对于此类应用,由于对新地点的不断探索和操作时间的增加,SLAM基础因子图的大小可以无限增长。在实践中,计算时间和内存占用受限于机器人的资源。因此,设计计算和内存复杂度保持有界的SLAM方法非常重要。

在最坏的情况下,基于直接线性求解器的连续线性化方法意味着内存消耗在变量数量上呈二次方增长。当使用迭代线性求解器(例如,共轭梯度[63])时,内存消耗随着变量的数量线性增长。由于节点和边不断地添加到相同的空间区域,从而损害了图的稀疏结构,因此当多次重新访问一个地方时,因子图优化变得不那么有效,因此情况变得更加复杂。

在本节中,我们回顾当前控制或至少减少问题规模增长的一些方法,并讨论了开放的挑战。

A简要总结

我们专注于降低因子图优化复杂性的两种方法:1)稀疏化方法,它在内存和计算效率之间权衡信息损失,2多核和多机器人方法,它在许多机器人/处理器之间分割计算。

1)节点和边稀疏化

这一系列方法通过减少添加到图中的节点数量或修剪较少“信息量”的节点和因子来解决可伸缩性问题。伊拉等人[115]使用信息论方法仅向图中添加非冗余节点和信息量高的测量值。约翰森等人[120],在可能的情况下,通过在现有节点之间引入新的约束来避免向图中添加新节点,这样变量的数量只会随着探索空间的大小而不是建图持续时间而增长。克雷茨施马尔等人[141]提出了一种基于信息的标准,用于确定在位姿图优化中要边缘化哪些节点。Carlevaris-Bianco 和 Eustice [29],以及 Mazuran 等人[170]分别介绍了通用线性约束(GLC)因子和非线性图稀疏化(NGS)方法。这些方法在边缘化节点的马尔可夫毯上运行,并计算毯的稀疏近似。黄等人[108] 通过求解 l1正则化最小化问题来稀疏化 Hessian 矩阵(在正规方程中产生)。

允许减少随时间估计的参数数量的另一项工作是连续时间轨迹估计。此类的第一个SLAM方法由Bibby和Reid提出,使用三次样条表示机器人的连续轨迹[13]。在他们的方法中,因子图中的节点表示以滑动窗口方式优化的样条曲线的控制点(节点)。后来,Furgale等人[89]建议在批量优化公式中使用基函数,特别是B样条来近似机器人轨迹。滑动窗口B样条公式也用于带有卷帘快门相机的SLAM,Patron-Perez等人的基于地标的表示。[196]和Kim等人的半密集直接表示[133]。最近,Mueggler 等人[177]将连续时间SLAM公式应用于基于事件的相机。博塞等人[22]将连续3-D扫描匹配公式从[20]扩展到大规模SLAM应用。后来,Andersonetal.[5]和 Dube ́etal.[68]提出了更有效的实现,通过使用小波或分别在轨迹上采样非均匀节点。童等人[243]将轨迹的参数化从基曲线更改为高斯过程表示,其中因子图中的节点是实际的机器人姿态,任何其他姿态都可以通过计算给定时间的后验均值来插值。昂贵的批量高斯-牛顿优化来解决第一个提案中的状态。Barfoot等人[4]随后提出了一个具有精确稀疏逆核的高斯过程,大大减少了批处理解决方案的计算时间。

2)核外(并行)SLAM

SLAM的并行核外算法在多个处理器之间拆分因子图优化的计算(和内存)负载。关键思想是将因子图划分为不同的子图,并通过交替对每个子图进行局部优化来优化整个图,并进行全局细化。相应的方法通常被称为子映射算法,这个想法可以追溯到最初尝试处理大规模地图[19]倪等人。[187]和赵等人[267]提出了因子图优化的子映射方法,将子图组织成二叉树结构。格里塞蒂等人[99]提出了子图的层次结构:每当获得观察结果时,都会修改层次结构的最高级别,并且仅在较低级别更改受到实质性影响的区域。一些方法在两个并行运行的线程中近似解耦定位和映射,如 Klein 和 Murray [135]。其他方法诉诸并行解决不同阶段:受[223]的启发,Strasdat等人[235]采用两阶段方法,首先优化局部姿势特征图,然后优化姿势姿势图;威廉姆斯等人[259]高频滤波器和低频平滑器中的分裂因子图优化,它们是周期性同步的。

3)分布多机器人SLAM

建图大规模环境的一种方法是部署多个执行SLAM的机器人,并将场景划分为较小的区域,每个区域由不同的机器人建图。这种方法有两个主要变体:集中式,其中机器人构建子图并将本地信息传输到执行推理的中央站[67],[210],以及分散式,其中没有中央数据融合和代理利用本地通信在公共地图上达成共识。 Nerurkar等人[181]提出了一种基于分布式共轭梯度的协同定位算法。阿拉格斯等人[6]研究基于共识的地图合并方法。Knuth和Barooah[137]使用分布式梯度下降估计3-D姿势。拉萨罗等人[151],机器人交换部分因子图,这些因子图以压缩测量的形式近似,以最大限度地减少通信。坎尼厄姆等人[55]使用高斯消除,并开发了一种称为DDF-SAM的方法,其中每个机器人在分隔符(即多个机器人共享的变量)上交换高斯边缘。最近关于多机器人SLAM方法的调查可以在[216]中找到。

虽然高斯消元法已经成为一种流行的方法,但它有两个主要缺点。首先,机器人之间要交换的边际是密集的,并且通信成本是分离器数量的二次方。这促使使用稀疏化技术来降低通信成本[197]。第二个原因是对问题的线性化版本执行高斯消除,因此DDF-SAM[55] 等方法需要良好的线性化点和复杂的簿记,以确保机器人之间线性化点的一致性。高斯消除的另一种方法是Choudhary等人的 Gauss-Seidel方法[48],这意味着通信负担与分隔符的数量成线性关系。

B)开放问题

尽管有大量工作集中在降低因子图优化复杂性,但文献在与长期操作相关的其他方面存在较大差距。

1)地图表示形式

一个基本未被探索的问题是在长期操作期间如何存储地图。即使内存没有严格的约束,例如,数据存储在云上,原始数据表示为点云或体素图(另见第V节)在内存方面也是浪费的;同样,存储基于视觉SLAM的特征描述符很快就会变得很麻烦。最近提出了一些初始解决方案,用压缩的已知地图[163]进行定位,并用高效的内存密集重建。

2)学习、遗忘与记忆

长期建图的一个开放悬而未决的问题是多久更新一次地图中包含的信息,以及如何确定这些信息何时过时并且可以被丢弃。什么时候可以忘记,如果有的话?在这种情况下,什么是可以忘记的,什么是必须维护的?地图的某些部分是否可以“卸载”并在需要时重新调用?虽然这显然取决于任务,但文献中没有对这些问题给出有根据的答案。

3)稳健的分布式建图

虽然已经在单个机器人案例中提出了异常值拒绝的方法,但关于多机器人SLAM的文献几乎没有涉及处理异常值问题。主要有以下两个原因,使得处理虚假测量特别具有挑战性。首先,机器人可能不共享一个共同的参考框架,这使得检测和拒绝错误的闭环变得更加困难。其次,在分布式设置中,机器人必须从非常小部分和局部的信息中检测异常值。解决这个问题的早期尝试是[85],机器人在融合信息之前,使用会合(约定)策略主动验证位置假设。因德尔曼等人[117]提出了一种概率方法建立一个公共参考框架来处理存在虚假测量的情况。

4)资源约束平台

另一个相对未探索的问题是如何使现有的SLAM算法应对机器人平台具有严重计算限制的情况。当平台的尺寸缩小时,这个问题非常重要,例如移动电话、微型飞行器或机器人昆虫[261]。许多SLAM算法的成本太高而无法在这些平台上运行,因此希望有一种算法可以调整一个“旋钮”,允许在计算成本的准确性之间进行权衡。多机器人设置中出现了类似的问题:当面临严格的带宽限制和通信中断时,我们如何保证多机器人组织的可靠运行?Cieslewski等人的“版本控制”方法[50]是这方面的第一次尝试。

5 表示 I:度量地图模型

本节讨论如何在SLAM中对几何进行建模。更正式地说,度量表示(或度量图)是编码几何环境的符号结构。我们断定,理解如何为SLAM选择合适的度量表示(以及扩展目前在机器人技术中使用的集合或表示形式)将影响许多研究领域,包括长期导航、与环境的物理交互以及人机交互。

在二维情况下,几何建模看起来要简单得多,只有两种主要范式:基于地标的地图和占用网格地图。前者将环境建模为一组稀疏的地标,后者将环境离散化为单元格并为每个单元格分配占用概率。IEEE RAS地图数据表示工作组已经解决了二维情况下这些表示的标准化问题,该工作组最近发布了机器人技术中的二维地图标准[114];该标准定义了平面环境(加拓扑图)的两种主要度量表示,以促进数据交换、基准测试和技术转让。

3-D几何建模的问题更加精致,理解如何在映射过程中有效地建模3-D几何的还处于起步阶段。在本节中,我们将从机器人、计算机视觉、计算机辅助设计 (CAD) 和计算机图形学的广泛视角出发,回顾度量表示。我们的分类法从[81]、[209]、[221]中汲取灵感,并包括对最近工作的指引。

A 基于路标的稀疏表示

大多数SLAM方法将场景表示为一组稀疏的3-D地标,这些地标对应于环境中的显著特征(例如,线、角)[179];一个例子如图4(左)所示。这些通常被称为基于地标或基于特征的表示,并且自从早期的定位和建图工作以来一直在移动机器人中广泛使用,并且在运动中恢复结构[3]、[244]背景下的计算机视觉中也被广泛应用。这些表示背后的一个共同假设是地标是可区分的,即传感器数据测量地标的某些几何方面,但也提供了一个描述符,该描述符在每个测量值和相应的地标之间建立(可能不确定)数据关联。以前的工作还研究了不同的3-D地标参数化,包括全局和局部笛卡尔模型,以及逆深度参数化[174]。虽然大量工作集中在点特征的估计上,但机器人文献也对更复杂几何地标的扩展,包括线、线段或弧线[162]。

B 低层级数据表示

与基于地标的表示相反,密集表示试图提供3-D几何的高分辨率模型。这些模型更适合避障,或可视化和渲染,见图4(右)。在密集模型中,原始表示通过大量非结构化点集(即点云)或多边形(即多边形集合[222])来描述3-D几何。点云已广泛用于机器人技术,与立体和RGB-D相机以及3-D激光扫描仪结合使用[190]。这些表示最近在单目SLAM中获得了普及,并结合使用直接方法[118]、[184]、[203],这些方法直接从所有图像像素的强度值估计机器人轨迹和3D模型。稍微复杂一点的表示是面元图,它将几何图形编码为一组磁盘[105]、[257]。虽然这些表示在视觉上令人愉悦,但它们通常很麻烦,因为它们需要存储大量数据。此外,它们给出了几何的低级描述,例如忽略了障碍物的拓扑。

SLAM综述阅读笔记一:Past, Present, and Future of Simultaneous Localization And Mapping(2016)_第8张图片

C 边界和空间划分密集表示

这些表示超越了非结构化的低级基元集(例如点),并试图明确表示表面(或边界)和体积。这些表示更适合运动或脚步规划、避障、操纵和其他基于物理的推理(如接触推理)等任务。边界表示(b-reps)根据其表面边界定义3-D对象。特别是,简单的边界表示是基于平面的模型,已在[45]、[124]和[162]中用于建图。更一般的b-reps包括基于曲线的表示(例如,NURBS或B样条的张量积)、曲面网格模型(连接的多边形集)和隐式曲面表示。后者将实体的表面指定为定义在R3[17]上函数的过零点;函数的示例包括径向基函数[39]、符号距离函数[56]和截断符号距离函数(TSDF)[264]。TSDF目前是机器人技术中基于视觉的SLAM的流行表示,在开创性工作之后引起了越来越多的关注[183]。网格模型也已在[258]和[257]中使用。

空间划分表示将3-D对象定义为连续的非相交基元的集合。最流行的空间划分表示是所谓的空间占用枚举,它将3-D空间分解为相同的立方体(体素),排列在规则的3-D网格中。更有效的分区方案包括八叉树、多边形映射八叉树和二进制空间分区树[81,sec。12.6]。在机器人技术中,八叉树表示已用于3-D建图[76],而常用的占用网格图[72]可被视为空间分区表示的概率变体。在没有悬挂障碍物的3-D环境中,也使用了2.5-D高程图[24]。在转向更高级别的表示之前,让我们更好地理解稀疏(基于特征的)表示(和算法)与视觉SLAM中的密集表示的比较。

哪一个最好:基于特征的方法还是直接方法?基于特征的方法相当成熟,有着悠久的成功历史[60]。它们允许构建具有自动重定位和闭环功能的准确且强大的SLAM系统[179]。然而,这样的系统依赖于环境中特征的可用性,对检测和匹配阈值的依赖,以及大多数特征检测器优化的是速度而不是精度。另一方面,直接方法使用原始像素信息,而密集直接方法利用图像中的所有信息,甚至来自梯度较小的区域。因此,它们可以在纹理、散焦和运动模糊[184]、[203]等较差的场景中优于基于特征的方法。但是,它们需要高计算能力(GPU)才能实现实时性能。此外,如何联合估计密集结构和运动仍然是一个悬而未决的问题(目前它们只能交替估计)。为了避免基于特征的方法的弊端,有两种选择。半密集方法通过仅利用具有强梯度(即边缘)的像素[73]、[84]来克服密集方法的高计算要求;半直接方法利用稀疏特征(如角或边缘)和直接方法[84],并被证明是最有效的[84];此外,由于它们依赖于稀疏特征,它们允许对结构和运动进行联合估计。

D 高层级基于对象表示

虽然点云和边界表示目前在密集建图领域占主导地位,但我们设想更高级别的表示,包括对象和实体形状,将在SLAM的未来发挥关键作用。在SLAM中包含基于对象的推理的早期技术是来自Salas-Moreno等人的“SLAM++”[217],来自Civera等人的工作[51]和Dame等人[57]。实体表示明确编码了真实对象是3-D而不是1-D(即点)或2-D(表面)。将对象建模为实体形状允许将物理概念(例如体积和质量)与每个对象相关联,这对于必须与世界交互的机器人来说绝对重要。幸运的是,CAD 和计算机图形学的现有文献为这些发展铺平了道路。在下文中,我们列出了一些尚未在SLAM场景中使用的实体表示的示例:

  1. 参数化基元实例化:依赖于对象族(例如,圆柱体、球体)的定义。对于每个族,定义一组参数(例如,半径、高度),以唯一标识族的成员(或实例)。这种表示可能对SLAM很有意义,因为它可以使用极其紧凑的模型,同时仍能捕捉环境中人造的许多元素。
  2. 扫描表示:将实体定义为沿空间轨迹的2-D或3-D对象。典型的扫描表示包括平移扫描(或挤压)和旋转扫描。例如,一个圆柱体可以表示为一个圆沿着与圆平面正交的轴的平移扫描。二维横截面的扫描在计算机视觉中被称为广义圆柱体[14],它们已被用于机器人抓取[200]。通过利用对称性,这种表示似乎特别适合推理场景的被遮挡部分。
  3. 构造实体几何:通过基元[209]之间的布尔运算来定义复杂的实体。一个对象被存储为一棵树,其中叶子是基元,边表示操作。这种表示可以对相当复杂的几何图形进行建模,并广泛用于计算机图形学中。

我们通过提到存在其他类型的表示来结束这部分评论,包括CAD[220]中基于特征的模型、基于字典的表示[266]、基于启示的模型[134]、生成和程序模型[172]以及场景图[121]。特别是,基于字典的表示,将实体定义为字典中原子的组合,已在机器人技术和计算机视觉中得到考虑,字典从数据中学习[266]或基于现有的对象模型存储库[149],[157]。

E 开放问题

以下关于SLAM度量表示的问题值得进行大量的基础研究,并且仍然有很大的探索空间。

1)SLAM中高级表达表示

虽然大多数机器人社区目前专注于点云或TSDF来建模3-D几何,但这些表示有两个主要缺点。首先,它们浪费内存。例如,这两种表示都使用许多参数(即点、体素)来编码甚至是简单环境,例如空房间(这个问题可以通过所谓的体素散列[188]部分缓解)。其次,这些表示不提供对3-D几何的任何高级理解。例如,考虑机器人必须弄清楚它是在房间还是在走廊中移动的情况。点云不能提供有关环境类型(即房间与走廊)的现成可用信息。另一方面,更复杂的模型(例如,参数化基元实例化)将提供识别两个场景的简单方法(例如,通过查看定义基元的参数)。因此,在SLAM中使用更高级别的表示具有三个前景。首先,使用更紧凑的表示将为大规模建图中的地图压缩提供自然工具。其次,高级表示将提供对象几何的高级描述,这是促进数据关联、位置识别、语义理解和人机交互的理想特征;这些表示还将为SLAM提供强大的支持,能够推理遮挡、利用形状先验,并进行物体物理属性(例如,重量、动态)的推理/建图过程。最后,使用丰富的3-D表示将能够与现有的现代建筑建造和管理标准进行交互,包括CityGML[193]和IndoorGML[194]。除了点云、网格模型、面元模型和TSDF之外,目前没有任何SLAM技术可以构建更高级别的表示。最近在这个方向上的工作包括[18]、[52]、[231]

2)最优表示

虽然关于3-D几何的不同表示的文献相对较多,但很少有作品专注于理解哪些标准应该指导特定表示的选择。直观地说,在简单的室内环境中,人们应该更喜欢参数化图元,因为很少有参数可以充分描述3-D几何;另一方面,在复杂的户外环境中,人们可能更喜欢网格模型。因此,我们应该如何比较不同的表示,我们应该如何选择“最佳”表示?Requicha[209]指出了可以比较不同表示的实体表示的几个基本属性。在这些属性中,我们发现:域(可以表示的真实对象的集合)、简洁性(用于存储和传输的表示的“大小”)、易于创建(在机器人技术中,这是所需的“推理”时间用于表示的构造),以及在应用上下文中的效果(这取决于使用表示的任务)。因此,“最佳”表示是能够执行给定任务,同时简洁且易于创建。Soatto和Chiuso[229]将最优表示定义为执行给定任务的最小足够统计量,以及对干扰因素的最大不变性。找到一个通用且易于处理的框架来选择任务的最佳表示仍然是一个悬而未决的问题

3)自动自适应选择

传统上,表示的选择已经委托给设计系统的机器人专家,但这有两个主要缺点。首先,设计合适的表示是一项耗时的任务,需要专家。其次,它不允许任何灵活性:一旦系统设计好,选择的表示就不能改变;理想情况下,我们希望机器人根据任务和环境的复杂性使用或多或少复杂的表示。最优表示的自动设计将对长期导航产生重大影响。

6 表示II:语义地图模型

语义建图包括将语义概念与机器人周围的几何实体相关联。最近,纯几何地图的局限性已经得到认可,这催生了环境语义建图方面的重要且持续的工作,以增强机器人的自主性和鲁棒性,促进更复杂的任务(例如,避免驾驶时泥泞的道路),从路径规划转向任务规划,并实现高级人机交互[10]、[27]、[217]。这些问题导致了语义建图的不同方法,这些方法在语义概念的数量和类型上有所不同,以及将它们与环境的不同部分相关联的方法。例如,Pronobis和Jens-fet[206]标记不同的房间,而Pillai和Leonard[201]在地图中分割几个已知对象。除了少数方法外,基本级别的语义解析被认定为分类问题,其中考虑了感知数据和语义概念之间的简单映射。

A 语义与拓扑SLAM

如第一节所述,拓扑建图丢弃了度量信息,仅利用位置识别来构建一个图形,其中节点表示可区分的“位置”,而边表示位置之间的可达性。我们注意到拓扑建图与语义建图完全不同。虽然前者需要识别一个以前见过的地方(不管那个地方是厨房、走廊等),但后者需要根据语义标签对地方进行分类。Lowry等人对基于视觉的拓扑SLAM进行了全面总结[160],它的一些挑战在第三节中讨论。在本节的其余部分,我们关注语义建图。

B语义SLAM:概念的结构与细节

人类的无限数量的概念和它们之间的关系开启了一个更具哲学性和任务驱动的语义概念。细节和组织取决于机器人应该执行任务的内容和位置,它们会在不同阶段影响问题的复杂性。通过定义以下方面来构建语义表示:

  1. 语义概念的层次与细节:对于给定的机器人任务,例如“从A房间到B房间”,粗略的类别(房间、走廊、门)足以成功执行,而对于其他任务,例如“拿起茶杯”,需要更精细的类别(桌子、茶杯、玻璃杯)。
  2. 语义概念的组织结构:

语义概念不是排他的。更重要的是,单个实体可以具有无限数量的属性或概念。椅子可以是“可移动的”和“可坐的”;餐桌可以是“可移动的”和“不可坐的”。椅子和桌子虽然是家具,但它们共享可移动属性,但可用性不同。必须设计平面或分层组织,共享或不共享某些属性,以处理这种多重概念。

C 简要调研

这里有三种主要路径来解决语义建图,将语义概念赋予数据。

1)SLAM帮助语义

第一批从事语义建图的机器人研究人员从把经典SLAM系统构建的度量图将分割成语义概念的开始。Mozos等人的早期工作是[176],它使用二维激光扫描构建几何地图,然后通过关联马尔可夫网络以离线方式融合来自每个机器人姿势的分类语义位置。同样赖等人[148]从RGB-D序列构建3-D地图以进行离线对象分类。Pronobis等人后来提出了一种在线语义建图系统。[206],他们结合了三层推理(感知、分类和地点),使用激光和相机传感器构建环境的语义地图。最近,Cadena 等人[27]使用运动估计,并将粗略的语义分割与不同的对象检测器互连,以优于单个系统。Pillai和Leonard[201]使用单目SLAM系统来提高视频中物体识别任务的性能。

2)语义帮助SLAM

在第一个语义图问世后不久,另一个趋势是利用已知的语义类或对象。这个想法是,如果我们可以识别地图中的对象或其他元素,那么我们可以使用我们关于它们的几何形状的先验知识来改进对该地图的估计。Castle等人的第一次尝试是小规模的[45]和Civera 等人[51]具有稀疏特征的单目SLAM,由Dame等人撰写[57]具有密集的地图表示。利用RGB-D传感器,Salas-Moreno等人[217]提出了一种基于检测环境中已知物体的SLAM系统

3)联合SLAM与语义推理

具有计算机视觉和机器人技术专业知识的研究人员意识到,他们可以在联合公式中执行单目SLAM和地图分割。Flint等人的在线系统[80]提出了一个模型,该模型利用曼哈顿世界假设在室内场景的主平面上分割地图。鲍等人[10]提出了使用场景中的几何和语义属性联合估计相机参数、场景点和对象标签的第一种方法。在他们的工作中,作者展示了改进的对象识别性能和鲁棒性,代价是每个图像对的运行时间为20分钟,并且对象类别的数量有限使得该方法对于在线机器人操作不切实际。在同一主线中,Häne 等人[103]在户外场景中解决了一个更专业的类优化问题。虽然仍然离线,但Kundu等人[147]通过语义分割和度量图的后期融合来降低问题的复杂性,Sengupta等人早些时候提出了类似的想法[219]使用立体摄像机。需要注意的是,[147]和[219]只关注建图部分,并没有细化这个后期阶段的前期计算位姿。最近,Vineet等人提出了一个有前途的在线系统[251]使用立体相机和密集的地图表示。

D 开放问题

在SLAM中包含语义信息的问题还处于起步阶段,与度量SLAM相反,它仍然缺乏强有力的表述。图5显示了一个建筑工地作为一个简单的例子,我们可以找到下面挑战。

SLAM综述阅读笔记一:Past, Present, and Future of Simultaneous Localization And Mapping(2016)_第9张图片

1)语义与度量一致融合

尽管在时间融合方面已经取得了一些进展,例如,每帧语义置信[219]、[251],但将多个语义信息源与来自不同时间点的度量信息一致融合的问题仍然存在。将语义分类的置信度或不确定性结合众所周知的因子图公式是实现联合语义度量推理框架的一种可能方式。

2)语义建图不仅仅是一个分了问题

语义概念正在演变为更专业的信息,例如地图中实体的可供性和可操作性,以及环境中不同代理之间可能的交互。如何表示这些属性和相互关系是高级人机交互需要回答的问题。

3) 忽略、意识、适应

给定一些先验知识,机器人应该能够推理新概念及其语义表示,也就是说,它应该能够发现环境中的新对象或新类别,并通过与其他机器人和人类的主动交互来学习新属性,并调整表示以适应环境随时间的缓慢和陡然变化。例如,假设轮式机器人需要对地形是否可行驶进行分类,以告知其导航系统。如果机器人在道路上发现一些之前被归类为可驾驶的泥泞,机器人应该根据穿越泥泞区域的难度等级学习新的类别,或者如果感知到另一辆车陷入泥泞,则调整其分类器。

4)基于语义推理

作为人类,语义表示允许我们压缩和加速对环境的推理,而评估准确的度量表示需要一些努力。目前,机器人并非如此。机器人可以处理(彩色)度量表示但它们并没有真正利用语义概念。我们的机器人目前无法使用环境中的语义概念(类别、关系和属性)有效且高效地定位和持续建图。例如,当检测到汽车时,机器人应该推断汽车下方是否存在平面地面(即使被遮挡),而当汽车移动时,地图更新应该只使用新的传感器读数来优化地面。更重要的是,相同的更新应该在一个单一且高效的操作中改变整个汽车的全局姿态,例如,每一个体素。

7 SLAM 新的理论工具

本节讨论了为SLAM算法建立性能保证的最新进展,并阐明了未解决的问题。理论分析之所以重要,主要有三个原因。首先,SLAM算法和实现通常在少数问题实例中进行测试,很难理解相应的结果如何推广到新实例。其次,理论结果揭示了问题的内在特性,揭示了经验评估中可能违反直觉的方面。第三,对问题结构的真正理解允许推动算法边界,从而能够扩展可以解决的真实世界SLAM实例集。

早期对SLAM算法的理论分析是基于EKF的使用;我们建议读者参考[65]、[255]来全面讨论EKF SLAM的一致性和可观察性。这里我们关注因子图优化方法。除了实际优势(准确性、效率)之外,因子图优化还提供了一个更易于分析的优雅框架。

在没有先验的情况下,MAP估计退化成最大似然估计。因此,在没有先验的情况下,SLAM继承了最大似然估计器的所有属性:(4)中的估计器是一致的、渐近高斯的、渐近有效的,并且对欧几里得空间中的变换不变[171,Th.11-1,2]。在存在先验的情况下,其中一些属性会丢失(例如,估计量不再是不变的[171,第193页])。

在这种情况下,我们对算法属性更感兴趣:给定算法是否收敛到MAP估计?我们如何改进或检查收敛性?存在虚假测量时的崩溃点是什么?

A 简要调研

大多数SLAM算法基于迭代非线性优化[64]、[100]、[125]、[126]、[192]、[204]。SLAM是一个非凸问题,迭代优化只能保证局部收敛。当算法收敛到局部最小值时,它通常会返回一个完全错误且不适合导航的估计(见图6)。对于相对较小的噪声水平[33]、[38],最先进的迭代求解器无法收敛到成本的全局最小值。

迭代方法中收敛的失败引发了对SLAM问题更深入理解的尝试。黄等人[111]率先开展了这项工作,最初的工作讨论了SLAM中非凸性的性质。黄等人[112]讨论了小姿态图优化问题中的最小值。Knuth和Barooah[138]研究了在没有闭环的情况下错误的增长。Carlone[30]提供了Gauss-Newton方法的收敛盆地(下限)估计值。Carlone和Censi[33]表明旋转估计可以在二维中以封闭形式求解,并表明相应的估计是唯一的。最近使用替代的最大似然公式(例如,假设旋转时出现Von Mises噪声[35]、[211])已经获得了更强力的结果。Carlon和Dellaert[32]、[37]表明,在实践中经常遇到的某些条件(强对偶性)下,最大似然估计是唯一的,并且姿态图优化可以通过(凸)半定全局求解(SDP)。[110]中给出了关于SLAM理论方面的最新概述。

如前所述,理论分析有时是设计更好算法的第一步。除了[32]、[37]的对偶SDP方法外,其他作者还提出了凸松弛以避免收敛到局部最小值。这些贡献包括Liu等人的工作[159]和罗森等人[211]。另一个提高收敛性的成功策略是计算一个合适的初始化迭代非线性优化。在这方面,首先求解旋转并使用结果估计来引导非线性迭代的想法已被证明在实践中非常有效[21]、[31]、[33]、[38]。科苏西等人[130]利用平移和旋转之间的(近似)可分离性来加速优化。

最近关于在SLAM中使用拉格朗日对偶性的理论结果也使验证技术的设计成为可能:给定SLAM估计,这些技术能够判断这种估计是否是最优的。能够确定给定SLAM解决方案的质量对于为安全关键型应用设计故障检测和恢复策略至关重要。关于SLAM验证技术的文献是最近才出现的:当前的方法[32]、[37]能够通过求解稀疏线性系统来执行验证,并且只要强对偶成立就保证提供正确的答案(更多关于这一点之后)。

我们注意到,在机器人背景下提出的这些结果为其他社区的相关工作提供了有用的补充,包括多智能体系统中的本地化[47]、[199]、[202]、[245]、[254]、计算机视觉 [87]、[96]、[104]、[168]和低温电子显微镜[224]、[225]中的运动结构。

B 开放问题

尽管过去几年取得的前所未有的进展,但一些理论问题仍悬而未决。

1)一般性、保证、验证

第一个问题是关于现有结果的普遍性。大多数关于有保证的全局解决方案和验证技术的结果都是在位姿图优化的背景下提出的。这些结果可以推广到任意因子图吗?此外,大多数理论结果都假设测量噪声是各向同性的或至少是结构化的。我们可以将现有结果推广到任意噪声模型吗?

弱对偶还是强对偶?作品[32]、[37]表明,当强对偶性成立时,SLAM可以全局解决;此外,它们提供了经验证据,表明在实际应用中遇到的大多数问题实例中都存在强对偶性。突出的问题在于建立强对偶性成立的先验条件。我们想回答“给定一组传感器(以及相应的测量噪声统计数据)和因子图结构,强对偶是否成立?”这个问题。回答这个问题的能力将定义我们可以计算(或验证)SLAM全局解决方案的应用领域。这项理论研究还将提供传感器设计和主动SLAM的基本见解(参见第VIII节)。

2)异常值的容忍度

第三个问题是关于存在虚假测量的估计。虽然最近的结果为姿态图优化提供了强有力的保证,但这种结果并不适用于存在异常值的情况。尽管在鲁棒SLAM(参见第III节)和非高斯噪声案例[212]的新建模工具方面开展了工作,但对异常值具有弹性的全局技术的设计以及可以证明存在异常值的估计研究仍然处于空白。

8 主动SLAM

到目前为止,我们将SLAM描述为一个由机器人被动执行的估计问题,即机器人在给定传感器数据的情况下执行SLAM,但没有刻意收集数据。在本节中,我们将讨论如何利用机器人的运动来改进建图和定位结果。

控制机器人运动以最小化其地图表示和定位的不确定性的问题通常被称为主动SLAM。这个定义源于众所周知的Bajcsy的主动感知[9]和Thrun的机器人探索[240, ch. 17]范式。

A简要调研

主动SLAM算法的第一个提出和实现可以追溯到Feder[78],而这个名称是在[152]中创造的。然而,主动SLAM的根源在于人工智能和机器人探索的思想,这些思想可以追溯到八十年代初(参见[11])。Thrun in [239] 得出的结论是,解决探索-开发困境,即在访问新地方(探索)和通过重新访问已知区域(开发)减少不确定性之间找到平衡,提供了一种更有效的替代方案。随机探索或纯粹利用。

主动SLAM是一个决策问题,有几个通用的决策框架可以用作探索-开发决策的主干。这些框架之一是最优实验设计理论(TOED)[198],它应用于主动SLAM[42]、[44],允许根据预测的地图不确定性选择未来的机器人动作。信息论[164]、[208]方法也已应用于主动SLAM[41]、[232];在这种情况下,决策通常以信息增益的概念为指导。主动SLAM的控制理论方法包括使用模型预测控制[152]、[153]。不同的工作在部分可观测马尔可夫决策过程[123]的形式主义下制定了主动SLAM,这通常被认为是计算上难以处理的;主动SLAM的近似但易于处理的解决方案包括贝叶斯优化[169]或有效的高斯置信传播[195]等。

一个流行的主动SLAM框架包括在一组有限的备选方案中选择最佳的未来行动。这一系列主动 SLAM 算法分为三个主要步骤[16]、[36],如下所示:

  1. 机器人在其当前对地图的估计中识别可能探索或利用的位置,即有利位置。
  2. 机器人计算访问每个有利位置的效果并选择效果最高的动作。
  3. 机器人执行选定的动作并决定是否需要继续或终止任务。

下面,我们将详细讨论每一点。

1)选择有利位置

理想情况下,执行主动SLAM算法的机器人应该评估机器人在(和.)地图空间中的每一个可能的动作,但评估的计算复杂度随着搜索空间呈指数增长,这在实际应用中被证明是计算上难以处理的[25],[169]。在实践中,使用诸如基于边界的探索[127]、[262]等技术选择地图中的一小部分位置。最近的工作[250]和[116]提出了在不确定性下进行连续空间规划的方法,可用于主动SLAM;目前这些方法只能保证收敛到局部最优策略。另一个用于主动SLAM算法的连续域途径是使用势场。一些例子是[249],它使用卷积技术来计算熵并选择机器人的动作,以及[122],它采用边界值问题的解决方案。

2)计算动作效果

理想情况下,为了计算给定动作的效果,机器人应该推理机器人姿态和地图上的后验演化,同时考虑未来(可控)动作和未来(未知)测量。如果这样的后验是已知的,信息论函数,作为信息增益,可以用来对不同的动作进行排序[23],[233]。然而,分析计算这种联合概率通常在计算上是难以处理的[36]、[77]、[233]。在实践中,人们求助于近似值。最初的工作认为地图和机器人的不确定性是独立的[246]或条件独立的[233]。这些方法中的大多数将效果定义为量化机器人和地图不确定性的指标的线性组合[23],[36]。这种方法的一个缺点是两种不确定性的数值规模不具有可比性,即地图不确定性通常比机器人大几个数量级,因此需要手动调整来纠正它。已经为基于粒子滤波器的SLAM[36]和位姿图优化[41]提出了解决这个问题的方法。

TOED[198]也可用于计算执行动作的效果。在TOED 中,每个动作都被视为一个随机设计,设计之间的比较是通过所谓的最优性标准(例如A-opt、D-opt和E-opt)使用它们相关的协方差矩阵来完成的。关于在主动SLAM中使用最优性标准的研究可以在[44]和[43]中找到。

3)执行行动或终止探索

虽然执行一个动作通常是一项简单的任务,但使用运动规划中成熟的技术来决定探索任务是否完成,目前是我们在下一段中讨论的一个公开挑战。

B 开放问题

为了使主动SLAM在实际应用中产生影响,仍有很多的问题需要解决。

1)未来状态的快速与精准预测

在主动SLAM中,机器人的每一个动作都应该有助于减少地图中的不确定性,提高定位精度;为此,机器人必须能够预测未来行动对地图和机器人定位的影响。预测必须快速以满足延迟限制,并且必须精确以有效支持决策过程。在SLAM社区中,众所周知,闭环对于减少不确定性以及提高定位和映射精度很重要。尽管如此,尚未设计出有效的方法来预测闭环的发生和影响。此外,预测未来行动的影响仍然是一项计算量大的任务[116]。最近预测未来机器人状态的方法可以在机器学习文献中找到,并且涉及使用光谱技术[230]和深度学习[252]。

适可而止:你什么时候停止做主动SLAM?主动SLAM是一项计算成本很高的任务:因此:一个自然的问题是我们何时可以停止执行主动SLAM并切换到经典(被动)SLAM以便将资源集中在其他任务上。平衡主动SLAM决策和外生任务至关重要,因为在大多数现实世界的任务中,主动SLAM只是实现预期目标的一种手段。此外,有一个停止标准是必要的,因为在某些时候,可以证明更多的信息不仅会导致收益递减效应,而且在相互矛盾的信息的情况下,还会导致不可恢复的状态(例如,几个错误的闭环)。与难以跨系统比较的信息论指标相比,来自任务导向的TOED的不确定性指标似乎很有希望作为停止标准[40]。

2)性能保证

另一个重要途径是为主动SLAM和接近最优的策略寻找数学保证。由于准确地解决问题是棘手的,因此需要具有明确性能界限的近似算法。这种尝试的例子是在有源传感器放置的相关领域中使用子模块[94]。

9 新领域:传感器与学习

新传感器的开发和新计算工具的使用通常是SLAM的关键驱动力。第IX-A节回顾了非常规和新传感器,以及它们在SLAM环境中带来的挑战和机遇。第IX-D节讨论了(深度)学习作为SLAM重要前沿的作用,分析了该工具改进、影响甚至重述SLAM问题的可能方式。

A 新的非常规SLAM传感器

除了新算法的开发之外,SLAM(以及一般的移动机器人)的进步通常是由新型传感器的可用性触发的。例如,2-D激光测距仪的引入使得创建非常强大的SLAM系统成为可能,而3-D激光雷达一直是自动驾驶汽车等近期应用的主要推动力。在过去的十年中,大量的研究致力于视觉传感器,并在增强现实和基于视觉的导航中取得了成功的应用。

机器人技术中的传感主要由激光雷达和传统视觉传感器主导。然而,有许多替代传感器可用于SLAM,例如深度、光场和基于事件的相机,它们现在正在成为商品硬件,以及磁传感器、嗅觉传感器和热传感器。

我们回顾最相关的新传感器及其在SLAM中的应用,将关于未解决问题的讨论推迟到本节末尾。

1)距离相机

发光深度相机并不是新的传感器,但随着Microsoft Kinect游戏机的出现,它们在2010年成为商业硬件。它们根据不同的原理工作,例如结构光、飞行时间、干涉测量或编码孔径。结构光相机通过三角测量工作;因此,它们的准确性受到相机和图案投影仪(结构光)之间距离的限制。相比之下,飞行时间(ToF)相机的精度仅取决于TOF测量设备;因此,它们提供了最高的范围精度(几米处的亚毫米)。ToF相机在2000年左右开始商业化用于民用应用,但直到2004年才开始用于移动机器人[256]。虽然第一代ToF和结构光相机的特点是信噪比低、价格高,但它们很快就在视频游戏应用中流行起来,这有助于使它们价格实惠并提高精度。由于测距相机带有自己的光源,因此它们也可以在黑暗和无纹理的场景中工作,从而获得了显著的SLAM结果[183]。

2)光场相机

与仅记录击中每个像素的光强度的标准相机相反,光场相机(也称为全光相机)记录光线的强度和方向[186]。一种流行的光场相机使用放置在传统图像传感器前面的微透镜阵列来感应强度、颜色和方向信息。由于制造成本的原因,市售的光场相机仍然具有相对较低的分辨率(<1MP),目前的技术努力正在克服这一问题。与标准相机相比,光场相机具有多种优势,例如深度估计、降噪[58]、视频稳定[227]、干扰物隔离[59]和镜面反射消除[119]。与传统相机相比,它们的光学器件还提供大孔径和大场景深度[15]。

3)基于事件相机

与以固定帧速率发送整个图像的基于帧的相机相反,基于事件的相机,例如动态视觉传感器(DVS)[156]或异步基于时间的图像传感器(ATIS)[205] ,只发送场景中运动引起的局部像素级变化

与传统的基于帧的相机相比,它们具有五个关键优势:1ms的时间延迟、高达1MHz的更新率、高达140dB的动态范围(与标准相机的60-70 dB 相比)、功率功耗为20mW(标准相机为1.5W),并且带宽和存储要求非常低(因为只传输强度变化)。这些特性使设计一类新的SLAM算法成为可能,该算法可以在以高速运动[90]和高动态范围[132]、[207]为特性的场景中运行,而在这些场景中标准相机无法使用。然而,由于输出由一系列异步事件组成,传统的基于帧的计算机视觉算法不适用。这需要对过去50年开发的传统计算机视觉方法进行范式转变。最近提出了基于事件的实时定位和建图算法[132],[207]。此类算法的设计目标是每个传入事件都可以异步更改系统的估计状态,从而保留传感器基于事件的性质并允许设计微秒延迟控制算法[178]。

4)开放问题

有源相机的主要瓶颈是最大范围和对其他外部光源(如太阳光)的干扰;然而,这些弱点可以通过发射更多的光功率来改善。

光场相机在SLAM中很少使用,因为它们通常被认为会增加产生的数据量并且需要更多的计算能力。然而,最近的研究表明,它们特别适合SLAM应用,因为它们允许将运动估计问题公式化为线性优化,并且如果设计得当,可以提供更准确的运动估计[66]。

基于事件的相机是革命性的图像传感器,它克服了标准相机在以高动态范围和高速运动为特征的场景中的局限性。开放性问题涉及传感器噪声和传感器非理想性的完整表征:基于事件的相机具有复杂的模拟电路,具有可以改变像素灵敏度的非线性和偏差以及其他动态属性,这使得易受噪声影响的事件。由于单个事件没有携带足够的信息来进行状态估计,并且事件相机平均每秒生成100000个事件,因此由于状态大小的快速增长,在单个事件的离散时间进行SLAM可能变得难以处理空间。使用连续时间框架[13],估计的轨迹可以通过使用基函数(例如三次样条)的刚体运动空间中的平滑曲线来近似,并根据观察到的事件进行优化[177]。虽然时间分辨率非常高,但基于事件的相机的空间分辨率相对较低(QVGA),目前的技术努力正在克服这一点[155]。新开发的事件传感器克服了一些最初的限制:ATIS传感器发送像素级亮度的大小;DAVIS传感器[155]可以输出帧和事件(这可以通过将标准的基于帧的传感器和DVS嵌入到同一像素阵列中来实现)。这将允许在帧之间的盲时间内跟踪特征和运动[144]。

我们以对SLAM中使用新型传感模式的一些一般性观测来结束本节。

大多数SLAM研究都致力于距离和视觉传感器。然而,人类或动物能够通过使用触觉、嗅觉、声音、磁力和热刺激来提高其感知能力。例如,盲人或啮齿动物使用触觉提示对物体进行触觉探索,蜜蜂使用嗅觉找到回家的路,归巢鸽使用磁场进行导航,蝙蝠使用声音进行障碍物检测和导航,而一些蛇可以看到热物体发出的红外辐射。不幸的是,这些替代传感器没有被考虑在与距离和视觉传感器相同的地位来执行SLAM。触觉SLAM可用于对物体或场景进行触觉探索[237]、[263]。嗅觉传感器可用于定位气体或其他气味源[167]。尽管基于超声波的定位在早期的移动机器人中占主导地位,但随着廉价光学距离传感器的出现,它们的使用迅速下降。尽管如此,蝙蝠等动物可以仅使用回波定位以非常高的速度导航。热传感器在夜间和恶劣天气条件下提供重要提示[165]。环境磁场的局部异常存在于许多室内环境中,为定位提供了极好的线索[248]。最后,预先存在的无线网络,如WiFi,可用于改善机器人导航,而无需事先了解天线的位置[79]。

哪种传感器最适合SLAM?一个自然而然出现的问题是:驱动未来长期SLAM研究的下一个传感器技术将是什么?显然,给定算法-传感器对的SLAM性能取决于传感器和算法参数,以及环境[228]。尚未找到关于如何选择算法和传感器以实现最佳性能的完整处理。Censi等人的初步研究[46]表明,给定任务的性能还取决于可用于传感的功率。它还表明,最佳传感架构可能具有多个传感器,这些传感器可以根据所需的性能水平瞬时打开和关闭,或者通过不同的物理原理测量相同的现象以实现鲁棒性[69]。

B 深度学习

这将是一篇声称考虑SLAM未来方向的论文,不得不提(..)深度学习了。它对计算机视觉的影响是变革性的,在撰写本文时,它已经在包括SLAM在内的传统机器人技术领域取得重大进展。

研究人员已经表明,学习深度神经网络可以直接从移动机器人获取的两幅图像对[53]中回归出帧间姿态,从而有效地取代视觉里程计。同样,可以使用回归森林[247]和深度卷积神经网络[129]定位相机的6DoF,并仅从单个视图估计场景的深度(实际上是地图),作为输入图像[28]、[71]、[158]的函数。

在我们看来,这并不意味着传统的SLAM已经死了,现在说这些方法是否只是原则上可以还为时过早(…),但它们不会取代传统的、广为人知的方法,或者如果他们将完全接管。

我们在这里强调了SLAM的一组未来方向,我们相信机器学习,更具体地说是深度学习将产生影响,或者SLAM应用将给深度学习带来挑战。

1)感知工具

很明显,现成的计算机视觉算法无法解决的一些感知问题现在可以得到解决。例如,从机器人专家或SLAM研究人员的角度来看,imagenet类[213]的对象识别现在可以在一定程度上被视为一个运行良好的黑匣子。同样,各种场景类型中像素的语义标记达到了大约80%或更高的性能水平[75]。我们已经对SLAM系统向更具语义意义的地图的转变进行了广泛评论,而这些黑盒工具将加速这一进程。但事关更多:深度网络在将原始传感器数据与理解联系起来,或将原始传感器数据与行动联系起来方面,比之前的任何事情都更有希望。

2)实际部署

深度学习的成功主要围绕在超级计算机上的冗长训练时间和在专用GPU硬件上进行推断以获得一次性结果。SLAM研究人员(或者任何想要将令人印象深刻的结果嵌入到他们的系统中的人)面临的挑战是如何在嵌入式系统中提供足够的计算能力。我们是否只是等待技术赶上来,还是我们研究可以产生“足够好”结果的更小、更便宜的网络,并考虑长时间感知的影响?

3)在线终身学习

一个更重要的挑战是在线学习和适应,这对于任何未来的长期SLAM系统都是必不可少的。SLAM系统通常在具有连续观测的开放世界中运行,在那里可以遇到新的对象和场景。但迄今为止,深度网络通常在具有固定数量对象类别的封闭世界场景中进行训练。一个重大的挑战是在一次或零次场景中利用深度网络的能力(即一个甚至零次训练一个新类的例子),以实现终身学习以实现持续移动、持续观测SLAM系统。

类似地,现有网络倾向于在大量标记数据上进行训练,但不能保证存在合适的数据集或对监督训练进行标记总是是可行的。最近取得一些进展的一个领域是单视图深度估计:Garg等人[91]最近展示了如何简单地通过观察大量立体对来训练用于单视图深度估计的深度网络,而无需显式地观测或计算深度。是否可以为语义场景标记等任务开发类似的方法还有待观察。

4)自助法Bootstrapping

关于利用场景的先验信息越来越多地被证明可以显着提升SLAM系统。迄今为止,文献中的示例包括已知对象[57]、[217]或关于场景中预期结构的先验知识,如DTAM[184]中的平滑度、[80]中的曼哈顿约束,甚至对象之间的预期关系[10]。很明显,深度学习能够为特定任务提取这些先验知识,例如估计场景标签或场景深度。如何最好地提取和使用这些信息是一个重要的开放性问题。它在SLAM中比在其他一些领域更相关,因为在SLAM中,我们对场景几何的数学有了扎实的掌控力——那么问题是如何将这种众所周知的几何与深度网络的输出融合在一起。必须解决的一个特殊挑战是描述从深度网络得出的估计的不确定性。

SLAM为探索深度学习架构和大规模图形模型中的递归状态估计之间的潜在联系提供了一个具有挑战性的环境。例如,克里山等人[142]最近提出了深度卡尔曼滤波器;也许有朝一日可以使用深度架构创建一个端到端的SLAM系统,而无需显式的特征建模、数据关联等。

10 结论

在过去的30年中,同时定位和建图的一些重要问题取得了长足的进展。在这个过程中,随着新应用、新传感器和新计算的问题得到解答,同时也提出了许多问题新的和有趣的问题。

重新审视“SLAM有必要吗?”这个问题。我们相信答案取决于应用场景,但通常答案是肯定的。SLAM和相关技术,例如视觉惯性里程计,正越来越多地部署在从自动驾驶汽车到移动设备的各种现实环境中。在GPS等基于基础设施的解决方案不可用或无法提供足够准确度的情况下,将越来越依赖SLAM技术来提供可靠的度量定位。由于移动设备和代理的定位信息的价值,人们可以设想基于云的位置即服务功能上线,并且地图变得商业化。

在某些应用中,例如自动驾驶汽车,通常通过将当前传感器数据与预先创建的环境的高清地图匹配来执行精确定位[154]。如果先验地图准确,则不需要在线SLAM。然而,在高度动态环境中的运营将需要动态在线地图更新,以应对道路基础设施的建设或重大变化。由大型自动驾驶汽车车队创建的视觉地图的分布式更新和维护是未来工作的一个引人注目的领域。

人们可以识别出不同风格的SLAM公式比其他公式更适合的任务。例如,拓扑图可用于分析给定地点的可达性,但不适用于运动规划和低级控制;局部一致的度量地图非常适合避障和与环境的局部交互,但它可能会牺牲准确性;全局一致的度量地图允许机器人执行全局路径规划,但它可能需要计算和维护。

人们甚至可以设计出完全不需要SLAM并且可以被其他技术替代的示例,例如用于局部控制和稳定的视觉伺服,或“教学和重复”以执行重复的导航任务。选择最合适的SLAM系统的一种更通用的方法是将SLAM视为一种计算足够统计量的机制,该统计量总结了机器人的所有过去观察结果,从这个意义上说,在这个压缩表示中保留哪些信息是非常重要的任务相关。

至于熟悉的问题“SLAM解决了吗?”在这篇立场论文中,我们认为,随着我们进入鲁棒感知时代,如果不指定机器人/环境/性能组合,就无法回答这个问题。对于许多应用场景和环境,许多主要挑战和重要问题仍然悬而未决。为了实现长寿命自主机器人真正强大的感知和导航,需要对SLAM进行更多研究。作为一项具有重要现实意义的学术课题,SLAM并没有得到解决。

未解决的问题涉及四个主要方面:稳健的性能高级别的理解资源意识和任务驱动的推理。从鲁棒性的角度来看,故障安全自调整SLAM系统的设计是一项艰巨的挑战,许多方面在很大程度上尚未探索。对于长期自治,构建和维护大规模时变地图的技术,以及定义何时记住、更新或忘记信息的策略,仍然需要大量的基础研究;在资源严重受限的机器人系统中,类似的问题会以不同的规模出现。

另一个基本问题是关于环境的度量和语义表示的设计。尽管与环境的交互对于机器人技术的大多数应用来说至关重要,但现代SLAM系统无法提供对周围世界的几何和语义紧密耦合的高级理解;这种表示的设计必须是任务驱动的,目前缺乏将任务与最佳表示联系起来的易于处理的框架。开发这样一个框架将把机器人和计算机视觉社区聚集在一起。

除了讨论SLAM社区的许多成就和未来挑战外,我们还研究了与使用新型传感器、新工具(例如凸松弛和对偶理论或深度学习)以及主动传感的作用相关的机会。SLAM仍然是大多数机器人应用场景不可或缺的支柱,尽管在过去的几十年中取得了惊人的进步,但现有的SLAM系统远不能提供与人类轻松创建和使用的环境模型相比具有洞察力、可操作性和紧凑性的模型。

参考文献

  1. Google翻译
  2. CADENA C, CARLONE L, CARRILLO H, et al. Past, present, and future of simultaneous localization and mapping: toward the robust-perception age[J]. IEEE transactions on robotics, 2016, 32(6): 1309-1332.

REFERENCES

[1] P. A. Absil, R. Mahony, and R. Sepulchre. Optimization Algorithms on Matrix Manifolds. Princeton University Press, 2007.

[2] S. Agarwal, N. Snavely, I. Simon, S. M. Seitz, and R. Szeliski. Bundle adjustment in the large. In European Conference on Computer Vision (ECCV), pages 29–42. Springer, 2010.
[3] S. Anderson, T. D. Barfoot, C. H. Tong, and S. Sarkk ¨ a. Batch Nonlinear ¨ Continuous-time Trajectory Estimation As Exactly Sparse Gaussian Process Regression. Autonomous Robots (AR), 39(3):221–238, Oct. 2015.
[4] S. Anderson, F. Dellaert, and T. D. Barfoot. A hierarchical wavelet decomposition for continuous-time SLAM. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 373–380. IEEE, 2014.
[5] R. Aragues, J. Cortes, and C. Sagues. Distributed Consensus on Robot Networks for Dynamically Merging Feature-Based Maps. IEEE Transactions on Robotics (TRO), 28(4):840–854, 2012.
[6] J. Aulinas, Y. Petillot, J. Salvi, and X. Llado. The SLAM Problem: A ´ Survey. In Proceedings of the International Conference of the Catalan Association for Artificial Intelligence, pages 363–371. IOS Press, 2008.
[7] T. Bailey and H. F. Durrant-Whyte. Simultaneous Localisation and Mapping (SLAM): Part II. Robotics and Autonomous Systems (RAS), 13(3):108–117, 2006.
[8] R. Bajcsy. Active Perception. Proceedings of the IEEE, 76(8):966– 1005, 1988.
[9] S. Y. Bao, M. Bagra, Y. W. Chao, and S. Savarese. Semantic structure from motion with points, regions, and objects. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pages 2703–2710. IEEE, 2012.
[10] A. G. Barto and R. S. Sutton. Goal seeking components for adaptive intelligence: An initial assessment. Technical Report Technical Report 19 AFWAL-TR-81-1070, Air Force Wright Aeronautical Laboratories. Wright-Patterson Air Force Base, Jan. 1981.
[11] C. Bibby and I. Reid. Simultaneous Localisation and Mapping in Dynamic Environments (SLAMIDE) with Reversible Data Association. In Proceedings of Robotics: Science and Systems Conference (RSS), pages 105–112, Atlanta, GA, USA, June 2007.
[12] C. Bibby and I. D. Reid. A hybrid SLAM representation for dynamic marine environments. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 1050–4729. IEEE, 2010.
[13] T. O. Binford. Visual perception by computer. In IEEE Conference on Systems and Controls. IEEE, 1971.
[14] T. E. Bishop and P. Favaro. The light field camera: Extended depth of field, aliasing, and superresolution. IEEE Transactions on Pattern Analysis and Machine Intelligence, 34(5):972–986, 2012.
[15] J. L. Blanco, J. A. Fernandez-Madrigal, and J. Gonzalez. A Novel Mea- ´ sure of Uncertainty for Mobile Robot SLAM with RaoBlackwellized Particle Filters. The International Journal of Robotics Research (IJRR), 27(1):73–89, 2008.
[16] J. Bloomenthal. Introduction to Implicit Surfaces. Morgan Kaufmann, 1997.
[17] A. Bodis-Szomoru, H. Riemenschneider, and L. Van-Gool. Efficient edge-aware surface mesh reconstruction for urban scenes. Journal of Computer Vision and Image Understanding, 66:91–106, 2015.
[18] M. Bosse, P. Newman, J. J. Leonard, and S. Teller. Simultaneous Localization and Map Building in Large-Scale Cyclic Environments Using the Atlas Framework. The International Journal of Robotics Research (IJRR), 23(12):1113–1139, 2004.
[19] M. Bosse and R. Zlot. Continuous 3D Scan-Matching with a Spinning 2D Laser. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 4312–4319. IEEE, 2009.
[20] M. Bosse and R. Zlot. Keypoint design and evaluation for place recognition in 2D LIDAR maps. Robotics and Autonomous Systems (RAS), 57(12):1211–1224, 2009.
[21] M. Bosse, R. Zlot, and P. Flick. Zebedee: Design of a SpringMounted 3D Range Sensor with Application to Mobile Mapping. IEEE Transactions on Robotics (TRO), 28(5):1104–1119, 2012.
[22] F. Bourgault, A. A. Makarenko, S. B. Williams, B. Grocholsky, and H. F. Durrant-Whyte. Information Based Adaptive Robotic Exploration. In Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 540–545. IEEE, 2002.
[23] C. Brand, M. J. Schuster, H. Hirschmuller, and M. Suppa. Stereo-Vision Based Obstacle Mapping for Indoor/Outdoor SLAM. In Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 2153–0858. IEEE, 2014.
[24] W. Burgard, M. Moors, C. Stachniss, and F. E. Schneider. Coordinated Multi-Robot Exploration. IEEE Transactions on Robotics (TRO), 21(3):376–386, 2005.
[25] C. Cadena, L. Carlone, H. Carrillo, Y. Latif, J. Neira, I. D. Reid, and J. J. Leonard. Robotics: Science and Systems (RSS), Workshop “The problem of mobile sensors: Setting future goals and indicators of progress for SLAM”. http://ylatif.github.io/ movingsensors/, Google Plus Community: https://plus.google.com/ communities/102832228492942322585, June 2015.
[26] C. Cadena, A. Dick, and I. D. Reid. A Fast, Modular Scene Understanding System using Context-Aware Object Detection. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 4859–4866. IEEE, 2015.
[27] C. Cadena, A. Dick, and I. D. Reid. Multi-modal Auto-Encoders as Joint Estimators for Robotics Scene Understanding. In Proceedings of Robotics: Science and Systems Conference (RSS), pages 377–386, 2016.
[28] N. Carlevaris-Bianco and R. M. Eustice. Generic factor-based node marginalization and edge sparsification for pose-graph SLAM. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 5748–5755. IEEE, 2013.
[29] L. Carlone. Convergence Analysis of Pose Graph Optimization via Gauss-Newton methods. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 965–972. IEEE, 2013.
[30] L. Carlone, R. Aragues, J. A. Castellanos, and B. Bona. A fast and accurate approximation for planar pose graph optimization. The International Journal of Robotics Research (IJRR), 33(7):965–987, 2014.
[31] L. Carlone, G. Calafiore, C. Tommolillo, and F. Dellaert. Planar Pose Graph Optimization: Duality, Optimal Solutions, and Verification. IEEE Transactions on Robotics (TRO), 32(3):545–565, 2016.
[32] L. Carlone and A. Censi. From Angular Manifolds to the Integer Lattice: Guaranteed Orientation Estimation With Application to Pose Graph Optimization. IEEE Transactions on Robotics (TRO), 30(2):475– 492, 2014.
[33] L. Carlone, A. Censi, and F. Dellaert. Selecting good measurements via `1 relaxation: a convex approach for robust estimation over graphs. In Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 2667 –2674. IEEE, 2014.
[34] L. Carlone and F. Dellaert. Duality-based Verification Techniques for 2D SLAM. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 4589–4596. IEEE, 2015.
[35] L. Carlone, J. Du, M. Kaouk, B. Bona, and M. Indri. Active SLAM and Exploration with Particle Filters Using Kullback-Leibler Divergence. Journal of Intelligent & Robotic Systems, 75(2):291–311, 2014.
[36] L. Carlone, D. Rosen, G. Calafiore, J. J. Leonard, and F. Dellaert. Lagrangian Duality in 3D SLAM: Verification Techniques and Optimal Solutions. In Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 125–132. IEEE, 2015.
[37] L. Carlone, R. Tron, K. Daniilidis, and F. Dellaert. Initialization Techniques for 3D SLAM: a Survey on Rotation Estimation and its Use in Pose Graph Optimization. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 4597–4604. IEEE, 2015.
[38] J. C. Carr, R. K. Beatson, J. B. Cherrie, T. J. Mitchell, W. R. Fright, B. C. McCallum, and T. R. Evans. Reconstruction and Representation of 3D Objects with Radial Basis Functions. In SIGGRAPH, pages 67–76. ACM, 2001.
[39] H. Carrillo, O. Birbach, H. Taubig, B. Bauml, U. Frese, and J. A. Castellanos. On Task-oriented Criteria for Configurations Selection in Robot Calibration. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 3653–3659. IEEE, 2013.
[40] H. Carrillo, P. Dames, K. Kumar, and J. A. Castellanos. Autonomous Robotic Exploration Using Occupancy Grid Maps and Graph SLAM Based on Shannon and Renyi Entropy. In ´ Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 487–494. IEEE, 2015.
[41] H. Carrillo, Y. Latif, J. Neira, and J. A. Castellanos. Fast Minimum Uncertainty Search on a Graph Map Representation. In Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 2504–2511. IEEE, 2012.
[42] H. Carrillo, Y. Latif, M. L. Rodr´ıguez, J. Neira, and J. A. Castellanos. On the Monotonicity of Optimality Criteria during Exploration in Active SLAM. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 1476–1483. IEEE, 2015.
[43] H. Carrillo, I. Reid, and J. A. Castellanos. On the Comparison of Uncertainty Criteria for Active SLAM. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 2080–2087. IEEE, 2012.
[44] R. O. Castle, D. J. Gawley, G. Klein, and D. W. Murray. Towards simultaneous recognition, localization and mapping for hand-held and wearable cameras. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 4102–4107. IEEE, 2007.
[45] A. Censi, E. Mueller, E. Frazzoli, and S. Soatto. A Power-Performance Approach to Comparing Sensor Families, with application to comparing neuromorphic to traditional vision sensors. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 3319–3326. IEEE, 2015.
[46] A. Chiuso, G. Picci, and S. Soatto. Wide-sense Estimation on the Special Orthogonal Group. Communications in Information and Systems, 8:185–200, 2008.
[47] S. Choudhary, L. Carlone, C. Nieto, J. Rogers, H. I. Christensen, and F. Dellaert. Distributed Trajectory Estimation with Privacy and Communication Constraints: a Two-Stage Distributed Gauss-Seidel Approach. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 5261–5268. IEEE, 2015.
[48] W. Churchill and P. Newman. Experience-based navigation for longterm localisation. The International Journal of Robotics Research (IJRR), 32(14):1645–1661, 2013.
[49] T. Cieslewski, L. Simon, M. Dymczyk, S. Magnenat, and R. Siegwart. Map API - Scalable Decentralized Map Building for Robots. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 6241–6247. IEEE, 2015.
[50] J. Civera, D. Galvez-L ´ opez, L. Riazuelo, J. D. Tard ´ os, and J. M. M. ´ Montiel. Towards Semantic SLAM Using a Monocular Camera. In Proceedings of the IEEE/RSJ International Conference on Intelligent 20 Robots and Systems (IROS), pages 1277–1284. IEEE, 2011.
[51] A. Cohen, C. Zach, S. Sinha, and M. Pollefeys. Discovering and Exploiting 3D Symmetries in Structure from Motion. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2012.
[52] G. Costante, M. Mancini, P. Valigi, and T. A. Ciarfuglia. Exploring Representation Learning With CNNs for Frame-to-Frame Ego-Motion Estimation. IEEE Robotics and Automation Letters, 1(1):18–25, Jan 2016.
[53] M. Cummins and P. Newman. FAB-MAP: Probabilistic Localization and Mapping in the Space of Appearance. The International Journal of Robotics Research (IJRR), 27(6):647–665, 2008.
[54] A. Cunningham, V. Indelman, and F. Dellaert. DDF-SAM 2.0: Consistent distributed smoothing and mapping. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 5220–5227. IEEE, 2013.
[55] B. Curless and M. Levoy. A volumetric method for building complex models from range images. In SIGGRAPH, pages 303–312. ACM, 1996.
[56] A. Dame, V. A. Prisacariu, C. Y. Ren, and I. D. Reid. Dense Reconstruction using 3D Object Shape Priors. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pages 1288–1295. IEEE, 2013.
[57] D. G. Dansereau, D. L. Bongiorno, O. Pizarro, and S. B. Williams. Light Field Image Denoising Using a Linear 4D Frequency-Hyperfan all-in-focus Filter. In Proceedings of the SPIE Conference on Computational Imaging, volume 8657, pages 86570P1–86570P14, 2013.
[58] D. G. Dansereau, S. B. Williams, and P. Corke. Simple Change Detection from Mobile Light Field Cameras. Computer Vision and Image Understanding, 2016.
[59] A. Davison, I. Reid, N. Molton, and O. Stasse. MonoSLAM: RealTime Single Camera SLAM. IEEE Transactions on Pattern Analysis and Machine Intelligence (PAMI), 29(6):1052–1067, 2007.
[60] F. Dayoub, G. Cielniak, and T. Duckett. Long-term experiments with an adaptive spherical view representation for navigation in changing environments. Robotics and Autonomous Systems (RAS), 59(5):285– 295, 2011.
[61] F. Dellaert. Factor Graphs and GTSAM: A Hands-on Introduction. Technical Report GT-RIM-CP&R-2012-002, Georgia Institute of Technology, Sept. 2012.
[62] F. Dellaert, J. Carlson, V. Ila, K. Ni, and C. E. Thorpe. Subgraphpreconditioned Conjugate Gradient for Large Scale SLAM. In Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 2566–2571. IEEE, 2010.
[63] F. Dellaert and M. Kaess. Square Root SAM: Simultaneous Localization and Mapping via Square Root Information Smoothing. The International Journal of Robotics Research (IJRR), 25(12):1181–1203, 2006.
[64] G. Dissanayake, S. Huang, Z. Wang, and R. Ranasinghe. A review of recent developments in Simultaneous Localization and Mapping. In International Conference on Industrial and Information Systems, pages 477–482. IEEE, 2011.
[65] F. Dong, S.-H. Ieng, X. Savatier, R. Etienne-Cummings, and R. Benosman. Plenoptic cameras in real-time robotics. The International Journal of Robotics Research (IJRR), 32(2), 2013.
[66] J. Dong, E. Nelson, V. Indelman, N. Michael, and F. Dellaert. Distributed real-time cooperative localization and mapping using an uncertainty-aware expectation maximization approach. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 5807–5814. IEEE, 2015.
[67] R. Dube, H. Sommer, A. Gawel, M. Bosse, and R. Siegwart. Non- ´ uniform sampling strategies for continuous correction based trajectory estimation. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 4792–4798. IEEE, 2016.
[68] H. F. Durrant-Whyte. An Autonomous Guided Vehicle for Cargo Handling Applications. The International Journal of Robotics Research (IJRR), 15(5):407–440, 1996.
[69] H. F. Durrant-Whyte and T. Bailey. Simultaneous Localisation and Mapping (SLAM): Part I. IEEE Robotics and Automation Magazine, 13(2):99–110, 2006.
[70] D. Eigen and R. Fergus. Predicting depth, surface normals and semantic labels with a common multi-scale convolutional architecture. In Proceedings of the IEEE International Conference on Computer Vision (ICCV), 2015.
[71] A. Elfes. Occupancy Grids: A Probabilistic Framework for Robot Perception and Navigation. Journal on Robotics and Automation, RA3(3):249–265, 1987.
[72] J. Engel, J. Schops, and D. Cremers. LSD-SLAM: Large-scale direct ¨ monocular SLAM. In European Conference on Computer Vision (ECCV), pages 834–849. Springer, 2014.
[73] R. M. Eustice, H. Singh, J. J. Leonard, and M. R. Walter. Visually Mapping the RMS Titanic: Conservative Covariance Estimates for SLAM Information Filters. The International Journal of Robotics Research (IJRR), 25(12):1223–1242, 2006.
[74] M. Everingham, L. Van-Gool, C. K. I. Williams, J. Winn, and A. Zisserman. The PASCAL Visual Object Classes (VOC) Challenge. International Journal of Computer Vision, 88(2):303–338, 2010.
[75] N. Fairfield, G. Kantor, and D. Wettergreen. Real-Time SLAM with Octree Evidence Grids for Exploration in Underwater Tunnels. Journal of Field Robotics (JFR), 24(1-2):03–21, 2007.
[76] N. Fairfield and D. Wettergreen. Active SLAM and Loop Prediction with the Segmented Map Using Simplified Models. In Proceedings of International Conference on Field and Service Robotics (FSR), pages 173–182. Springer, 2010.
[77] H. J. S. Feder. Simultaneous Stochastic Mapping and Localization. PhD thesis, Massachusetts Institute of Technology, 1999.
[78] B. Ferris, D. Fox, and N. D. Lawrence. WiFi-SLAM using gaussian process latent variable models. In International Joint Conference on Artificial Intelligence, 2007.
[79] A. Flint, D. Murray, and I. D. Reid. Manhattan Scene Understanding Using Monocular, Stereo, and 3D Features. In Proceedings of the IEEE International Conference on Computer Vision (ICCV), pages 2228– 2235. IEEE, 2011.
[80] J. Foley, A. van Dam, S. Feiner, and J. Hughes. Computer Graphics: Principles and Practice. Addison-Wesley, 1992.
[81] J. Folkesson and H. Christensen. Graphical SLAM for outdoor applications. Journal of Field Robotics (JFR), 23(1):51–70, 2006.
[82] C. Forster, L. Carlone, F. Dellaert, and D. Scaramuzza. On-Manifold Preintegration for Real-Time Visual–Inertial Odometry. IEEE Transactions on Robotics (TRO), PP(99):1–21, 2016.
[83] C. Forster, Z. Zhang, M. Gassner, M. Werlberger, and D. Scaramuzza. SVO: Semi-Direct Visual Odometry for Monocular and Multi-Camera Systems. IEEE Transactions on Robotics (TRO), PP(99):1–17, 2016.
[84] D. Fox, J. Ko, K. Konolige, B. Limketkai, D. Schulz, and B. Stewart. Distributed Multirobot Exploration and Mapping. Proceedings of the IEEE, 94(7):1325–1339, July 2006.
[85] F. Fraundorfer and D. Scaramuzza. Visual Odometry. Part II: Matching, Robustness, Optimization, and Applications. IEEE Robotics and Automation Magazine, 19(2):78–90, 2012.
[86] J. Fredriksson and C. Olsson. Simultaneous Multiple Rotation Averaging using Lagrangian Duality. In Asian Conference on Computer Vision (ACCV), pages 245–258. Springer, 2012.
[87] U. Frese. Interview: Is SLAM Solved? KI - Kunstliche Intelligenz ¨ , 24(3):255–257, 2010.
[88] P. Furgale, T. D. Barfoot, and G. Sibley. Continuous-Time Batch Estimation using Temporal Basis Functions. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 2088–2095. IEEE, 2012.
[89] G. Gallego, J. Lund, E. Mueggler, H. Rebecq, T. Delbruck, and D. Scaramuzza. Event-based, 6-DOF Camera Tracking for High-Speed Applications. CoRR, abs/1607.03468:1–8, 2016.
[90] R. Garg, V. Kumar, G. Carneiro, and I. Reid. Unsupervised CNN for Single View Depth Estimation: Geometry to the Rescue. In European Conference on Computer Vision (ECCV), pages 740–756, 2016.
[91] R. Garg, A. Roussos, and L. Agapito. Dense Variational Reconstruction of Non-Rigid Surfaces from Monocular Video. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pages 1272–1279, 2013.
[92] J. J. Gibson. The ecological approach to visual perception: classic edition. Psychology Press, 2014.
[93] D. Golovin and A. Krause. Adaptive Submodularity: Theory and Applications in Active Learning and Stochastic Optimization. Journal of Artificial Intelligence Research, 42(1):427–486, 2011.
[94] Google. Project tango. https://www.google.com/atap/projecttango/, 2016.
[95] V. M. Govindu. Combining Two-view Constraints For Motion Estimation. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pages 218–225. IEEE, 2001.
[96] O. Grasa, E. Bernal, S. Casado, I. Gil, and J. M. M. Montiel. Visual SLAM for Handheld Monocular Endoscope. IEEE Transactions on Medical Imaging, 33(1):135–146, 2014.
[97] G. Grisetti, R. Kummerle, C. Stachniss, and W. Burgard. A Tutorial ¨ on Graph-based SLAM. IEEE Intelligent Transportation Systems Magazine, 2(4):31–43, 2010. 21
[98] G. Grisetti, R. Kummerle, C. Stachniss, U. Frese, and C. Hertzberg. ¨ Hierarchical Optimization on Manifolds for Online 2D and 3D Mapping. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 273–278. IEEE, 2010.
[99] G. Grisetti, C. Stachniss, and W. Burgard. Nonlinear Constraint Network Optimization for Efficient Map Learning. IEEE Transactions on Intelligent Transportation Systems, 10(3):428 –439, 2009.
[100] G. Grisetti, C. Stachniss, S. Grzonka, and W. Burgard. A Tree Parameterization for Efficiently Computing Maximum Likelihood Maps using Gradient Descent. In Proceedings of Robotics: Science and Systems Conference (RSS), pages 65–72, 2007.
[101] J. S. Gutmann and K. Konolige. Incremental Mapping of Large Cyclic Environments. In IEEE International Symposium on Computational Intelligence in Robotics and Automation (CIRA), pages 318–325. IEEE, 1999.
[102] C. Hane, C. Zach, A. Cohen, R. Angst, and M. Pollefeys. Joint ¨ 3D Scene Reconstruction and Class Segmentation. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pages 97–104. IEEE, 2013.
[103] R. Hartley, J. Trumpf, Y. Dai, and H. Li. Rotation Averaging. International Journal of Computer Vision, 103(3):267–305, 2013.
[104] P. Henry, M. Krainin, E. Herbst, X. Ren, and D. Fox. RGB-D mapping: Using depth cameras for dense 3d modeling of indoor environments. In Proceedings of the International Symposium on Experimental Robotics (ISER), 2010.
[105] J. A. Hesch, D. G. Kottas, S. L. Bowman, and S. I. Roumeliotis. Camera-IMU-based localization: Observability analysis and consistency improvement. The International Journal of Robotics Research (IJRR), 33(1):182–201, 2014.
[106] K. L. Ho and P. Newman. Loop closure detection in SLAM by combining visual and spatial appearance. Robotics and Autonomous Systems (RAS), 54(9):740–749, 2006.
[107] G. Huang, M. Kaess, and J. J. Leonard. Consistent sparsification for graph optimization. In Proceedings of the European Conference on Mobile Robots (ECMR), pages 150–157. IEEE, 2013.
[108] G. P. Huang, A. I. Mourikis, and S. I. Roumeliotis. An observabilityconstrained sliding window filter for SLAM. In Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 65–72. IEEE, 2011.
[109] S. Huang and G. Dissanayake. A Critique of Current Developments in Simultaneous Localization and Mapping. International Journal of Advanced Robotic Systems, 13(5):1–13, 2016.
[110] S. Huang, Y. Lai, U. Frese, and G. Dissanayake. How far is SLAM from a linear least squares problem? In Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 3011–3016. IEEE, 2010.
[111] S. Huang, H. Wang, U. Frese, and G. Dissanayake. On the Number of Local Minima to the Point Feature Based SLAM Problem. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 2074–2079. IEEE, 2012.
[112] P. J. Huber. Robust Statistics. Wiley, 1981.
[113] IEEE RAS Map Data Representation Working Group. IEEE Standard for Robot Map Data Representation for Navigation, Sponsor: IEEE Robotics and Automation Society. http://standards.ieee.org/findstds/standard/1873-2015.html/, June 2016. IEEE.
[114] IEEE Spectrum. Dyson’s robot vacuum has 360-degree camera, tank treads, cyclone suction. http://spectrum.ieee.org/automaton/robotics/ home-robots/dyson-the-360-eye-robot-vacuum, 2014.
[115] V. Ila, J. M. Porta, and J. Andrade-Cetto. Information-Based Compact Pose SLAM. IEEE Transactions on Robotics (TRO), 26(1):78–93, 2010.
[116] V. Indelman, L. Carlone, and F. Dellaert. Planning in the Continuous Domain: a Generalized Belief Space Approach for Autonomous Navigation in Unknown Environments. The International Journal of Robotics Research (IJRR), 34(7):849–882, 2015.
[117] V. Indelman, E. Nelson, J. Dong, N. Michael, and F. Dellaert. Incremental Distributed Inference from Arbitrary Poses and Unknown Data Association: Using Collaborating Robots to Establish a Common Reference. IEEE Control Systems Magazine (CSM), 36(2):41–74, 2016.
[118] M. Irani and P. Anandan. All About Direct Methods. In Proceedings of the International Workshop on Vision Algorithms: Theory and Practice, pages 267–277. Springer, 1999.
[119] J. Jachnik, R. A. Newcombe, and A. J. Davison. Real-time surface light-field capture for augmentation of planar specular surfaces. In IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR), pages 91–97. IEEE, 2012.
[120] H. Johannsson, M. Kaess, M. Fallon, and J. J. Leonard. Temporally scalable visual SLAM using a reduced pose graph. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 54–61. IEEE, 2013.
[121] J. Johnson, R. Krishna, M. Stark, J. Li, M. Bernstein, and L. FeiFei. Image Retrieval using Scene Graphs. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pages 3668–3678. IEEE, 2015.
[122] V. A. M. Jorge, R. Maffei, G. S. Franco, J. Daltrozo, M. Giambastiani, M. Kolberg, and E. Prestes. Ouroboros: Using potential field in unexplored regions to close loops. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 2125–2131. IEEE, 2015.
[123] L. P. Kaelbling, M. L. Littman, and A. R. Cassandra. Planning and acting in partially observable stochastic domains. Artificial Intelligence, 101(12):99–134, 1998.
[124] M. Kaess. Simultaneous Localization and Mapping with Infinite Planes. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 4605–4611. IEEE, 2015.
[125] M. Kaess, H. Johannsson, R. Roberts, V. Ila, J. J. Leonard, and F. Dellaert. iSAM2: Incremental Smoothing and Mapping Using the Bayes Tree. The International Journal of Robotics Research (IJRR), 31:217–236, 2012.
[126] M. Kaess, A. Ranganathan, and F. Dellaert. iSAM: Incremental Smoothing and Mapping. IEEE Transactions on Robotics (TRO), 24(6):1365–1378, 2008.
[127] M. Keidar and G. A. Kaminka. Efficient frontier detection for robot exploration. The International Journal of Robotics Research (IJRR), 33(2):215–236, 2014.
[128] A. Kelly. Mobile Robotics: Mathematics, Models, and Methods. Cambridge University Press, 2013.
[129] A. Kendall, M. Grimes, and R. Cipolla. PoseNet: A Convolutional Network for Real-Time 6-DOF Camera Relocalization. In Proceedings of the IEEE International Conference on Computer Vision (ICCV), pages 2938–2946. IEEE, 2015.
[130] K. Khosoussi, S. Huang, and G. Dissanayake. Exploiting the Separable Structure of SLAM. In Proceedings of Robotics: Science and Systems Conference (RSS), pages 208–218, 2015.
[131] A. Kim and R. M. Eustice. Real-time visual SLAM for autonomous underwater hull inspection using visual saliency. IEEE Transactions on Robotics (TRO), 29(3):719–733, 2013.
[132] H. Kim, S. Leutenegger, and A. J. Davison. Real-Time 3D Reconstruction and 6-DoF Tracking with an Event Camera. In European Conference on Computer Vision (ECCV), pages 349–364, 2016.
[133] J. H. Kim, C. Cadena, and I. D. Reid. Direct semi-dense SLAM for rolling shutter cameras. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 1308–1315. IEEE, May 2016.
[134] V. G. Kim, S. Chaudhuri, L. Guibas, and T. Funkhouser. Shape2Pose: Human-centric Shape Analysis. ACM Transactions on Graphics (TOG), 33(4):120:1–120:12, 2014.
[135] G. Klein and D. Murray. Parallel tracking and mapping for small AR workspaces. In IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR), pages 225–234. IEEE, 2007.
[136] M. Klingensmith, I. Dryanovski, S. Srinivasa, and J. Xiao. Chisel: Real Time Large Scale 3D Reconstruction Onboard a Mobile Device using Spatially Hashed Signed Distance Fields. In Proceedings of Robotics: Science and Systems Conference (RSS), pages 367–376, 2015.
[137] J. Knuth and P. Barooah. Collaborative localization with heterogeneous inter-robot measurements by Riemannian optimization. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 1534–1539. IEEE, 2013.
[138] J. Knuth and P. Barooah. Error Growth in Position Estimation from Noisy Relative Pose Measurements. Robotics and Autonomous Systems (RAS), 61(3):229–224, 2013.
[139] D. G. Kottas, J. A. Hesch, S. L. Bowman, and S. I. Roumeliotis. On the consistency of vision-aided Inertial Navigation. In Proceedings of the International Symposium on Experimental Robotics (ISER), pages 303–317. Springer, 2012.
[140] T. Krajn´ık, J. P. Fentanes, O. M. Mozos, T. Duckett, J. Ekekrantz, and M. Hanheide. Long-term topological localisation for service robots in dynamic environments using spectral maps. In Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 4537–4542. IEEE, 2014.
[141] H. Kretzschmar, C. Stachniss, and G. Grisetti. Efficient informationtheoretic graph pruning for graph-based SLAM with laser range finders. In Proceedings of the IEEE/RSJ International Conference on Intelligent 22 Robots and Systems (IROS), pages 865–871. IEEE, 2011.
[142] R. G. Krishnan, U. Shalit, and D. Sontag. Deep Kalman Filters. In NIPS 2016 Workshop: Advances in Approximate Bayesian Inference, pages 1–7. NIPS, 2016.
[143] F. R. Kschischang, B. J. Frey, and H. A. Loeliger. Factor Graphs and the Sum-Product Algorithm. IEEE Transactions on Information Theory, 47(2):498–519, 2001.
[144] B. Kueng, E. Mueggler, G. Gallego, and D. Scaramuzza. Low-Latency Visual Odometry using Event-based Feature Tracks. In Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2016.
[145] Kuka Robotics. Kuka Navigation Solution. http://www.kuka-robotics. com/res/robotics/Products/PDF/EN/KUKA Navigation Solution EN. pdf, 2016.
[146] R. Kummerle, G. Grisetti, H. Strasdat, K. Konolige, and W. Burgard. ¨ g2o: A General Framework for Graph Optimization. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 3607–3613. IEEE, 2011.
[147] A. Kundu, Y. Li, F. Dellaert, F. Li, and J. M. Rehg. Joint Semantic Segmentation and 3D Reconstruction from Monocular Video. In European Conference on Computer Vision (ECCV), pages 703–718. Springer, 2014.
[148] K. Lai, L. Bo, and D. Fox. Unsupervised Feature Learning for 3D Scene Labeling. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 3050–3057, 2014.
[149] K. Lai and D. Fox. Object Recognition in 3D Point Clouds Using Web Data and Domain Adaptation. The International Journal of Robotics Research (IJRR), 29(8):1019–1037, 2010.
[150] Y. Latif, C. Cadena, , and J. Neira. Robust loop closing over time for pose graph slam. The International Journal of Robotics Research (IJRR), 32(14):1611–1626, 2013.
[151] M. T. Lazaro, L. Paz, P. Pinies, J. A. Castellanos, and G. Grisetti. Multi-robot SLAM using condensed measurements. In Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 1069–1076. IEEE, 2013.
[152] C. Leung, S. Huang, and G. Dissanayake. Active SLAM using Model Predictive Control and Attractor Based Exploration. In Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 5026–5031. IEEE, 2006.
[153] C. Leung, S. Huang, N. Kwok, and G. Dissanayake. Planning Under Uncertainty using Model Predictive Control for Information Gathering. Robotics and Autonomous Systems (RAS), 54(11):898–910, 2006.
[154] J. Levinson. Automatic Laser Calibration, Mapping, and Localization for Autonomous Vehicles. PhD thesis, Stanford University, 2011.
[155] C. Li, C. Brandli, R. Berner, H. Liu, M. Yang, S. C. Liu, and T. Delbruck. Design of an RGBW Color VGA Rolling and Global Shutter Dynamic and Active-Pixel Vision Sensor. In IEEE International Symposium on Circuits and Systems. IEEE, 2015.
[156] P. Lichtsteiner, C. Posch, and T. Delbruck. A 128×128 120 dB 15 µs latency asynchronous temporal contrast vision sensor. IEEE Journal of Solid-State Circuits, 43(2):566–576, 2008.
[157] J. J. Lim, H. Pirsiavash, and A. Torralba. Parsing IKEA objects: Fine pose estimation. In Proceedings of the IEEE International Conference on Computer Vision (ICCV), pages 2992–2999. IEEE, 2013.
[158] F. Liu, C. Shen, and G. Lin. Deep convolutional neural fields for depth estimation from a single image. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015.
[159] M. Liu, S. Huang, G. Dissanayake, and H. Wang. A convex optimization based approach for pose SLAM problems. In Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 1898–1903. IEEE, 2012.
[160] S. Lowry, N. Sunderhauf, P. Newman, J. J. Leonard, D. Cox, P. Corke, ¨ and M. J. Milford. Visual Place Recognition: A Survey. IEEE Transactions on Robotics (TRO), 32(1):1–19, 2016.
[161] F. Lu and E. Milios. Globally consistent range scan alignment for environment mapping. Autonomous Robots (AR), 4(4):333–349, 1997.
[162] Y. Lu and D. Song. Visual Navigation Using Heterogeneous Landmarks and Unsupervised Geometric Constraints. IEEE Transactions on Robotics (TRO), 31(3):736–749, 2015.
[163] S. Lynen, T. Sattler, M. Bosse, J. Hesch, M. Pollefeys, and R. Siegwart. Get out of my lab: Large-scale, real-time visual-inertial localization. In Proceedings of Robotics: Science and Systems Conference (RSS), pages 338–347, 2015.
[164] D. J. C. MacKay. Information Theory, Inference & Learning Algorithms. Cambridge University Press, 2002.
[165] M. Magnabosco and T. P. Breckon. Cross-spectral visual simultaneous localization and mapping (slam) with sensor handover. Robotics and Autonomous Systems (RAS), 61(2):195–208, 2013.
[166] M. Maimone, Y. Cheng, and L. Matthies. Two years of Visual Odometry on the Mars Exploration Rovers. Journal of Field Robotics, 24(3):169–186, 2007.
[167] L. Marques, U. Nunes, and A. T. de Almeida. Olfaction-based mobile robot navigation. Thin solid films, 418(1):51–58, 2002.
[168] D. Martinec and T. Pajdla. Robust Rotation and Translation Estimation in Multiview Reconstruction. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pages 1–8. IEEE, 2007.
[169] R. Martinez-Cantin, N. de Freitas, E. Brochu, J. Castellanos, and A. Doucet. A Bayesian Exploration-exploitation Approach for Optimal Online Sensing and Planning with a Visually Guided Mobile Robot. Autonomous Robots (AR), 27(2):93–103, 2009.
[170] M. Mazuran, W. Burgard, and G. D. Tipaldi. Nonlinear factor recovery for long-term SLAM. The International Journal of Robotics Research (IJRR), 35(1-3):50–72, 2016.
[171] J. Mendel. Lessons in Estimation Theory for Signal Processing, Communications, and Control. Prentice Hall, 1995.
[172] P. Merrell and D. Manocha. Model Synthesis: A General Procedural Modeling Algorithm. IEEE Transactions on Visualization and Computer Graphics, 17(6):715–728, 2010.
[173] M. J. Milford and G. F. Wyeth. SeqSLAM: Visual route-based navigation for sunny summer days and stormy winter nights. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 1643–1649. IEEE, 2012.
[174] J. M. M. Montiel, J. Civera, and A. J. Davison. Unified Inverse Depth Parametrization for Monocular SLAM. In Proceedings of Robotics: Science and Systems Conference (RSS), pages 81–88, Aug. 2006.
[175] A. I. Mourikis and S. I. Roumeliotis. A Multi-State Constraint Kalman Filter for Vision-aided Inertial Navigation. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 3565–3572. IEEE, 2007.
[176] O. M. Mozos, R. Triebel, P. Jensfelt, A. Rottmann, and W. Burgard. Supervised semantic labeling of places using information extracted from sensor data. Robotics and Autonomous Systems (RAS), 55(5):391– 402, 2007.
[177] E. Mueggler, G. Gallego, and D. Scaramuzza. Continuous-Time Trajectory Estimation for Event-based Vision Sensors. In Proceedings of Robotics: Science and Systems Conference (RSS), 2015.
[178] E. Mueller, A. Censi, and E. Frazzoli. Low-latency heading feedback control with neuromorphic vision sensors using efficient approximated incremental inference. In Proceedings of the IEEE Conference on Decision and Control (CDC), pages 992–999. IEEE, 2015.
[179] R. Mur-Artal, J. M. M. Montiel, and J. D. Tardos. ORB-SLAM: a ´ Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics (TRO), 31(5):1147–1163, 2015.
[180] J. Neira and J. D. Tardos. Data Association in Stochastic Mapping ´ Using the Joint Compatibility Test. IEEE Transactions on Robotics and Automation (TRA), 17(6):890–897, 2001.
[181] E. D. Nerurkar, S. I. Roumeliotis, and A. Martinelli. Distributed maximum a posteriori estimation for multi-robot cooperative localization. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 1402–1409. IEEE, 2009.
[182] R. Newcombe, D. Fox, and S. M. Seitz. DynamicFusion: Reconstruction and tracking of non-rigid scenes in real-time. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pages 343–352. IEEE, 2015.
[183] R. A. Newcombe, A. J. Davison, S. Izadi, P. Kohli, O. Hilliges, J. Shotton, D. Molyneaux, S. Hodges, D. Kim, and A. Fitzgibbon. KinectFusion: Real-Time Dense Surface Mapping and Tracking. In IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR), pages 127–136, Basel, Switzerland, Oct. 2011.
[184] R. A. Newcombe, S. J. Lovegrove, and A. J. Davison. DTAM: Dense Tracking and Mapping in Real-Time. In Proceedings of the IEEE International Conference on Computer Vision (ICCV), pages 2320– 2327. IEEE, 2011.
[185] P. Newman, J. J. Leonard, J. D. Tardos, and J. Neira. Explore and Return: Experimental Validation of Real-Time Concurrent Mapping and Localization. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 1802–1809. IEEE, 2002.
[186] R. Ng, M. Levoy, M. Bredif, G. Duval, M. Horowitz, and P. Hanrahan. Light Field Photography with a Hand-Held Plenoptic Camera. In Stanford University Computer Science Tech Report CSTR 2005-02, 2005.
[187] K. Ni and F. Dellaert. Multi-Level Submap Based SLAM Using Nested Dissection. In Proceedings of the IEEE/RSJ International Conference 23 on Intelligent Robots and Systems (IROS), pages 2558–2565. IEEE, 2010.
[188] M. Nießner, M. Zollhofer, S. Izadi, and M. Stamminger. Real-time 3D ¨ Reconstruction at Scale Using Voxel Hashing. ACM Transactions on Graphics (TOG), 32(6):169:1–169:11, Nov. 2013.
[189] D. Nister and H. Stew ´ enius. Scalable Recognition with a Vocabulary ´ Tree. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), volume 2, pages 2161–2168. IEEE, 2006.
[190] A. Nuchter. ¨ 3D Robotic Mapping: the Simultaneous Localization and Mapping Problem with Six Degrees of Freedom, volume 52. Springer, 2009.
[191] E. Olson and P. Agarwal. Inference on networks of mixtures for robust robot mapping. The International Journal of Robotics Research (IJRR), 32(7):826–840, 2013.
[192] E. Olson, J. J. Leonard, and S. Teller. Fast Iterative Alignment of Pose Graphs with Poor Initial Estimates. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 2262–2269. IEEE, 2006.
[193] Open Geospatial Consortium (OGC). CityGML 2.0.0. http://www.citygml.org/, Jun 2016.
[194] Open Geospatial Consortium (OGC). OGC IndoorGML standard. http://www.opengeospatial.org/standards/indoorgml, Jun 2016.
[195] S. Patil, G. Kahn, M. Laskey, J. Schulman, K. Goldberg, and P. Abbeel. Scaling up Gaussian Belief Space Planning Through Covariance-Free Trajectory Optimization and Automatic Differentiation. In Proceedings of the International Workshop on the Algorithmic Foundations of Robotics (WAFR), pages 515–533. Springer, 2015.
[196] A. Patron-Perez, S. Lovegrove, and G. Sibley. A Spline-Based Trajectory Representation for Sensor Fusion and Rolling Shutter Cameras. International Journal of Computer Vision, 113(3):208–219, 2015.
[197] L. Paull, G. Huang, M. Seto, and J. J. Leonard. CommunicationConstrained Multi-AUV Cooperative SLAM. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 509–516. IEEE, 2015.
[198] A. Pazman. ´ Foundations of Optimum Experimental Design. Springer, 1986.
[199] J. R. Peters, D. Borra, B. Paden, and F. Bullo. Sensor Network Localization on the Group of Three-Dimensional Displacements. SIAM Journal on Control and Optimization, 53(6):3534–3561, 2015.
[200] C. J. Phillips, M. Lecce, C. Davis, and K. Daniilidis. Grasping surfaces of revolution: Simultaneous pose and shape recovery from two views. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 1352–1359. IEEE, 2015.
[201] S. Pillai and J. J. Leonard. Monocular SLAM Supported Object Recognition. In Proceedings of Robotics: Science and Systems Conference (RSS), pages 310–319, 2015.
[202] G. Piovan, I. Shames, B. Fidan, F. Bullo, and B. Anderson. On frame and orientation localization for relative sensing networks. Automatica, 49(1):206–213, 2013.
[203] M. Pizzoli, C. Forster, and D. Scaramuzza. REMODE: Probabilistic, Monocular Dense Reconstruction in Real Time. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 2609–2616. IEEE, 2014.
[204] L. Polok, V. Ila, M. Solony, P. Smrz, and P. Zemcik. Incremental Block Cholesky Factorization for Nonlinear Least Squares in Robotics. In Proceedings of Robotics: Science and Systems Conference (RSS), pages 328–336, 2013.
[205] C. Posch, D. Matolin, and R. Wohlgenannt. An asynchronous timebased image sensor. In IEEE International Symposium on Circuits and Systems (ISCAS), pages 2130–2133. IEEE, 2008.
[206] A. Pronobis and P. Jensfelt. Large-scale semantic mapping and reasoning with heterogeneous modalities. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 3515–3522. IEEE, 2012.
[207] H. Rebecq, T. Horstschaefer, G. Gallego, and D. Scaramuzza. EVO: A Geometric Approach to Event-based 6-DOF Parallel Tracking and Mapping in Real-Time. IEEE Robotics and Automation Letters, 2016.
[208] A. Renyi. On Measures Of Entropy And Information. In ´ Proceedings of the 4th Berkeley Symposium on Mathematics, Statistics and Probability, pages 547–561, 1960.
[209] A. G. Requicha. Representations for Rigid Solids: Theory, Methods, and Systems. ACM Computing Surveys (CSUR), 12(4):437–464, 1980.
[210] L. Riazuelo, J. Civera, and J. M. M. Montiel. C2TAM: A cloud framework for cooperative tracking and mapping. Robotics and Autonomous Systems (RAS), 62(4):401–413, 2014.
[211] D. M. Rosen, C. DuHadway, and J. J. Leonard. A convex relaxation for approximate global optimization in Simultaneous Localization and Mapping. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 5822–5829. IEEE, 2015.
[212] D. M. Rosen, M. Kaess, and J. J. Leonard. Robust Incremental Online Inference Over Sparse Factor Graphs: Beyond the Gaussian Case. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 1025–1032. IEEE, 2013.
[213] O. Russakovsky, J. Deng, H. Su, J. Krause, S. Satheesh, S. Ma, Z. Huang, A. Karpathy, A. Khosla, M. Bernstein, A. C. Berg, and L. Fei-Fei. ImageNet Large Scale Visual Recognition Challenge. International Journal of Computer Vision, 115(3):211–252, 2015.
[214] S. Agarwal et al. Ceres Solver. http://ceres-solver.org, June 2016. Google.
[215] D. Sabatta, D. Scaramuzza, and R. Siegwart. Improved Appearancebased Matching in Similar and Dynamic Environments Using a Vocabulary Tree. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 1008–1013. IEEE, 2010.
[216] S. Saeedi, M. Trentini, M. Seto, and H. Li. Multiple-Robot Simultaneous Localization and Mapping: A Review. Journal of Field Robotics (JFR), 33(1):3–46, 2016.
[217] R. Salas-Moreno, R. Newcombe, H. Strasdat, P. Kelly, and A. Davison. SLAM++: Simultaneous Localisation and Mapping at the Level of Objects. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pages 1352–1359. IEEE, 2013.
[218] D. Scaramuzza and F. Fraundorfer. Visual Odometry
[Tutorial]. Part I: The First 30 Years and Fundamentals. IEEE Robotics and Automation Magazine, 18(4):80–92, 2011.
[219] S. Sengupta and P. Sturgess. Semantic octree: Unifying recognition, reconstruction and representation via an octree constrained higher order MRF. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 1874–1879. IEEE, 2015.
[220] J. Shah and M. Mantyl ¨ a.¨ Parametric and Feature-Based CAD/CAM: Concepts, Techniques, and Applications. Wiley, 1995.
[221] V. Shapiro. Solid Modeling. In G. E. Farin, J. Hoschek, and M. S. Kim, editors, Handbook of Computer Aided Geometric Design, chapter 20, pages 473–518. Elsevier, 2002.
[222] C. Shen, J. F. O’Brien, and J. R. Shewchuk. Interpolating and Approximating Implicit Surfaces from Polygon Soup. In SIGGRAPH, pages 896–904. ACM, 2004.
[223] G. Sibley, C. Mei, I. D. Reid, and P. Newman. Adaptive relative bundle adjustment. In Proceedings of Robotics: Science and Systems Conference (RSS), pages 177–184, 2009.
[224] A. Singer. Angular synchronization by eigenvectors and semidefinite programming. Applied and Computational Harmonic Analysis, 30(1):20–36, 2010.
[225] A. Singer and Y. Shkolnisky. Three-Dimensional Structure Determination from Common Lines in Cryo-EM by Eigenvectors and Semidefinite Programming. SIAM Journal of Imaging Sciences, 4(2):543–572, 2011.
[226] J. Sivic and A. Zisserman. Video Google: A Text Retrieval Approach to Object Matching in Videos. In Proceedings of the IEEE International Conference on Computer Vision (ICCV), pages 1470–1477. IEEE, 2003.
[227] B. M. Smith, L. Zhang, H. Jin, and A. Agarwala. Light field video stabilization. In Proceedings of the IEEE International Conference on Computer Vision (ICCV), pages 341–348. IEEE, 2009.
[228] S. Soatto. Steps Towards a Theory of Visual Information: Active Perception, Signal-to-Symbol Conversion and the Interplay Between Sensing and Control. CoRR, abs/1110.2053:1–214, 2011.
[229] S. Soatto and A. Chiuso. Visual Representations: Defining Properties and Deep Approximations. CoRR, abs/1411.7676:1–20, 2016.
[230] L. Song, B. Boots, S. M. Siddiqi, G. J. Gordon, and A. J. Smola. Hilbert Space Embeddings of Hidden Markov Models. In International Conference on Machine Learning (ICML), pages 991–998, 2010.
[231] N. Srinivasan, L. Carlone, and F. Dellaert. Structural Symmetries from Motion for Scene Reconstruction and Understanding. In Proceedings of the British Machine Vision Conference (BMVC), pages 1–13. BMVA Press, 2015.
[232] C. Stachniss. Robotic Mapping and Exploration. Springer, 2009.
[233] C. Stachniss, G. Grisetti, and W. Burgard. Information Gain-based Exploration Using Rao-Blackwellized Particle Filters. In Proceedings of Robotics: Science and Systems Conference (RSS), pages 65–72, 2005.
[234] C. Stachniss, S. Thrun, and J. J. Leonard. Simultaneous Localization and Mapping. In B. Siciliano and O. Khatib, editors, Springer Handbook of Robotics, chapter 46, pages 1153–1176. Springer, 2nd edition, 2016.
[235] H. Strasdat, A. J. Davison, J. M. M. Montiel, and K. Konolige. Double 24 Window Optimisation for Constant Time Visual SLAM. In Proceedings of the IEEE International Conference on Computer Vision (ICCV), pages 2352 – 2359. IEEE, 2011.
[236] H. Strasdat, J. M. M. Montiel, and A. J. Davison. Visual SLAM: Why filter? Computer Vision and Image Understanding (CVIU), 30(2):65– 77, 2012.
[237] C. Strub, F. Worg ¨ otter, H. Ritterz, and Y. Sandamirskaya. Correcting ¨ Pose Estimates during Tactile Exploration of Object Shape: a Neurorobotic Study. In International Conference on Development and Learning and on Epigenetic Robotics, pages 26–33, Oct 2014.
[238] N. Sunderhauf and P. Protzel. Towards a robust back-end for pose ¨ graph SLAM. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 1254–1261. IEEE, 2012.
[239] S. Thrun. Exploration in Active Learning. In M. A. Arbib, editor, Handbook of Brain Science and Neural Networks, pages 381–384. MIT Press, 1995.
[240] S. Thrun, W. Burgard, and D. Fox. Probabilistic Robotics. MIT Press, 2005.
[241] S. Thrun and M. Montemerlo. The GraphSLAM Algorithm With Applications to Large-Scale Mapping of Urban Structures. The International Journal of Robotics Research (IJRR), 25(5-6):403–430, 2005.
[242] G. D. Tipaldi and K. O. Arras. Flirt-interest regions for 2D range data. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 3616–3622. IEEE, 2010.
[243] C. H. Tong, P. Furgale, and T. D. Barfoot. Gaussian process GaussNewton for non-parametric simultaneous localization and mapping. The International Journal of Robotics Research (IJRR), 32(5):507–525, 2013.
[244] B. Triggs, P. McLauchlan, R. Hartley, and A. Fitzgibbon. Bundle Adjustment - A Modern Synthesis. In W. Triggs, A. Zisserman, and R. Szeliski, editors, Vision Algorithms: Theory and Practice, pages 298–375. Springer, 2000.
[245] R. Tron, B. Afsari, and R. Vidal. Intrinsic Consensus on SO(3) with Almost Global Convergence. In Proceedings of the IEEE Conference on Decision and Control (CDC), pages 2052–2058. IEEE, 2012.
[246] R. Valencia, J. Vallve, G. Dissanayake, and J. Andrade-Cetto. Active ´ Pose SLAM. In Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 1885–1891. IEEE, 2012.
[247] J. Valentin, M. Niener, J. Shotton, A. Fitzgibbon, S. Izadi, and P. Torr. Exploiting Uncertainty in Regression Forests for Accurate Camera Relocalization. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pages 4400–4408. IEEE, 2015.
[248] I. Vallivaara, J. Haverinen, A. Kemppainen, and J. Roning. Simul- ¨ taneous localization and mapping using ambient magnetic field. In Multisensor Fusion and Integration for Intelligent Systems (MFI), IEEE Conference on, pages 14–19. IEEE, 2010.
[249] J. Vallve and J. Andrade-Cetto. Potential information fields for mobile ´ robot exploration. Robotics and Autonomous Systems (RAS), 69:68–79, 2015.
[250] J. van den Berg, S. Patil, and R. Alterovitz. Motion Planning Under Uncertainty Using Iterative Local Optimization in Belief Space. The International Journal of Robotics Research (IJRR), 31(11):1263–1278, 2012.
[251] V. Vineet, O. Miksik, M. Lidegaard, M. Niessner, S. Golodetz, V. A. Prisacariu, O. Kahler, D. W. Murray, S. Izadi, P. Peerez, and P. H. S. Torr. Incremental dense semantic stereo fusion for large-scale semantic scene reconstruction. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 75–82. IEEE, 2015.
[252] N. Wahlstrom, T. B. Sch ¨ on, and M. P. Deisenroth. Learning deep ¨ dynamical models from image pixels. In IFAC Symposium on System Identification (SYSID), pages 1059–1064, 2015.
[253] C. C. Wang, C. Thorpe, S. Thrun, M. Hebert, and H. F. Durrant-Whyte. Simultaneous localization, mapping and moving object tracking. The International Journal of Robotics Research (IJRR), 26(9):889–916, 2007.
[254] L. Wang and A. Singer. Exact and Stable Recovery of Rotations for Robust Synchronization. Information and Inference: A Journal of the IMA, 2(2):145–193, 2013.
[255] Z. Wang, S. Huang, and G. Dissanayake. Simultaneous Localization and Mapping: Exactly Sparse Information Filters. World Scientific, 2011.
[256] J. W. Weingarten, G. Gruener, and R. Siegwart. A State-of-the-Art 3D Sensor for Robot Navigation. In Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 2155–2160. IEEE, 2004.
[257] T. Whelan, S. Leutenegger, R. F. Salas-Moreno, B. Glocker, and A. J. Davison. ElasticFusion: Dense SLAM Without A Pose Graph. In Proceedings of Robotics: Science and Systems Conference (RSS), 2015.
[258] T. Whelan, J. B. McDonald, M. Kaess, M. F. Fallon, H. Johannsson, and J. J. Leonard. Kintinuous: Spatially Extended Kinect Fusion. In RSS Workshop on RGB-D: Advanced Reasoning with Depth Cameras, 2012.
[259] S. Williams, V. Indelman, M. Kaess, R. Roberts, J. J. Leonard, and F. Dellaert. Concurrent filtering and smoothing: A parallel architecture for real-time navigation and full smoothing. The International Journal of Robotics Research (IJRR), 33(12):1544–1568, 2014.
[260] R. W. Wolcott and R. M. Eustice. Visual localization within LIDAR maps for automated urban driving. In Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 176–183. IEEE, 2014.
[261] R. Wood. RoboBees Project. http://robobees.seas.harvard.edu/, June 2015.
[262] B. Yamauchi. A Frontier-based Approach for Autonomous Exploration. In Proceedings of IEEE International Symposium on Computational Intelligence in Robotics and Automation (CIRA), pages 146–151. IEEE, 1997.
[263] K. T. Yu, J. Leonard, and A. Rodriguez. Shape and Pose Recovery from Planar Pushing. In Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 1208– 1215, Sept 2015.
[264] C. Zach, T. Pock, and H. Bischof. A Globally Optimal Algorithm for Robust TV-L1 Range Image Integration. In Proceedings of the IEEE International Conference on Computer Vision (ICCV), pages 1– 8. IEEE, 2007.
[265] J. Zhang, M. Kaess, and S. Singh. On Degeneracy of Optimizationbased State Estimation Problems. In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pages 809–816, 2016.
[266] S. Zhang, Y. Zhan, M. Dewan, J. Huang, D. Metaxas, and X. Zhou. Towards Robust and Effective Shape Modeling: Sparse Shape Composition. Medical Image Analysis, 16(1):265–277, 2012.
[267] L. Zhao, S. Huang, and G. Dissanayake. Linear SLAM: A Linear Solution to the Feature-Based and Pose Graph SLAM based on Submap Joining. In Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 24–30. IEEE, 2013

你可能感兴趣的:(SLAM,SLAM)