论文地址:https://arxiv.org/abs/1810.11525
论文视频:https://www.youtube.com/watch?v=W-6ViSlrrZg
作者提出同时进行目标检测和位姿估计,利用一段连续的图像帧,这个图像帧和slam不同之处在于它是对一个场景的扫描,运动的幅度可能很小,就在一个场景附近各个角度扫的一段图形序列,然后在机器人运动的时候通过ORBSLAM定位机器人自己的位置,利用faster-rcnn对物体进行目标检测,通过粒子滤波进行物体的位姿估计,使用提出的CT-Map方法来对检测结果进行纠正,得到更准确的检测结果和物体的位姿。
使机器人能够在物体层面上对世界进行语义映射,其中世界的表示是对物体类别和位姿的置信度。随着神经网络物体检测的不断进步,作者为语义映射提供了更强大的构建模块。然而,由于训练数据集的偏差和多样性不足,这种物体检测在野外经常是嘈杂的。并且对来自此类网络的错误检测保持鲁棒性。作者将物体类别建模为生成推理的隐藏状态的一部分,而不是对检测器给出的类标签做出选择。
考虑到运动式RGB-D观测,作者的目标是推断解释观测结果的物体类别和位姿,同时考虑物体之间的上下文关系和物体位姿的时间一致性。在语义映射期间显式地建模物体-物体上下文关系,而不是假设每个物体在环境中是独立的。简单来说就是相同类别的物体比不同类别的物体更容易共同出现。此外,应加强物理合理性,以防止物体相互交叉,以及漂浮在空中。
物体位姿的时间一致性在语义映射中也起着重要作用。物体可以保留在过去观察的位置,或者随着时间的推移逐渐改变它们的语义位置。在遮挡的情况下,建模时间一致性可能有助于部分观察物体的定位。通过时间一致性建模,机器人可以获得物体永久性的概念,例如,即使没有直接观察物体,也相信物体仍然存在。
考虑到语义映射中的环境和时间因素,作者提出了环境时间映射(CT-MAP)方法来同时检测物体并通过运动的RGB-D相机观测定位它们的6D位姿。将语义映射问题利用概率表示为物体类别和位姿的置信度估计问题。使用条件随机场(CRF)来建模物体之间的上下文关系和物体位姿的时间一致性。 CRF模型中的依赖性包括以下方面:
1)潜在语义映射变量和观测结果之间的兼容性,
2)物体之间的上下文关系
3)物体位姿的时间一致性。
作者提出了一种基于粒子滤波的算法,在CT-MAP中进行生成推理。
使用一个个向量(物体的位置和概率)来代表场景中的物体。针对每个物体向量存在的概率,作者用粒子滤波和CRF来更新。基本的思想是利用不同帧之间的同一物体在空间位置的一致性来更新物体存在的置信度。用概率来表示物体存在的置信度的好处就是,即使机器人即使一段时间内没有识别出这个物体,这个物体还是一定概率和粒子的形式再场景中存在的。
作者提出CT-Map的方法。 CT-Map方法保持了对观察场景中物体类别和位姿的置信度。 假设机器人通过外部定位程序(例如ORB-SLAM)在环境中定位。该语义地图由一组N个物体组成 O O O= { o 1 o^{1} o1 , o 2 o^{2} o2 ,···, o N o^{N} oN }。 每个物体 o i o^{i} oi= { o c o^{c} oc, o g o^{g} og, o ψ o^{ψ} oψ}包含物体类别 o c ∈ C o^{c}∈C oc∈C,物体几何结构 o g o^{g} og和物体位姿 o ψ o^{ψ} oψ,其中 C C C是物体类别的集合 C C C = { c 1 c_{1} c1, c 2 c_{2} c2,…, c n c_{n} cn}。
在t时刻,机器人的位置为 x t x_{t} xt。机器人的观测值为 z t z_{t} zt = { I t I_{t} It, S t S_{t} St},其中 I t I_{t} It是观察到的RGB-D图像, S t S_{t} St是语义测量值。语义测量值 s k s_{k} sk= { s k s s^{s}_{k} sks, s k b s^{b}_{k} skb } ∈ S t S_{t} St,由物体探测器得到,其中包含:
1)物体检测记录矢量 s k s s^{s}_{k} sks, s k s s^{s}_{k} sks中的每个元素表示每个物体类别的检测置信度,
2)二维边界框 s k b s^{b}_{k} skb
机器人位置 x t x_{t} xt和观测值 z t z_{t} zt是已知的。物体集合 O O O是未知变量。作者对物体之间的环境依赖关系以及每个独立物体随时间变换的时间一致性建模。说白了就是在不同时刻,不同的位置对相同的物体进行观测。
语义映射的后验概率表示为:
其中Z是归一化常数,并且在t时刻应用于物体 o i o^{i} oi的动作由 u t i u^{i}_{t} uti表示。 Φ p Φ_{p} Φp是预测势能(建模物体姿态的时间一致性)。 Φ m Φ_{m} Φm是测量势能(给定物体的三维网格的观察模型)。 Φ c Φ_{c} Φc是环境势能(捕获物体之间的上下文关系)。
具体取决于物体是否在视野中。如果物体在视野中,将动作 u u u建模为连续随机变量,其遵循具有零均值和小方差Σ的高斯分布。 该假设将三维中的小物体移动预测建模为:
所以预测势能表达为:
当物体 o i o^{i} oi很长一段时间内不在视野中时,它可以位于相同位置或移动到不同位置。物体 o i o^{i} oi仍然处于最后一次观测到的位置的概率是时间的函数。为了考虑物体 o i o^{i} oi可以移动到其他位置的事实,作者用离散随机变量{ u s t a y u_{stay} ustay; u m o v e u_{move} umove}对时间动作 u i u^{i} ui进行建模。具体来说, u s t a y u_{stay} ustay表示没有操作,物体停留在同一位置, u m o v e u_{move} umove表示使用移动操作,物体被移动到其他位置。而这些高层次的动作遵循一定的分布 p ( u i , Δ t ) p(u^{i},Δt) p(ui,Δt)。
其中 r 1 , r 2 r_{1},r_{2} r1,r2是常数, Δ t Δt Δt是没有观察到物体 o i o^{i} oi的持续时间。 随着Δt的增加, u s t a y u_{stay} ustay的概率衰减,最终 p ( u s t a y ; Δ t ) = r 1 p(u_{stay}; Δt)= r_{1} p(ustay;Δt)=r1,当 Δ t Δt Δt趋于无穷大时。 对于不同的物体 o i o^{i} oi,控制衰减速度的系数 μ i μ^{i} μi是不同的。作者在实验中为不同的物体提供了探索式 μ i μ^{i} μi,而这些系数也可以使用Toris等人的介绍的方法来学习。
物体的测量势能表示为:
作者使用非零常数δ来说明物体不在视野中的情况。 g ( o t i ; x t ; z t ) g(o^{i}_{t};x_{t} ;z_{t} ) g(oti;xt;zt)测量观测值 z t z_{t} zt和 o t i o^{i}_{t} oti, x t x_{t} xt之间的兼容性。
其中 h ( o t i ; s k s ) h(o^{i}_{t}; s^{s}_{k}) h(oti;sks)是检测置信度向量 s k s s^{s}_{k} sks对类别 o t c o^{c}_{t} otc置信度的打分。函数 I I I评估两个边界框的最小面积上的交集。 b ( o t i ; x t ) b(o^{i}_{t}; x_{t}) b(oti;xt)是基于 x t x_{t} xt的图像空间中投影 o t i o^{i}_{t} oti的最小封闭边界框。
假设已知物体的三维网格模型。函数 f ( o t i ; x t ; I t ) f(o^{i}_{t}; x_{t};I_{t}) f(oti;xt;It)计算投影的 o t i o^{i}_{t} oti和 I t I_{t} It在边界框 b ( o t i ; x t ) b(o^{i}_{t}; x_{t}) b(oti;xt)内的相似性。如果机器人之前观测过物体 o i o^{i} oi,对 o i o^{i} oi的置信度表明它处于机器人当前的视野范围内。如果机器人无法检测到物体 o i o^{i} oi,则该物体可能被遮挡,在这种情况下,使用 g ( o t i ; x t ; z t ) = f ( o t i ; x t ; I t ) g(o^{i}_{t};x_{t}; z_{t})= f(o^{i}_{t}; x_{t}; I_{t}) g(oti;xt;zt)=f(oti;xt;It)来估计物体潜在的位置。
所有环境中的物体类别之间存在共同的上下文关系。例如,杯子出现在桌子上会比出现在地板上更频繁,鼠标在键盘旁边会比在咖啡机旁边出现得更频繁。作者将这些共同的上下文关系称为类别级的上下文关系。在特定环境中,某些物体实例之间存在上下文关系。例如,电视总是放在某个桌子上,麦片盒通常存储在特定的柜子中。作者将特定环境中的这些上下文关系称为实例级上下文关系。
作者手动将类别级上下文关系编码为模型的先验知识,也可以从公共场景数据集中学习。由于实例级上下文关系在不同环境中是变化的,因此必须随着时间的推移学习特定环境的关系。环境势能由类别级势能 Φ c a t Φ_{cat} Φcat和实例级势能 Φ i n s Φ_{ins} Φins组成。
将 Φ c Φ_{c} Φc( o t i o^{i}_{t} oti; o t j o^{j}_{t} otj)建模为混合高斯模型, Φ c a t Φ_{cat} Φcat( o t i o^{i}_{t} oti; o t j o^{j}_{t} otj)和 Φ i n s Φ_{ins} Φins( o t i o^{i}_{t} oti; o t j o^{j}_{t} otj)各自为高斯分量。在实验中,手动设计 Φ c a t Φ_{cat} Φcat作为先验知识,并通过贝叶斯更新 Φ i n s Φ_{ins} Φins。设计 Φ c a t Φ_{cat} Φcat时应遵循两个原则:
1)简单的物理约束,例如不允许物体交叉,物体不应该悬浮在空中,
2)属于同一类别的物体对,比不同类别的物体对更经常同时出现。
使用Faster R-CNN 作为物体探测器。给定RGB-D观测的RGB通道,应用物体检测器并从区域提出网络中获取边界框,以及相应的类别得分向量。然后对这些边界框使用非最大抑制,并合并具有大于0.5的交叉联合(IoU)的边界框。
在所有实验中,作者使用等式5中的 w 1 = w 2 = 0.5 w_{1} = w_{2} = 0.5 w1=w2=0.5来同等地处理类别级和实例级的势能。 如果一个物体在无限长时间内没有被观察到,假设物体在相同的位置或不同位置的概率是相同。因此,在等式3中使用 r 1 = r 2 = 0.5 r_{1}= r_{2} = 0.5 r1=r2=0.5。
作者使用Faster R-CNN物体探测器的噪声物体探测,而CT-Map可以通过将物体类别建模隐藏状态的一部分来纠正一些错误探测。为了评估CT-Map的物体检测性能,在数据集中的每个RGB-D序列的末尾处,对场景中所有物体进行六自由度位姿估计,并将它们投射回该序列中的每个相机帧上,以生成带有类别标签的边界框。通过考虑不同的势能集合来进行两个语义映射过程:
1)时间映射(T-Map):考虑CRF模型中的预测势能;
2)环境时间映射(CT-Map):考虑CRF模型中的预测和环境势能。
在观测中,T-Map和CT-Map均包括测量势能。
作者使用mAP作为物体检测指标。如下表所示,T-Map通过结合预测和观察势能改进了Faster R-CNN,并且CT-Map通过另外结合环境势能进一步改善了性能。Faster R-CNN在测试场景中表现不佳,因为训练数据不一定涵盖测试时遇到的差别。虽然通过提供更多的训练数据可以进一步提高Faster R-CNN的性能,但是CT-Map在训练受限的情况下提供了更具有鲁棒性的目标检测
作者场景数据集上的mAP:
在某些情况下,由于遮挡,Faster R-CNN检测到的物体不可靠。如果之前在环境中观测过一个物体,通过对物体的时间一致性进行建模,来预测物体可以去的位置。因此,即使由于遮挡而未触发对物体的检测,该方法仍然可以定位物体并声明检测。但是,如果物体存在很严重的遮挡且深度观测缺少物体足够的几何信息,无法对物体进行定位。
对于数据集中的每个RGB-D序列,定位最后看到每个物体的帧,并使用已知的相机矩阵将深度帧投影回3D点云。然后,手动标记物体的ground truth六自由度位姿。之后将每个RGB-D序列末尾估计出的物体位姿与ground truth进行比较。
位姿估计精度由 a c c u r a c y = N c o r r e c t / N t o t a l accuracy=N_{correct}/N_{total} accuracy=Ncorrect/Ntotal测量,其中 N c o r r e c t N_{correct} Ncorrect是正确定位的物体数量, N t o t a l N_{total} Ntotal是数据集中存在的物体总数。如果物体位姿估计误差小于在某个位置误差阈值 Δ t Δt Δt和旋转误差阈值 Δ θ Δθ Δθ,则称该物体被正确地定位。 Δ t Δt Δt是欧几里德距离的平移误差, Δ θ Δθ Δθ是方向上的绝对角度差。对于对称物体,忽略关于对称轴的旋转误差。
作者应用迭代最近点(ICP)和快点特征直方图(FPFH)算法作为六自由度物体位姿估计的基准。对于数据集中的每个RGB-D序列,作者采用标记帧的3D点云,并根据ground truth边界框裁剪它们。这些裁剪点云作为观察结果与物体3D网格模型一起被提供给基准。 ICP和FPFH用于将物体模型登记到裁剪的观测点云。允许最大迭代次数为50000次。
CT-Map显着优于ICP和FPFH。由于生成推断反复地对物体位姿假设进行采样并根据观察结果对其进行评估,因此CT-Map不会像ICP和FPFH这样的判别方法受到局部最小值的影响。
作者提供的视频,机器人带动RGBD相机移动的过程,采集到多帧数据(RGBD序列),粒子在不断运动,在数据末尾,粒子收敛到物体的范围内。
本文作者:耗子
github:https://github.com/lh641446825
知乎:https://www.zhihu.com/people/hao-zi-meng-jian-mao/activities
博客园:https://www.cnblogs.com/lh641446825/
欢迎关注和转载!