ICRA2019最佳论文 Making Sense of Vision and Touch: Self-Supervised Learning of Multimodal Representatio

文章目录

  • 摘要
  • 模型架构
    • 模态编码器
    • 自监督预测
  • 控制器设计
    • 策略学习
    • 控制器设计
  • 实验
  • 结论和展望

会议: ICRA 2019

标题:《Making Sense of Vision and Touch: Self-Supervised Learning of Multimodal Representations for Contact-Rich Tasks》

论文链接: https://arxiv.org/abs/1810.10191

本文仅作为个人学习笔记分享,图片来自于论文,如有侵权,请联系删除。

机器人领域顶级会议 ICRA 2019 刚在加拿大蒙特利尔举行(当地时间 5 月 20 日-24 日),刚刚大会公布了最佳论文奖项,来自斯坦福大学李飞飞组的研究《Making Sense of Vision and Touch: Self-Supervised Learning of Multimodal Representations for Contact-Rich Tasks》获得了最佳论文。以下是针对这边文章的学习和记录。

摘要

在非结构化环境中执行需要大量接触的操纵任务通常需要触觉和视觉反馈。但是,手动设计机器人控制器使其结合具备不同特征的模态并不容易。尽管深度强化学习在学习高维输入的控制策略时获得了很大成功,但由于样本复杂度,这些算法通常很难在真实机器人上面部署。
该研究使用自监督学习感知输入的紧凑、多模态表征,然后使用这些表征提升策略学习的样本效率。研究者在植入任务上评估了该方法,结果表明该方法对于外部扰动具备稳健性,同时可以泛化至不同的几何、配置和间隙(clearances)。研究者展示了在模拟环境中和真实机器人上的结果。

ICRA2019最佳论文 Making Sense of Vision and Touch: Self-Supervised Learning of Multimodal Representatio_第1张图片

图1,Z轴上的压力传感器读数(高度)和视觉观察结果与插入桩任务的相应阶段一起显示。压力读数从(1)在自由空间中移动的臂转变为(2)与盒子接触。当对准销钉时,压力捕捉到盒表面(3,4)上的滑动接触的相互作用力。最后,在插入阶段,当机器人尝试在孔(5)边缘插入销钉时,压力达到峰值,当销钉滑入孔(6)时,压力减小。

模型架构

该研究提出的多模态表征学习模型架构如下图所示:

ICRA2019最佳论文 Making Sense of Vision and Touch: Self-Supervised Learning of Multimodal Representatio_第2张图片
图 2:利用自监督进行多模态表征学习的神经网络架构。该网络使用来自三个不同传感器的数据作为模型输入:RGB 图像、力矩传感器在 32ms 窗口上读取的力矩数据、末端执行器的位置和速度。该模型将这些数据编码并融合为多模态表征,基于这些多模态数据可学习用控制器执行需要大量接触的操纵。这一表征学习网络是通过自监督端到端训练得到的。

模态编码器

我们的模型对机器人可用的三种传感器数据进行编码:来自固定摄像头的RGB图像、来自手腕固定力扭矩(F/T)传感器的触觉反馈以及来自机器人手臂关节编码器的本体感知数据。这种数据的异构性要求特定领域的编码器捕获每个模态的独特特征。

对于视觉反馈,我们使用类似于FlowNet的6层卷积神经网络(CNN)编码128x128x3的RGB图像,通过全连接层将最后的激活图转换为128维的向量。

对于触觉反馈,们将来自六轴F/T传感器的最后32个读数作为32*6时间序列,并用stride=2执行5层因果关系的卷积,将压力读数转换为64维的特征向量。

对于本体感知,我们使用2层的多层感知器(MLP)对末端效应器的当前位置和速度进行编码,以生成32维特征向量。

最后,将的得到的三个特征向量连接成一个特征向量,并通过多模态融合模块(2层MLP)生成最终的128维多模表示。

自监督预测

模态编码器有近50万个可学习参数,需要大量的标记训练数据。为了避免人工标注,我们设计了通过自我监督可以自动生成标签的训练目标。此外,控件的表示应该对与操作相关的信息进行编码。为此,我们设计了两个动作条件表示学习目标。考虑到机器人的下一个动作和当前感官数据很少,该模型必须预测(i)动作产生的光流,(ii)末端执行器是否会在下一个控制循环中与环境接触。
在给定本体感知和已知的机器人运动学和几何学,自动生成光流的真实标注信息。通过对F/T读数应用简单的启发式方法,生成二元接触状态的真实标注。

下一个动作,即末端效应器动作,由2层MLP编码。它与多模态表示一起构成了流和接触预测器的输入。流量预测器使用一个6层卷积解码器加上采样来生成128x128x2大小的流量图。之后,我们使用4个跳过连接。接触预测器是一个2层MLP,执行二进制分类。

不同的传感器流之间存在着并发性,导致了相关性和冗余性。例如,看到木钉,触摸盒子,感受力量。我们通过引入第三个表示学习目标来利用这一点,该目标预测两个传感器流是否暂时对齐。在训练过程中,我们对时间一致的多模数据和随机移位的数据进行混合采样。对准预测器(2层MLP)以低维表示为输入,对输入是否对准进行二进制分类。

我们训练了具有端点误差(EPE)损失的作用条件光流平均在所有像素上,以及接触预测和具有交叉熵损失的对准预测。在训练过程中,我们在一组展开的轨迹上,以随机梯度下降的方式,将三个损失的端到端之和最小化。经过训练后,该网络生成一个128维特征向量,它紧凑地表示多模数据。这个向量从输入通过强化学习获得操纵策略。

控制器设计

下图展示了该研究的控制器架构,该架构可分为三部分:轨迹生成、阻抗控制和操作空间控制。
ICRA2019最佳论文 Making Sense of Vision and Touch: Self-Supervised Learning of Multimodal Representatio_第3张图片

策略学习

控制器设计

实验

下图展示了该模型在模拟环境中的训练。图 a 展示了 TRPO 智能体的训练曲线:

ICRA2019最佳论文 Making Sense of Vision and Touch: Self-Supervised Learning of Multimodal Representatio_第4张图片
图 4:模拟植入任务:对基于不同感知模态数据训练得到的表征进行模型简化测试。研究者将使用结合了视觉、触觉和本体感觉的多模态表征训练得到的完整模型和未使用这些感知训练的基线模型进行了对比。b 图展示了使用不同反馈模态的部分任务完成率,其中视觉和触觉模态在接触丰富的任务中发挥不可或缺的作用。

下图展示了在真实环境中的模型评估。

ICRA2019最佳论文 Making Sense of Vision and Touch: Self-Supervised Learning of Multimodal Representatio_第5张图片
图 5:a)在真实机器人实验及其间隙上使用 3D 打印 peg。b)定性预测:研究者对来自其表征模型的光流预测示例进行可视化。

下图展示了在真实机器人上对该模型的评估,同时展示了该模型在不同任务设置上的泛化效果。
ICRA2019最佳论文 Making Sense of Vision and Touch: Self-Supervised Learning of Multimodal Representatio_第6张图片
图6:真实机器人peg插入:我们在实际硬件上评估我们的模型,在x轴上显示不同的peg形状。学习到的策略以很高的成功率完成任务。我们还研究了将政策和表示从训练有素的标桩转换为新颖的标桩形状(最后四个栏)。机器人有效地重新利用以前训练过的模型来解决这个新任务。

结论和展望

该技术研究了在时间一致的多传感器数据上联合推理对丰富接触操作任务的价值。为了实现高效的真实机器人训练,提出了一种新模型,将不同的传感器输入编码成一个紧凑的多模态表示。一旦经过训练,当被用作加强学习的浅层神经网络策略的输入时,表征保持不变。我们通过自监督训练了表征模型,不需要手工标注。该研究对紧间隙销钉插入任务的实验表明,它们需要视觉和触觉的多模态反馈。进一步证明了多模表示可以很好地转移到PEG插入的新任务实例中。为了将来的工作,计划将该方法扩展到其他接触式任务,这需要一个完整的位置和方向的6自由度控制器。研究者还希望探讨将更丰富的方式价值(如深度和声音)纳入代表性学习管道,以及新的自监督的来源。

你可能感兴趣的:(论文阅读笔记)