量子位 10-22
机器人轻松模仿人类,还能泛化到不同任务和智能体!微软新研究,学习人类和机器人统一动作表示
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

让机械臂模仿人类动作的新方法来了,不怕缺高质量机器人数据的那种。

微软提出图像目标表示(IGOR,Image-GOal Representation)," 投喂 " 模型人类与现实世界的交互数据。

IGOR 能直接为人类和机器人学习一个统一的动作表示空间,实现跨任务和智能体的知识迁移以及下游任务效果的提升。

要知道,在训练具身智能领域的基础模型时,高质量带有标签的机器人数据是保证模型质量的关键,而直接采集机器人数据成本较高。

考虑到互联网视频数据中也展示了丰富的人类活动,包括人类是如何与现实世界中的各种物体进行交互的,由此来自微软的研究团队提出了 IGOR。

究竟怎样才能学到人类和机器人统一的动作表示呢?

IGOR 框架如下所示,包含三个基础模型:

Latent Action Model、Policy Model 和 World Model

具体来说,IGOR 先是提出了潜在动作模型 LAM(Latent Action Model),将初始状态和目标状态之间的视觉变化压缩为低维向量,并通过最小化初始状态和动作向量对目标状态的重建损失来进行训练。

这样一来,具有相似视觉变化的图像状态将具有相似的动作向量,代表了他们在语义空间而非像素空间上的变化。

通过 LAM,可以将互联网规模的视频数据转化为带有潜在动作标注的数据,大大扩展了具身智能基础模型能够使用的数据量。

这个统一的潜在动作空间使团队能够在几乎任意由机器人和人类执行的任务上训练 Policy Model 和 World Model。

通过结合 LAM 和 World Model,IGOR 成功地将一个视频中的物体运动 " 迁移 " 到其他视频中。并且,这些动作实现了跨任务和跨智能体的迁移。

也就是说,用人的行为给机器人做演示,机器人也能做出正确的动作。如下图所示,LAM 得到的潜在动作表示可以同时实现跨任务(用手移动不同物体)和跨智能体(用手的移动指导机械臂的移动)的迁移。

Latent Action 实现跨任务和智能体的迁移

以下是模型架构的具体细节。

Latent Action Model

LAM 的目标是以无监督的方式从互联网规模的视频数据中学习和标注潜在动作,即给定视频帧序列,对于每一对相邻帧提取潜在动作表示。

为此,LAM 模型由一个 Inverse Dynamic Model(IDM)和 Forward Dynamic Model(FDM)组成。

IDM 的从视频帧序列中提取潜在动作表示,而FDM 负责用学到的表示和当前视频帧来重建接下来的视频帧

由于将潜在动作表示限定在较低的维度,因此 LAM 模型会将两帧之间语义上的区别学习到之中。

值得注意的是,这种方式天然保证了学到的潜在动作是具有泛化性的。

如下图所示, 在未见数据集上,LAM 学到的相似潜在动作反映了相似的语义,包括打开夹子、机械臂向左移动和关闭夹子,这些潜在动作在不同任务间共享,进而提升下游模型的泛化性。

Latent Action Model 在未见数据集上的表现 Foundation World Model

World Model 的作用是根据历史视频帧和未来多帧的潜在动作表示,生成在历史帧的基础上执行各个潜在动作之后的未来视频帧

为此,研究人员选择从预训练的视频生成模型上进行微调,将条件从文本换成了潜在动作表示和 FDM 的重建输出。

在具身智能的相关数据集上进行微调之后,研究人员观察到 World Model 可以成功地在给定相同历史帧时,针对不同的潜在动作表示生成相对应的未来视频帧。

如下图所示,此方法可以通过潜在动作和 World Model 控制不同物体的独立移动。

World Model 对于给定的不同潜在动作表示时的生成结果 Foundation Policy Model

Policy Model 的目标是在具体的下游任务上,根据视频帧和文本指令来预测智能体每一步要采取的动作

在 IGOR 中,它的训练分为了两个阶段。

在第一阶段,Policy Model 将根据输入的视频帧和文本指令来预测 LAM 提取出的相应的潜在运动表示,从而建立从视频帧到通用潜在运动表示的映射。

在第二阶段,该模型则会根据文本指令、视频帧以及第一阶段模型预测出来的潜在动作表示共同预测下游任务上具体的运动标签。

和现有模型相比,第一阶段预测出的潜在动作表示蕴含了完成该任务需要达成的短期目标,丰富了模型的输入信息,因此提升了最终策略的任务成功率,如下图所示。

Policy Model 在下游机器人任务上的表现

在相同的场景下给定不同的文本指令,研究人员也验证了 Policy Model 的有效性,即模型可以根据不同的指令生成相应的潜在动作表示,进而通过 World Model 模拟执行相应的指令。

Policy Model 和 World Model 对于不同文本指令的生成结果

总的来说,IGOR 提出了通过大量人类和机器人视频预训练学习动作表示并泛化到不同任务和智能体的新方法。通过从大量视频中学到的动作表示,IGOR 可以实现机器人轻松模仿人类动作,进而实现更通用的智能体。

项目主页:https://aka.ms/project-igor

论文:https://aka.ms/project-igor-paper

—    —

投稿请发邮件到:

ai@qbitai.com

标题注明【投稿】,告诉我们:

你是谁,从哪来,投稿内容‍

附上论文 / 项目主页链接,以及联系方式哦

我们会(尽量)及时回复你

点这里关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~  

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

逗玩.AI

逗玩.AI

ZAKER旗下AI智能创作平台

相关标签

机器人 微软 互联网 机械臂 效果
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论