/ ai资讯

构建人形机器人学习的合成运动生成流程

发布时间:2025-04-10 11:46:52

通用人形机器人需要能够快速适应现有的以人类为中心的城市和工业工作空间,处理繁琐、重复或体力要求高的任务。这些移动机器人经过设计,能在以人类为中心的环境中有出色的表现,从工厂车间到医疗医疗机构,它们的价值日益凸显。

模仿学习是机器人学习的一个子集,它能让人形机器人通过观察和模仿人类专家的示范来获取新技能,这些演示可以来自远程操作演示中的人类真实视频,也可以来自仿真数据。模仿学习使用已标记的数据集,有利于在难以编程定义的不同环境中教授机器人复杂动作。

虽然录制演示可能比指定奖励策略更简单,但创建完美的演示可能具有挑战性,并且机器人可能难以应对一些未曾预见的情况。在真实世界中收集广泛、高质量的数据集既繁琐又耗时,而且成本往往高得令人却步。但是,从物理精确的仿真环境中生成的合成数据,有助于加快数据收集过程。

用于合成运动生成的NVIDIA Isaac GR00T Blueprint是基于NVIDIA OmniverseNVIDIA Cosmos构建的参考工作流。它从少量的人类演示中创建了大量的合成运动轨迹,用于机器人操作。

利用为该蓝图提供的首批组件,NVIDIA 能够在短短 11 小时内生成 780,000 个合成轨迹,相当于 6,500 小时或连续九个月的人类演示数据。然后,通过将合成数据与真实数据相结合,与仅使用真实数据相比,NVIDIA 将GR00T N1的性能提高了 40%。

在本文中,我们将介绍如何使用空间计算设备(例如 apple Vision Pro)或其他捕获设备(例如 space mouse)进入仿真机器人的数字孪生,并通过远程操作仿真机器人来记录运动演示。然后,使用这些记录生成更大规模、且物理属性准确的合成运动轨迹集。该蓝图还可以通过生成数量呈指数级增长、逼真且多样化的训练数据集,进一步扩充数据集。然后,我们使用这些数据对机器人策略模型进行后期训练。

Blueprint 概述

图 1. NVIDIA Isaac GR00T Blueprint 架构

该工作流包括以下关键组成部分:

GR00T-Teleop:即将推出,但目前已经可以使用蓝图中提供的样本数据。

NVIDIA CloudXR Runtime:将Isaac Lab中的仿真传输到 Apple Vision Pro,并接收用于人形机器人远程操作的控制数据。

适用于 Apple Vision Pro 的 Isaac XR Teleop 示例应用:使用户能够与从 CloudXR Runtime 流式传输的Isaac Lab仿真进行沉浸式交互,并发送回用于人形机器人远程操作的控制数据。

GR00T-Mimic:使用录制的演示作为输入,在 Isaac Lab 中生成额外的合成运动轨迹。此蓝图的第一版仅适用于单臂操作,支持人形机器人双臂操作的版本即将推出。

要录制您自己的动作,请使用空格鼠标控件记录动作。更多信息,请参阅生成其他演示:

https://isaac-sim.github.io/IsaacLab/main/source/overview/teleop_imitation.html#generating-additional-demonstrations

GR00T-Gen:通过随机化场景中的背景、光照和其他变量来增加多样性,并通过NVIDIA Cosmos Transfer增强生成的图像。

Isaac Lab:使用统一的开源机器人学习框架训练机器人策略。Isaac Lab 基于NVIDIA Isaac Sim构建。

图 2. 远程操作架构

工作流从数据采集开始,在这个过程中,将使用像 Apple Vision Pro 这样的高保真设备,在仿真环境中捕捉人类的动作和行为。Apple Vision Pro 将手部追踪数据传输到如 Isaac Lab 等的仿真平台,同时仿真平台将机器人环境的沉浸式视图传输回该设备。这种设置使得机器人操作更加直观和互动,有助于收集高质量的远程操作数据。

Isaac Lab 中的机器人仿真被传输到 Apple Vision Pro,让您能够可视化机器人的环境。通过移动手部,您可以直观地控制机器人执行各种任务。这种设置提供了沉浸式且互动的远程操作体验。

图 3. Isaac Lab 中的远程操作

使用 GR00T-Mimic

生成合成运动轨迹

数据收集后,下一步是生成合成轨迹。使用 Isaac GR00T-Mimic,能够从少量人类示范中推算出大量合成运动轨迹。

这个过程包括在示范中标记关键点,并使用插值法确保合成轨迹平滑且符合情境。然后对生成的数据进行评估和优化,以满足训练所需的标准。

在这个示例中,我们成功生成了 1000 条合成轨迹。

图 4. Isaac Lab 中生成的一组合成轨迹

扩充并生成大量数据

及多样化数据集

为了缩小仿真与现实之间的差距,关键是提升合成生成图像的真实感,使其达到必要的逼真度,并通过随机化照明、颜色和背景等各种参数来增加多样性。

通常,这个过程需要构建逼真的 3D 场景和物体,而且需要耗费大量时间并具备专业知识。借助 Cosmos Transfer(WFMs),只需简单的文本提示,就能大幅加快这一过程,从原本的数小时缩短至几分钟。

图 5 和图 6 的示例,展示了将合成生成的图像输入到 NVIDIA Cosmos Transfer WFM 后可实现的逼真效果。

图 5. 在 Isaac Lab 中创建的合成生成图像

图 6. 借助 NVIDIA Cosmos Transfer WFM 实现逼真的合成图像

在 Isaac Lab 中使用

模仿学习进行训练

最后,通过模仿学习,利用合成数据集对机器人进行训练。在这个阶段,会训练一个策略,比如 Robomimic 套件的循环高斯混合模型(GMM),以模仿合成数据中的动作。训练在比如 Isaac Lab 这样的仿真环境中进行,并且通过多次试验来评估训练后的策略的性能。

为了展示如何使用这些数据,我们训练了一台带有夹爪的 Franka 机器人,在 Isaac Lab 中执行堆叠任务。我们将 Behavioral Cloning 与 Robomimic 套件中的递归 GMM 策略结合使用,该策略使用两个隐藏维度为 400 的长短期记忆(LSTM)层。

网络的输入包括机器人终端执行器的位姿、夹爪状态以及相对物体的位姿,而输出是一个用于在 Isaac Lab 环境中驱动机器人的增量位姿动作。

使用由 1000 次成功示范组成的数据集,并经过 2000 次迭代,我们实现了大约 50 次迭代 / 秒的训练速度(相当于在 NVIDIA RTX GPU 上大约 0.5 小时的训练时间)。在 50 次实验的平均结果中,经过训练的策略在堆栈任务中的成功率达到了 84%。

图 7. 在 Isaac Lab 中训练的夹爪

工作流的优势

此方法的主要优势在于在数据收集过程中节省了时间,从堆叠立方体到线程针等各种操作任务的成功率即可证明这一点,例如在使用 GPU 和 cuOpt 等技术时,成功率显著提高。

图 8. 策略模型训练结果(来源于 MimicGen:利用人类演示实现可扩展机器人学习的数据生成系统)

传统上,经过适当训练的人工操作员大约需要一分钟来录制一段高质量的示范动作,然而由于需要耗费大量人力,且存在出错的可能性,这种方式很难大规模推广。相比之下,这种新方法通过结合少量人类演示和合成数据,能达到相似的成功率,将数据采集时间从几小时缩短到几分钟。

通过 NVIDIA Cosmos,您可以增强合成图像,以实现所需的逼真度,仅使用文本提示即可有效缩小仿真与现实之间的差距。这种方法显著简化了数据收集过程,使您能够生成多样化的大型数据集,同时保持或提高生成的机器人策略的质量。

使用该蓝图的开发者

智元机器人、Mentee Robotics、UCR 和 X-Humanoid 等人形机器人开发者已将该蓝图的组件集成到其人形机器人开发流程中。

Field AI、Lab0、Miso Robotics、RIVR 和 Sanctuary AI 等其他公司也在利用 Isaac 仿真框架,开发机器人大脑和软件栈,以及测试和验证物理机器人。

开始使用

在本文中,我们讨论了如何通过 NVIDIA Isaac GR00T 收集、生成和扩充训练单臂操作器所需的数据。

在 build.nvidia.com 上体验用于合成运动生成的 NVIDIA Isaac GR00T Blueprint

从 /NVIDIA-Omniverse-blueprints GitHub 代码库下载蓝图,并在您选择的基础架构上进行部署

此蓝图的第一版仅适用于单臂操作,支持人形机器人双臂操作的版本即将推出。

本文最初发布于 2025 年 1 月,已根据新的信息进行了修改。

  • NVIDIA NVIDIA 关注

    关注

    14

    文章

    5169

    浏览量

    105183

免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

如有疑问请发送邮件至:bangqikeconnect@gmail.com