制作网页与网站开发,开发公司施工管理事业部领导如何同下属协调沟通,莱州市做网站的公司,网站推广引流最快方法随着 GPT-4 等大型语言模型与机器人研究的结合愈发紧密#xff0c;人工智能正在越来越多地走向现实世界#xff0c;因此具身智能相关的研究也正受到越来越多的关注。在众多研究项目中#xff0c;谷歌的「RT」系列机器人始终走在前沿#xff08;参见《大模型正在重构机器人人工智能正在越来越多地走向现实世界因此具身智能相关的研究也正受到越来越多的关注。在众多研究项目中谷歌的「RT」系列机器人始终走在前沿参见《大模型正在重构机器人谷歌 Deepmind 这样定义具身智能的未来》。 谷歌 DeepMind 去年 7 月推出的 RT-2全球第一个控制机器人的视觉 - 语言 - 动作VLA模型。只需要像对话一样下达命令它就能在一堆图片中辨认出霉霉并送给她一罐可乐。
如今这个机器人又进化了。最新版的 RT 机器人名叫「RT-H」它能通过将复杂任务分解成简单的语言指令再将这些指令转化为机器人行动来提高任务执行的准确性和学习效率。举例来说给定一项任务如「盖上开心果罐的盖子」和场景图像RT-H 会利用视觉语言模型VLM预测语言动作motion如「向前移动手臂」和「向右旋转手臂」然后根据这些语言动作预测机器人的行动action。 这个行动层级action hierarchy对于提高机器人完成任务的准确性和学习效率非常有帮助使得 RT-H 在一系列机器人任务中的表现都优于 RT-2。
以下是论文的详细信息。
论文概览
论文标题RT-H: Action Hierarchies Using Language
论文链接https://arxiv.org/pdf/2403.01823.pdf
项目链接https://rt-hierarchy.github.io/
语言是人类推理的引擎它使我们能够将复杂概念分解为更简单的组成部分纠正我们的误解并在新环境中推广概念。近年来机器人也开始利用语言高效、组合式的结构来分解高层次概念、提供语言修正或实现在新环境下的泛化。
这些研究通常遵循一个共同的范式面对一个用语言描述的高层任务如「拿起可乐罐」它们学习将观察和语言中的任务描述映射到低层次机器人行动的策略这需要通过大规模多任务数据集实现。语言在这些场景中的优势在于编码类似任务之间的共享结构例如「拿起可乐罐」与「拿起苹果」从而减少了学习从任务到行动映射所需的数据。然而随着任务变得更加多样化描述每个任务的语言也变得更加多样例如「拿起可乐罐」与「倒一杯水」这使得仅通过高层次语言学习不同任务之间的共享结构变得更加困难。
为了学习多样化的任务研究者的目标是更准确地捕捉这些任务之间的相似性。
他们发现语言不仅可以描述高层次任务还能细致说明完成任务的方法 —— 这种表示更细腻更贴近具体动作。例如「拿起可乐罐」这一任务可以分解为一系列更细节的步骤即「语言动作language motion」首先「手臂向前伸」接着「抓紧罐子」最后「手臂上举」。研究者的核心洞见是通过将语言动作作为连接高层次任务描述与底层次动作之间的中间层可以利用它们来构建一个通过语言动作形成的行动层级。
建立这种行动层级有几大好处
它使不同任务之间在语言动作层面上能够更好地共享数据使得语言动作的组合和在多任务数据集中的泛化性得到增强。例如「倒一杯水」与「拿起可乐罐」虽在语义上有所不同但在执行到捡起物体之前它们的语言动作完全一致。
语言动作不是简单的固定原语而是根据当前任务和场景的具体情况通过指令和视觉观察来学习的。比如「手臂向前伸」并没具体说明移动的速度或方向这取决于具体任务和观察情况。学习到的语言动作的上下文依赖性和灵活性为我们提供了新的能力当策略未能百分百成功时允许人们对语言动作进行修正见图 1 中橙色区域。进一步地机器人甚至可以从这些人类的修正中学习。例如在执行「拿起可乐罐」的任务时如果机器人提前关闭了夹爪我们可以指导它「保持手臂前伸的姿势更久一些」这种在特定场景下的微调不仅易于人类指导也更易于机器人学习。 鉴于语言动作存在以上优势来自谷歌 DeepMind 的研究者设计了一个端到端的框架 ——RT-HRobot Transformer with Action Hierarchies即使用行动层级的机器人 Transformer专注于学习这类行动层级。RT-H 通过分析观察结果和高层次任务描述来预测当前的语言动作指令从而在细节层面上理解如何执行任务。接着利用这些观察、任务以及推断出的语言动作RT-H 为每一步骤预测相应的行动语言动作在此过程中提供额外的上下文帮助更准确地预测具体行动图 1 紫色区域。
此外他们还开发了一种自动化方法从机器人的本体感受中提取简化的语言动作集建立了包含超过 2500 个语言动作的丰富数据库无需手动标注。
RT-H 的模型架构借鉴了 RT-2后者是一个在互联网规模的视觉与语言数据上共同训练的大型视觉语言模型VLM旨在提升策略学习效果。RT-H 采用单一模型同时处理语言动作和行动查询充分利用广泛的互联网规模知识为行动层级的各个层次提供支持。
在实验中研究者发现使用语言动作层级在处理多样化的多任务数据集时能够带来显著的改善相比 RT-2 在一系列任务上的表现提高了 15%。他们还发现对语言动作进行修正能够在同样的任务上达到接近完美的成功率展示了学习到的语言动作的灵活性和情境适应性。此外通过对模型进行语言动作干预的微调其表现超过了 SOTA 交互式模仿学习方法如 IWR50%。最终他们证明了 RT-H 中的语言动作能够更好地适应场景和物体变化相比于 RT-2 展现出了更优的泛化性能。
RT-H 架构详解
为了有效地捕获跨多任务数据集的共享结构不由高层次任务描述表征RT-H 旨在学习显式利用行动层级策略。
具体来说研究团队将中间语言动作预测层引入策略学习中。描述机器人细粒度行为的语言动作可以从多任务数据集中捕获有用的信息并可以产生高性能的策略。当学习到的策略难以执行时语言动作可以再次发挥作用它们为与给定场景相关的在线人工修正提供了直观的界面。经过语言动作训练的策略可以自然地遵循低水平的人工修正并在给定修正数据的情况下成功完成任务。此外该策略甚至可以根据语言修正数据进行训练并进一步提高其性能。
如图 2 所示RT-H 有两个关键阶段首先根据任务描述和视觉观察预测语言动作然后根据预测的语言动作、具体任务、观察结果推断精确的行动。 RT-H 使用 VLM 主干网络并遵循 RT-2 的训练过程来进行实例化。与 RT-2 类似RT-H 通过协同训练利用了互联网规模数据中自然语言和图像处理方面的大量先验知识。为了将这些先验知识合并到行动层级的所有层次中单个模型会同时学习语言动作和行动查询。
实验结果
为了全面评估 RT-H 的性能研究团队设置了四个关键的实验问题
Q1性能带有语言的行动层级是否可以提高多任务数据集上的策略性能
Q2情境性RT-H 学得的语言动作是否与任务和场景情境相关
Q3纠正在语言动作修正上进行训练比远程teleoperated修正更好吗
Q4概括行动层级是否可以提高分布外设置的稳健性
数据集方面该研究采用一个大型多任务数据集其中包含 10 万个具有随机对象姿态和背景的演示样本。该数据集结合了以下数据集
KitchenRT-1 和 RT-2 使用的数据集由 70K 样本中的 6 个语义任务类别组成。
Diverse一个由更复杂的任务组成的新数据集具有超过 24 个语义任务类别但只有 30K 样本。
该研究将此组合数据集称为 DiverseKitchen (DK) 数据集并使用自动化程序对其进行语言动作标记。为了评估在完整 DiverseKitchen 数据集上训练的 RT-H 的性能该研究针对八项具体任务进行了评估包括
1将碗直立放在柜台上
2打开开心果罐
3关闭开心果罐
4将碗移离谷物分配器
5将碗放在谷物分配器下方
6将燕麦片放入碗中
7从篮子里拿勺子
8从分配器中拉出餐巾
选择这八个任务是因为它们需要复杂的动作序列和高精度。 下表给出了在 DiverseKitchen 数据集或 Kitchen 数据集上训练时 RT-H、RT-H-Joint 和 RT-2 训练检查点的最小 MSE。RT-H 的 MSE 比 RT-2 低大约 20%RTH-Joint 的 MSE 比 RT-2 低 5-10%这表明行动层级有助于改进大型多任务数据集中的离线行动预测。RT-H (GT) 使用 ground truth MSE 指标与端到端 MSE 的差距为 40%这说明正确标记的语言动作对于预测行动具有很高的信息价值。 图 4 展示了几个从 RT-H 在线评估中获取的上下文动作示例。可以看到相同的语言动作通常会导致完成任务的行动发生微妙的变化同时仍尊重更高级别的语言动作。 如图 5 所示研究团队通过在线干预 RT-H 中的语言动作来展示 RT-H 的灵活性。 该研究还用比较实验来分析修正的作用结果如下图 6 所示 如图 7 所示RT-H 和 RT-H-Joint 对场景变化明显更加稳健 实际上看似不同的任务之间具备一些共享结构例如这些任务中每一个都需要一些拾取行为来开始任务并且通过学习跨不同任务的语言动作的共享结构RT-H 可以完成拾取阶段而无需任何修正。 即使当 RT-H 不再能够泛化其语言动作预测时语言动作修正通常也可以泛化因此只需进行一些修正就可以成功完成任务。这表明语言动作在扩大新任务数据收集方面的潜力。