首个开放世界移动抓取多模态智能体:微调模型实现真实环境零样本高精度操作

上海人工智能实验室发布首个开放世界移动抓取多模态智能体OWMM-Agent,通过微调VLM模型,在真实环境零样本动作预测准确率达90%,为家庭服务机器人发展奠定技术基础。

原文标题:突破开放世界移动操作!首个室内移动抓取多模态智能体亮相,微调模型真实环境零样本动作准确率达 90%

原文作者:机器之心

冷月清谈:

上海人工智能实验室联合多所高校提出了名为“OWMM-Agent”的具身智能体,该智能体是首个专为开放世界移动操作(OWMM)设计的多模态智能体架构。该架构统一建模了全局场景理解、机器人状态跟踪和多模态动作生成,通过仿真器合成数据微调多模态大模型OWMM-VLM,在真实环境测试中实现了90%的零样本单步动作预测准确率。OWMM-Agent架构通过将开放世界移动操作问题建模成多轮、多图推理和定位问题,让多模态大模型进行端到端的感知-推理-决策-状态更新。利用预映射阶段获取的多视角场景图像构建全局场景理解能力,以文本形式跟踪机器人实时状态,并设计动作空间使VLM模型直接输出动作handle和坐标参数。该团队还设计了基于Habitat仿真平台的数据合成方案,最终数据集包含20万+条多图加文本数据,并通过GPT-4o重写思维链和文字总结内容、引入机器人第一视角图像,增强数据多样性和语义接地能力。实验结果表明,OWMM-VLM模型在模拟和真实环境中均表现出显著优势。该研究为通用家庭助手奠定了技术基础。

怜星夜思:

1、OWMM-Agent 在真实家庭环境中应用,除了文中的“将豆奶盒从书桌移至会议桌”任务,你觉得它还能做哪些事情?又会遇到哪些新的挑战?
2、文章中提到,OWMM-Agent 对复杂机械臂(如多指手)的控制能力有限,你认为多指手在家庭服务机器人中重要吗?如果重要,它能带来哪些优势?又会带来哪些技术难题?
3、文章提到,该研究假设有一个相对理想的环境重建,并假设目标任务相关的观测已经在记忆中。如果环境重建不准确,或者目标任务相关的观测不在记忆中,你认为会发生什么?有什么方法可以解决这些问题?

原文内容


在家庭服务机器人领域,如何让机器人理解开放环境中的自然语言指令、动态规划行动路径并精准执行操作,一直是学界和工业界的核心挑战。


近日,上海人工智能实验室联合新加坡国立大学、香港大学等机构的研究团队,提出了 "OWMM-Agent" 具身智能体——首个专为开放世界移动操作(OWMM)设计的多模态智能体 (VLM Agent) 架构,首次实现了全局场景理解、机器人状态跟踪和多模态动作生成的统一建模。


同时该工作通过仿真器合成智能体轨迹数据,微调了针对该任务的多模态大模型 OWMM-VLM,在真实环境测试下,该模型零样本单步动作预测准确率达 90%。



  • 论文链接:https://arxiv.org/pdf/2506.04217

  • Github 主页:https://github.com/HHYHRHY/OWMM-Agent



一、问题背景介绍:开放语义下的移动抓取任务


传统移动抓取机器人在家庭场景处理 “清理餐桌并将水果放回碗中” 这类开放指令时,往往需要依赖预先构建的场景 3D 重建或者语义地图,不仅耗时且难以应对动态环境。OWMM 任务的核心难点在于:


  • 全局场景推理:需要结合自然语言指令和多视角视觉信息,理解整个场景的布局和物体信息。

  • 具身决策闭环:实时跟踪机器人状态(如当前位置、长续任务执行状态),生成符合物理约束的动作(如理解要到一定距离才可以抓取物体);

  • 系统整合问题:VLM 基座模型难以直接输出机器人控制所需的底层目标(如导航目标点坐标、抓取物体坐标等)。


二、OWMM-Agent:用 VLM 重构机器人 “大脑”


研究团队提出的 OWMM-Agent 架构,通过两大创新突破上述瓶颈:


1. 多模态 Agent 架构


通过将开放世界移动操作(OWMM)问题建模成多轮,多图推理和定位 (Grounding) 问题,让多模态大模型进行端到端的感知 - 推理 - 决策 - 状态更新过程。


  • 长期环境记忆:利用预映射阶段获取的多视角场景图像(如图 1 中的历史帧),构建全局场景理解能力,支持复杂指令的空间推理(如 “从吧台凳取物并放到沙发”);

  • 瞬态状态记忆:以文本形式跟踪机器人实时状态(如 “已抓取物体,正接近目标位置”),辅助 VLM 生成上下文相关的动作序列;

  • 动作空间设计:VLM 模型直接输出动作 handle 和 Ego-centric Obsersavation RGB 空间的坐标参数,通过函数调用传统路径规划器(Path Planner)和机械臂运动规划器(Motion Planner),不依赖预定义策略技能库。 


图 1:OWMM-Agent 框架和动作接口设计


2. 多模态 Agent 微调数据合成


针对 VLM 基座模型在机器人领域的 “幻觉” 问题,团队设计了基于 Habitat 仿真平台的数据合成方案:


  • 任务模板驱动:基于 Habitat 仿真环境,通过 PDDL 语言定义任务流程,自动生成 OWMM episodes。最终数据集基于 143 个仿真场景,157 种可抓取物体和 1471 个容器,采集了 20 万 + 条的多图加文本数据集;

  • 符号世界建模:利用仿真环境的真值数据(如物体坐标,机器人状态,PDDL 世界状态),标注多图像 - 文本 - 动作对,避免人工标注成本;

  • 多模态增强:通过 GPT-4o 重写思维链和文字总结内容、引入机器人第一视角图像,增强数据多样性和语义接地能力。     


团队利用仿真合成的多模态数据,基于 Intern-VL 2.5 8B/38B 微调得到用于 OWMM 的专用模型 OWMM-VLM。


图 2: OWMM-VLM 模型


三、实验验证:模拟与真实环境双突破


在模拟环境中,OWMM-VLM 模型展现出显著优势:


  • 单步能力:在 “Ego-centric 动作决策”“图像检索”“动作定位 (Action Grounding)” 三项核心任务上,380 亿参数的 OWMM-VLM-38B 模型准确率分别达 97.85%、87.54% 和 88%,远超 GPT-4o(48.53%、46.46%、7%)和模块化方案(如 GPT-4o+RoboPoint);

  • 完整序列任务:在 308 次模拟测试中,OWMM-VLM-38B 在整个 OWMM 长序移动抓取任务成功率达 21.9%,且零死循环;而基线模型由于大量幻觉和误差累积,成功率低于 1%,且频繁陷入死循环。


图 3:Habitat 仿真环境单步动作和完整 OWMM 序列测试结果


更值得关注的是真实环境测试:在 Fetch 机器人上,模型仅通过模拟数据训练,即实现了 90% 的零样本动作生成成功率(30 次测试中 27 次成功)。例如,在 “将豆奶盒从书桌移至会议桌” 任务中,模型准确检索目标位置、规划导航路径,并生成机械臂抓取坐标,展现出强泛化能力。在真机部署实验中,团队采用了 Robi Butler 工作提供的人类通过 VR 设备控制室内机器人系统的多模态接口,并迁移到 OWMM-Agent 框架中。


四、未来展望:迈向通用家庭机器人


该研究首次证明,通过大规模模拟数据微调的 VLM 模型,可成为开放世界移动操作的通用基础模型。同时这篇工作也存在局限性,当前方法假设有一个相对理想的环境重建,并假设目标任务相关的观测已经在记忆中,且对复杂机械臂(如多指手)的控制能力有限。


随着老龄化社会对服务机器人需求的激增,OWMM-Agent 的突破为 “会听、会看、会做” 的通用家庭助手奠定了关键技术基础。或许在不久的将来,我们真能迎来 “一句话指挥机器人完成家务” 的智能生活。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

我觉得吧,多指手就像汽车的自动挡,虽然开起来舒服,但是结构复杂,维护成本高。如果只是简单的家庭服务,比如端茶倒水,好像没必要用多指手,简单的夹爪就够用了。但是,如果要让机器人做更复杂的事情,比如照顾老人,喂饭、穿衣,那多指手就必不可少了。所以关键还是看需求。

我觉得除了移动物品,还可以让它帮忙找东西啊,比如遥控器、眼镜啥的。但是真实环境肯定比实验室复杂多了,光线、遮挡、各种意想不到的障碍,都会让它找不到北吧?而且,万一家里有宠物,那就更热闹了,估计得跟猫猫狗狗斗智斗勇了。

多指手在家庭服务机器人中的作用是毋庸置疑的。相比于简单的二指夹爪,多指手拥有更灵活的操作能力,可以完成更复杂的任务,例如:

* 精细操作:可以抓取易碎物品,完成精细的组装、维修等工作。
* 适应性:可以适应不同形状、大小的物体,提高抓取的成功率。
* 人机交互:可以进行更自然的人机交互,例如握手、递东西等。

然而,多指手也带来了诸多技术难题:

* 控制复杂性:多指手的自由度更高,控制算法更加复杂,需要更强大的计算能力。
* 传感器需求:需要更多的传感器来感知手部的状态和环境信息,例如力传感器、触觉传感器等。
* 材料和制造:需要更轻便、更坚固的材料来制造多指手,同时需要更精密的制造工艺。
* 成本:多指手的成本通常较高,需要降低成本才能实现大规模应用。

总的来说,多指手是家庭服务机器人发展的重要方向,但需要克服诸多技术难题才能实现。

从学术角度看,OWMM-Agent 在真实家庭场景中的应用潜力巨大,例如辅助老年人或残疾人进行日常生活起居,如取药、送水等。然而,实际应用中会面临诸多挑战,包括:
1. 环境的动态性和复杂性: 家庭环境是动态变化的,物体位置会发生改变,光照条件不一,这要求智能体具备更强的鲁棒性和适应性。
2. 非结构化知识的处理: 家庭环境中的物品摆放往往是非结构化的,例如随意堆放的衣物,这要求智能体具备更强的非结构化知识处理能力。
3. 人机交互的自然性: 如何让人与机器人进行更自然、更高效的交互也是一个挑战,需要结合语音识别、自然语言处理等技术。
4. 安全性和隐私保护: 机器人需要在保证安全的前提下进行操作,同时需要保护用户的隐私。
这些挑战需要进一步的研究和技术突破才能克服。

要是环境重建不准,那机器人就变成瞎子摸象了,估计会撞墙、打翻东西,或者根本找不到目标。目标任务没见过?那就更抓瞎了,完全不知道该干啥。我觉得可以加个“学习模式”,让机器人自己探索环境,学习新的任务。或者干脆让它联网,遇到不懂的就问问“云端大脑”。

这让我想到了我家的扫地机器人,经常被袜子、数据线绊住。OWMM-Agent要是在我家,估计能帮我整理房间了,把乱扔的衣服放回衣柜,把书放回书架。不过,万一它误判了我的东西,把我的宝贝手办当垃圾扔了,那可就惨了!所以,我觉得它需要更智能的判断能力,能区分哪些是需要整理的,哪些是需要保留的。

这就像玩游戏,地图没加载完,或者第一次玩这个关卡,肯定会迷路或者不知道怎么过关。我觉得可以让机器人多看看周围,用不同的传感器收集信息,然后综合分析。如果实在不行,就向人求助,让人给它指路或者教它怎么做。关键是机器人要有快速学习和适应新环境的能力。