MCU:全新生成式开放世界基准,助力通用AI评测

通用人工智能研究院发布了 Minecraft Universe (MCU),一个面向通用智能体评测的生成式开放世界平台,旨在革新AI评测范式,推动AI技术发展。

原文标题:ICML Spotlight | MCU:全球首个生成式开放世界基准,革新通用AI评测范式

原文作者:机器之心

冷月清谈:

Minecraft Universe (MCU) 是一个为通用智能体评测而设计的生成式开放世界平台。它通过自动生成无限多样的任务配置,涵盖丰富的生态系统、复杂的任务目标和变化的天气等,全面评估智能体的真实能力和泛化水平。MCU 具有三大核心突破:一是构建包含 3452 个原子任务的超大任务库,支持 LLM 动态扩展任务,并能任意组合生成无限的新任务;二是任务全自动生成,并采用多模态智能评测,利用 GPT-4o 和 VLM 大幅提升评估效率;三是设计高难度、高自由度的任务,深度检验智能体在复杂环境下的泛化和适应能力。实验结果表明,现有 SOTA 模型在面对 MCU 的组合任务和陌生配置时,完成率显著下降,揭示了当前开放世界智能体在泛化、适应和创造能力上的不足。

怜星夜思:

1、MCU 平台提出的『原子任务』组合方式,在多大程度上能够模拟真实世界任务的复杂性和多样性?是否存在某些类型的任务或挑战是这种组合方式难以覆盖的?
2、文章提到现有 SOTA 模型在 MCU 平台上表现不佳,尤其是在泛化和创造性方面。那么,你认为未来提升开放世界 AI 的关键方向是什么?是需要更强大的算力、更先进的算法,还是其他什么?
3、MCU 平台利用 GPT-4o 和 VLM 实现了任务的自动生成和评估。这种自动化评测方式,相比传统的人工评测,有哪些优势和局限性?

原文内容


该工作由通用人工智能研究院 × 北京大学联手打造。第一作者郑欣悦为通用人工智能研究院研究员,共同一作为北京大学人工智能研究院博士生林昊苇,通讯作者为北京大学助理教授梁一韬和通用人工智能研究院研究员郑子隆。


开发能在开放世界中完成多样任务的通用智能体,是AI领域的核心挑战。开放世界强调环境的动态性及任务的非预设性,智能体必须具备真正的泛化能力才能稳健应对。然而,现有评测体系多受限于任务多样化不足、任务数量有限以及环境单一等因素,难以准确衡量智能体是否真正理解任务,或仅是记住了特定解法。


为此,我们构建了 Minecraft UniverseMCU ——一个面向通用智能体评测的生成式开放世界平台。MCU 支持自动生成无限多样的任务配置,覆盖丰富生态系统、复杂任务目标、天气变化等多种环境变量,旨在全面评估智能体的真实能力与泛化水平。该平台基于高效且功能全面的开发工具 MineStudio 构建,支持灵活定制环境设定,大规模数据集处理,并内置 VPTsSTEVE-1 等主流 Minecraft 智能体模型,显著简化评测流程,助力智能体的快速迭代与发展。



  • 论文地址:https://arxiv.org/pdf/2310.08367

  • 代码开源:https://github.com/CraftJarvis/MCU

  • 项目主页:https://craftjarvis.github.io/MCU

  • MineStudiohttps://github.com/CraftJarvis/MineStudio

 

🚨开放世界AI,亟需理想的评测基准!


传统测试基准包含有标准答案的任务(如代码、推理、问答),但开放世界任务 Minecraft 有着完全不同的挑战:


  • 目标开放多样:任务没有唯一解,策略可以千变万化;
  • 环境状态庞杂:状态空间近乎无限,还原真实世界复杂度;
  • 长周期任务挑战:关键任务持续数小时,智能体需长期规划。


在这样的环境中,我们需要的不只是一个评分系统,而是一个维度丰富、结构多元的综合评测框架。


🌌MCU:为开放世界 AI 打造的全方位试炼场


当前已有不少 Minecraft 的测试基准,但它们普遍面临「三大瓶颈」:


  • 任务单一:局限于如挖钻石、制造材料等少数几个场景的循环往复。

  • 脱离现实:部分建模任务甚至超出了普通人类玩家的能力范畴。

  • 依赖人工评测:效率低下,导致评测难以规模化推广。


与之前 minecraft 测试基准对比示意图。


针对以上痛点,MCU 实现了以下三大核心突破:


一:3,452 个原子任务 × 无限组合生成,构筑海量任务空间


MCU 构建了一个覆盖真实玩家行为的超大任务库:


  • 11 大类 × 41 子类任务类型:如挖矿、合成、战斗、建造等;
  • 每个任务都是原子级粒度可独立测试控制、规划、推理、创造等能力;
  • 支持 LLM 动态扩展任务,比如:用钻石剑击败僵尸、雨天徒手采集木材、

在沙漠中建一座水上屋


🔁任意组合这些原子任务,即可生成无限的新任务,每一个都对 AI 是全新挑战!


模拟多样化真实世界挑战。


任务全自动生成 × 多模态智能评测,革新评估效率


GPT-4o 赋能,一句话生成复杂世界:


  • 自动生成完整的任务场景(包括天气、生物群系、初始道具等)。
  • 智能验证任务配置的可行性,有效避免如「用木镐挖掘钻石」这类逻辑错误型任务。


VLM(视觉语言模型)驱动,彻底改变了传统人工打分的低效模式:


  • 基于 VLM 实现对任务进度、控制策略、材料利用率、执行效率、错误检测及创造性六大维度的智能评分。
  • 模型自动生成详尽的评估文本,评分准确率高达 91.5%
  • 评测效率相较人工提升 8.1 倍,成本仅为人工评估的 1/5

任务生成 多模态评测流程图。


三:高难度 × 高自由度的试金石任务设计,深度检验泛化能力


MCU 支持每个任务的多种难度版本,如:


  • 「白天在草原击杀羊」VS「夜晚在雨林躲避怪物并击杀羊」;

  • 「森林里造瀑布」VS「熔岩坑边缘建造瀑布」。


这不仅考验 AI 是否能完成任务,更深度检验其在复杂多变环境下的泛化与适应能力。


📉打破「模型表现良好」的幻象:现有 SOTA 模型能否驾驭 MCU 


我们将当前领域顶尖的 Minecraft 智能体引入 MCU 进行实战检验:GROOT:视频模仿学习代表;STEVE-I:指令执行型控制器;VPT(BC/RL):基于 YouTube 行为克隆训练而成的先驱。结果发现,这些智能体在简单任务上表现尚可,但在面对组合任务和陌生配置场景时,完成率急剧下降,且错误识别与创新尝试是其短板。





SOTA 模型在 MCU 上的测试结果。


研究团队引入了更细粒度的任务进度评分指标(Task Progress,区别于传统 0/1 式的任务完成率,它能动态刻画智能体在执行过程中的阶段性表现,哪怕任务失败,也能反映其是否在朝正确方向推进。


实验发现,当前主流模型如 GROOTSTEVE-IVPT-RL,在原子任务中尚有可圈可点的表现,但一旦面对更具组合性和变化性的任务,其成功率便会骤降。甚至对环境的微小改动也会导致决策混乱。比如在房间内睡觉这个看似简单的任务,仅仅是将床从草地搬到屋内,就让 GROOT 频繁误把箱子当床点击,甚至转身离开现场——这揭示了现有模型在空间理解与泛化上的明显短板。


更令人警醒的是,智能体在建造、战斗类任务中的创造性得分错误识别能力几乎全面落后。这说明它们尚未真正具备人类那种发现问题、调整策略的自主意识,而这正是通用智能迈向下一个阶段的关键。


MCU 的评测结果首次系统性地揭示了当前开放世界智能体在「泛化、适应与创造这三大核心能力上存在的鸿沟,同时也为未来的研究指明了方向:如何让 AI 不仅能高效完成任务,更能深刻理解任务的本质,并创造性地解决复杂问题




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

我觉得自动化评测的另一个优势是客观性。人工评测容易受到主观因素的影响,比如评测者的情绪、经验等等。而 AI 评测可以保证评分标准的一致性,避免人为的偏差。当然,前提是 AI 模型的训练数据没有偏差,否则可能会出现“算法歧视”的问题。所以,如何确保训练数据的公平性,也是一个重要的挑战。

我觉得“原子任务”这个概念挺有意思的,但真实世界的复杂性远不止是简单组合。虽然理论上可以无限组合,但实际效果可能受限于预设的原子任务类型。比如,如果缺乏对社会交互的建模,就很难模拟涉及人际协作的任务。另外,这种方式可能更擅长模拟结构化的任务,对于那些需要高度创造性和不可预测性的任务,可能就有点吃力了。

我觉得提升开放世界 AI 不能只靠算力堆叠。当然,算力很重要,但更重要的是算法的创新。未来的方向可能是让 AI 更好地理解任务的本质,而不是简单地模仿或记忆。比如,引入一些认知科学的概念,让 AI 具备像人类一样的推理、规划和学习能力。另外,如何有效地利用无监督学习和自监督学习,也是一个关键。

从我的角度来看,原子任务的组合更像是一种简化的建模方法,旨在抓住真实世界任务的核心要素。这种方法在提高评测效率和可控性方面有优势,但不可避免地会牺牲一些真实性。我认为,为了更好地模拟真实世界,除了原子任务的组合,还需要引入一些随机性和不确定性,比如加入一些环境噪声或者干扰因素。

个人认为,提升开放世界 AI 的关键在于融合。不能只关注算法或者数据,而是要把两者结合起来。未来的方向可能是构建一个统一的框架,将不同的算法和数据源整合在一起,让 AI 能够根据不同的任务和环境,灵活地选择和调整策略。此外,还需要加强对 AI 的可解释性研究,让我们能够更好地理解 AI 的决策过程,从而更好地改进它。

原子任务的组合确实提供了一种模块化的思路,但关键在于原子任务本身的质量和覆盖度。如果原子任务的设计足够精细,且类型足够丰富,那就能更好地逼近真实世界的复杂性。不过,这种组合方式可能难以模拟一些突发性的、非结构化的事件,比如自然灾害或者社会动荡。此外,如何保证组合后的任务在逻辑上是自洽的,也是一个挑战。

自动化评测虽然有很多优点,但短期内还无法完全取代人工评测。有些任务需要人类的直觉和创造力才能进行评估,比如艺术创作、创新设计等等。另外,AI 评测也难以发现一些潜在的风险或者伦理问题。所以,未来的方向可能是将自动化评测和人工评测结合起来,发挥各自的优势,共同推动 AI 的发展。

自动化评测最大的优势肯定是效率!人工打分太慢太贵了。但问题是,AI 评测靠谱吗?GPT-4o 和 VLM 确实很强大,但它们真的能理解任务的精髓吗?会不会出现“智能作弊”的情况,表面上看起来完成了任务,但实际上并没有真正掌握相关的技能?这需要更深入的研究和验证。

除了算法,我觉得数据也很重要。现在的模型很多都是在有限的数据集上训练出来的,泛化能力自然有限。未来的方向可能是构建更大、更真实、更多样化的数据集,让 AI 能够从更多不同的场景中学习。另外,如何有效地进行数据增强,也是一个值得研究的方向。可以考虑使用生成式模型来生成一些新的训练数据,以提高模型的鲁棒性。