机器人AI的“叉勺”困境:Sergey Levine为何坚持真实数据的重要性

Sergey Levine深度解读机器人训练数据:替代数据如“叉勺”,难助通用AI。真实世界数据是关键,人工干预可能成瓶颈。

原文标题:关于机器人数据,强化学习大佬Sergey Levine刚刚写了篇好文章

原文作者:机器之心

冷月清谈:

大型语言模型(LLM)和视觉语言模型(VLM)的成功依赖海量真实世界数据。然而,在机器人领域,训练视觉-语言-行动(VLA)模型所需的真实交互数据成本高昂,促使研究者们寻求替代数据方案,如仿真、人类视频和手持夹爪设备。
加州大学伯克利分校的强化学习大牛Sergey Levine在其文章中指出,这些替代方案虽有意义,但本质上是一种“妥协”——它们如同一个“叉勺”,试图同时兼顾低成本和高性能,最终却可能导致训练出的基础模型无法发挥其强大的泛化潜力。
Levine认为,替代数据引入的“领域差异”会限制模型学习最优策略的空间,且随着模型能力的增强,这种差异反而会被放大。试图通过“隐藏信息”来弥补差异,等同于削弱了模型整合复杂信息和提取细微模式的能力。更重要的是,它会让机器人学习“人类如何解决问题”,而非“机器人如何高效完成任务”。
因此,文章强调,真实世界数据是构建具有广泛泛化能力的机器人基础模型不可或缺的要素。替代数据应被视为补充知识的来源,而非替代真实经验。此外,任何在可学习系统中通过人工设计引入的“归纳偏置”,都可能成为系统性能和扩展性的瓶颈。

怜星夜思:

1、文章里提到了除了机器人数据,还有其他“叉勺”现象,比如手工设计的部分或人为设定的约束。大家觉得在机器学习领域,还有哪些常见的例子可以被称为“叉勺”?这种“鱼与熊掌”的困境在实际开发中是不是真的无处不在?
2、文章强调真实世界数据的重要性,认为它是解决机器人泛化难题的关键。但在现实中,获取大量高质量、多样化的机器人真实数据,其成本和难度依然巨大。除了直接靠“砸钱”和“堆硬件”,大家觉得未来有没有可能出现一些创新的、更经济高效的方法来大规模收集真实机器人数据?比如通过众包、模拟环境的某种突破性进步,或者数据合成技术?
3、Sergey Levine提到,随着模型能力增强,它反而能更好地分辨替代数据与真实数据之间的差异。这是否意味着,未来我们开发AI时,需要更少地去“教”模型怎么做,而是更多地去提供纯粹的数据,让它自己“悟”?这种趋势对于AI工程师们来说,是挑战还是机遇?

原文内容

机器之心报道

机器之心编辑部


我们知道,训练大模型本就极具挑战,而随着模型规模的扩大与应用领域的拓展,难度也在不断增加,所需的数据更是海量。


大型语言模型(LLM)主要依赖大量文本数据,视觉语言模型(VLM)则需要同时包含文本与图像的数据,而在机器人领域,视觉 - 语言 - 行动模型(VLA)则要求大量真实世界中机器人执行任务的数据。


目前而言,Agent 是我们走向通用人工智能(AGI)的重要过渡。训练 Agent 则需要带有行动标签的真实交互数据,而获取这类数据的成本远比从网页上获取文本与图像的成本高昂得多。


因此,研究者一直在尝试寻找一种替代方案,来实现鱼和熊掌兼得的效果:既能够降低数据获取成本,又能够保证大模型训练成果,保持基础模型训练中常见的大规模数据带来的优势。


加州大学伯克利分校副教授,Physical Intelligence 的联合创始人,强化学习领域大牛 Sergey Levine 为此撰写了一篇文章,分析了训练大模型的数据组合,但他却认为,鱼和熊掌不可兼得,叉子和勺子组合成的「叉勺」确实很难在通用场景称得上好用。




  • 博客标题:Sporks of AGI 

  • 博客链接:https://sergeylevine.substack.com/p/sporks-of-agi


替代数据


尽管在视觉感知和自然语言处理任务中,真实世界数据一直被视为首选,但在智能体领域,尤其是机器人智能体(如视觉 - 语言 - 动作模型,VLA)中,研究者们始终在尝试寻找「替方案」—— 即能以较低成本获取的代理数据,来代替昂贵的真实交互数据,同时仍具备训练基础模型所需的泛化能力。本文聚焦于机器人领域,但其他任务也基本遵循类似思路,只是采用了不同形式的替代数据。


仿真是一种经典策略。设想我们可以在《黑客帝国》般的虚拟环境,或高保真的电子游戏中训练机器人,就有可能避免对真实世界数据的依赖。


虽然这些方案产生了大量令人兴奋且富有创意的研究成果,但若从结构上可以将它们统一描述为:人为构建一个廉价代理域与真实机器人系统之间的映射关系,并基于这一映射,用廉价数据替代真实任务域中的昂贵数据。主流的几种方法如下:


仿真(Simulation):


「仿真到现实」(sim-to-real)的方法依赖人类设计者指定机器人的训练环境,并提供相应资源(如物理建模、视觉资产等)。机器人在仿真中学习到的行为很大程度上取决于这些人为设定。实际上,最有效的仿真往往并不追求对现实的高度还原(这本身极具挑战),而是故意引入各种环境变化,如随机的石板路或不同高度地形,以提高机器人鲁棒性。这种设计方式不仅定义了任务「是什么」,也间接规定了任务应「如何完成」。


人类视频(Human Videos):


基于人类视频训练机器人技能的方法,通常需要在人体与机器人之间建立某种对应关系,例如手的位置或手指的抓取动作。这种映射方式预设了一种具体的任务完成策略(例如通过「握持 - 搬运」的方式),同时也必须跨越人类与机器人在动力学和外观上的差异鸿沟。


手持式夹爪设备(Hand-held Gripper Devices):


这种方法并非在训练时构建映射关系,而是通过物理手段直接建立人机之间的映射。具体做法是让人类使用手持设备来模仿机器人夹爪完成任务。这种方式颇具吸引力,因为参与者必须以类似机器人的方式执行任务。但这同样隐含着一套「动作设定」前提:例如,设备默认机器人能在具有 6 自由度的操作空间中,仅使用手指完成任务,且不暴露机器人与人类在运动学结构或外观上的差异。


以上方法都产生了大量有意义的研究成果,并在实践中取得了诸多成功案例。然而,从长远看,我认为这些方法在本质上都代表了一种妥协 —— 这种妥协可能会削弱大规模学习模型原本所具备的强大能力与泛化潜力。


交叉点


在数据采集过程中,人类的判断显然无法回避:即便是最真实、最纯粹的「白板式」学习方法,也必须由我们来设定模型应完成的任务目标。然而,当我们试图规避对真实数据的依赖而做出的一些设计决策,往往会带来更大的问题,因为这些决策本身就限制了解决问题的方式。


每存在一个领域差异(如模拟环境、视频等),我们所能采用的解决方案就被限定在一个交集之中:



随着模型能力的不断增强,其区分替代数据域与真实世界目标域的能力也在提升(即图中黄色圆圈收缩),这就导致行为策略的交集区域不断缩小。


我们可以尝试通过隐藏信息来对抗这一问题,例如减少观察空间、引入领域不变性损失、限制机器人可用的摄像头视角等等。几乎所有用于缓解领域差异的方法归根结底都是某种形式的信息隐藏。


但这种做法再次削弱了基础模型的最大优势 —— 即整合复杂信息来源、提取人类难以察觉的细微模式的能力。


换句话说,随着模型变强,黄色圆圈变小,而任何试图阻止这一趋势的做法,最终都等同于削弱模型能力。我们只能通过「让模型变傻」,来「欺骗」它不去意识到自己身处「矩阵」之中。


这个交集区域的大小,还严重依赖于我们在构建替代数据时所做的设计决策 —— 设计得越糟糕,绿色圆圈(真实世界中成功策略的空间)与红色圆圈(可用于训练的替代策略空间)之间的交集就越小。


实际操作中,我们往往围绕某几个特定应用场景,精心设计替代数据的获取方式,以尽可能缩小在这些场景下与真实机器人的差异,使得「良好行为」在这两个系统中尽量一致。


但这种一致性在这些应用场景之外并无任何保障。


本质上,当我们用人类的数据来训练机器人基础模型,再让它面对新的任务时,它会试图预测「人类会如何解决这个问题」,而不是预测一个「机器人能如何高效完成这个任务」的策略。


这再次背离了基础模型的核心优势 —— 即具备广泛通用性和强泛化能力,能够将训练模式推广到全新领域。


而如今,每进入一个新领域,我们就需要投入更多的人工工作来改善替代数据与真实世界之间的对应关系;模型原本的泛化能力,反而成了我们的负担 —— 它会放大替代数据与真实机器人之间的差距,使得我们在应对新场景时更为艰难。



当我们真正希望优化机器人的最优行为(例如通过强化学习)时,以上所有问题都会进一步加剧。


真实世界数据


当我们试图回避使用真实世界数据的需求时,实际上是在追求一种鱼与熊掌兼得」的方案:既希望像模拟或网络视频那样成本低廉,又希望像在大规模真实数据上训练出的基础模型那样高效。


但最终得到的,往往只是一个叉勺—— 在极少数符合我们假设的场景中,它既能当叉子用,也能当勺子用,但大多数时候,它只是一个布满孔洞的蹩脚勺子,或一个迟钝无力的叉子。


在机器学习中,一贯最有效的方法是让训练数据尽可能贴近测试环境。这才是「真实的」—— 能够教会模型世界真实运行机制的数据,从而让模型能胜任任务,提取出其中的潜在规律;这些规律往往复杂而微妙,连人类都难以察觉,而模型却能从中进行归纳推理,解决复杂的新问题。


当我们用替代数据代替真实数据时,其实是在做「次优之选」:只有在某些特定条件下,它才能勉强模拟真实情况。


就像你不可能通过单靠对着墙打球,或者看费德勒打网球的录像,就成为一名真正的网球高手 —— 尽管这两者确实复制了部分专业体验;同样的,机器人如果从未在真实世界中「亲自下场」,也无法真正掌握如何在真实世界中行动。


那么,我们应从中得到什么启示?


最关键的一点是:如果我们希望构建能够在真实物理世界中具备广泛泛化能力的机器人基础模型,真实世界的数据是不可或缺的,正如 LLM 和 VLM 在虚拟世界中所展示的强大泛化能力一样。


在构建训练集时,如果我们在广泛而具代表性的真实机器人经验之外,加入包括人类演示、甚至仿真在内的多样化数据源,往往会带来帮助。事实上,可以坦然地将替代数据视为补充知识的来源 —— 它的意义在于辅助,而非替代真实的实践经验。


在这种视角下,我们对替代数据的要求也将发生根本性的转变:我们不再追求它在形态上尽可能接近真实机器人(比如使用手持夹爪,或让人模仿机器人动作录视频),而是将其视为类似于 LLM 预训练数据的存在 —— 不是直接告诉智能体该做什么,而是提供关于「真实世界可能发生什么」的知识来源。


叉勺(Sporks)


在本文中,我探讨了「替代数据」这一「叉勺」 —— 它试图在避免大规模真实数据采集成本的前提下,获得大规模训练的收益。但在人工智能研究中,替代数据并不是唯一的一把「叉勺」。


其他「叉勺」还包括:结合手工设计与学习组件的混合系统,利用人为设定的约束来限制自主学习系统不良行为的方法,以及将我们对问题求解方式的直觉,直接嵌入神经网络架构中的模型设计。


这些方法都试图「兼得」:既要享受大规模机器学习带来的优势,又要规避其高数据需求或繁琐目标设计的代价。这些方法有着相似的核心:它们都是通过某种手工设计的归纳偏置,来应对训练数据不完全的问题。


因此,它们也都面临同样的根本性缺陷:


需要我们人为地将「我们以为我们是怎么思考的方式」编码进系统中。


在任何可学习系统中,任何不是通过学习获得的、而是人工设计的部分,最终都将成为系统性能的瓶颈。


「叉勺」之所以吸引人,是因为它们让我们觉得:只要让模型按我们设定的方式解决问题,就能克服人工智能中的重大挑战。但事实是,这样做反而让我们的学习系统更难以扩展 —— 尽管我们最初的意图正是为了提升其扩展性。


更多信息,请参阅原博客。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

第二个问题,我觉得虽然听起来前景很美,但实际操作起来太难了。现在工业界那些在搞机器人大模型的公司,哪家不是“砸钱堆硬件”?因为真实世界的数据质量要求太高了,不光要量大,还要多样性足、标注精确、能覆盖各种极端情况。你说的众包,怎么保证数据的可靠性和一致性?模拟环境再突破,物理引擎的仿真度也永远不可能100%覆盖真实世界的无限复杂性。数据合成技术嘛,现在主要还是在视觉层面上做得比较好,但涉及到物理交互和动力学,还差得远。短期内,我看“成本高昂”这个魔咒还很难打破。可能只有等通用机器人真的成为基础设施,市场需求和规模效应上来了,才有可能降低单次数据获取的边际成本吧。

关于第三个问题,Sergey Levine的观点确实引人深思。我认为这预示着AI开发范式的转变:从“规则驱动”和“特征工程”逐步转向“数据驱动”和“模型自学习”。当模型强大到能够自行从海量原始数据中提取复杂且人类难以察觉的模式时,我们就不应该再用我们有限的认知去限制它。这意味着AI工程师的角色将从“告诉模型怎么做”转变为“提供高质量数据和设计适合模型自我学习的架构与目标”。挑战在于,我们需要对数据的质量、量级以及模型的能力边界有更深刻的理解。机遇则是,通过释放模型的这种“自悟”能力,我们有望解决目前许多人工设计方法难以企及的复杂问题,实现真正的通用智能。

问得好!我个人觉得,除了那些高大上的学术研究,有没有可能搞一些像游戏里那样,让普通玩家(或者说爱好者)参与进来的模式?比如,把一些简单的机器人任务变成一个类似“众筹数据”的游戏,玩家通过手机或者连接家里的摄像头来控制一个虚拟机器人完成任务,然后这个数据可以反哺给科研机构。当然,这只是个YY,真实世界的复杂性肯定比游戏高得多。或者简化机器人本体,让它能进入千家万户,成本低到随便丢,然后收集海量分散式数据,再通过先进的AI技术把噪音过滤掉。哎,反正我觉得现在机器人还是太“高冷”了,得更接地气才能积累数据。

哈哈哈,这题我会!最经典的“叉勺”就是那种为了降低研发成本,在通用硬件上强行跑一些特定场景AI模型的做法啊!比如,你非要在手机芯片上搞个什么“端侧超分辨率”AI,还想达到专业显卡的效果。结果呢?不是效果“布满孔洞”就是帧率“迟钝无力”呗!还有什么呢?比如那种说是“智能家居中枢”,但其实所有功能都是几个IFTTT规则堆出来的产品,想啥也都能干,结果啥也干不好,这不就是智能家居里的“叉勺”嘛!在实际开发里,想“鱼与熊掌兼得”是常态,结果大部分时候都是“两头不讨好”,只能说,想走捷径真是太难了。

说到“叉勺”,我想到我们公司之前做的一个智能客服系统。为了快速上线,我们一开始大量使用了基于规则的意图识别和问答,辅以少量机器学习。这就像是想用“规则”这把叉子,快速解决一些已知问题。后来随着用户增多,规则维护成本高居不下,而且很多新问题规则覆盖不到,系统就变得“迟钝无力”了。现在我们更倾向于端到端的深度学习,虽然前期数据投入大,但泛化能力强多了。这种“短平快”和“长远发展”的矛盾,是不是也算一种“叉勺”困境?好像在很多工程领域都容易遇到,为了快速验证或者降低初期成本,不自觉地就用了这种“折衷方案”。

哈哈,这不就是AI终于进化到“嫌弃”人类了嘛!以前我们还得苦哈哈地给它喂各种处理好的数据、告诉它这个是狗那个是猫,现在AI说:谢谢你,但我自己能从原始像素里看出它是狗是猫,而且比你还准。这感觉就是,我们辛辛苦苦铺好了红毯,结果它直接从天上跳下来了。挑战嘛,就是我们这些“老家伙”得赶紧学新东西,别抱着老一套不放。机遇嘛,可能以后AI模型就是个“黑箱”超人大脑,我们只需要给它海量数据和电费,然后它就能解决所有问题了,我们就可以躺平数钱了……想得美!不过说正经的,我觉得这只是趋势,人类的创造力和对问题的定义能力,包括在数据和模型设计层面的创新,永远都是不可或缺的。所以,与其说是“被嫌弃”,不如说是合作模式升级了。