具身智能竞争升级:从模型到基础设施的跃迁

GEN-1爆火背后,具身智能的核心竞争正从模型转向数据、评测与仿真基础设施。

原文标题:Generalist爆火背后:具身智能真正的竞争,已不在模型

原文作者:机器之心

冷月清谈:

文章围绕 Generalist AI 发布的具身模型 GEN-1 展开,认为其意义不只是模型指标提升,更在于具身智能首次逼近“可部署”门槛,行业关注点也随之变化。

1. GEN-1释放的信号:高成功率、更快执行和更强恢复能力,说明具身模型正从“能演示”走向“接近可商用”,竞争不再只是比谁模型更强。
2. 竞争焦点转移:当模型跨过初始可用性门槛后,核心问题变成如何持续提升能力,包括获取更大规模、更高质量、更多样的数据,以及建立“发现问题—补数据—再训练—再验证”的闭环。
3. 数据角色升级:文章引用访谈观点,提出数据不应只被视为静态样本集合,而更像“教育系统”。相比完美轨迹,包含失败、纠错过程的数据,往往更能帮助模型学习鲁棒性。
4. 评测与仿真成瓶颈:具身智能难点不只在训练,还在规模化评测。现实世界缺乏类似自动驾驶“影子模式”的低成本反馈,因此高精度仿真被视为建立评测体系和学习闭环的必要条件。
5. 真正稀缺的是“数据引擎”:未来关键不只是生产数据,而是构建一个由数据、评测、仿真和反馈机制组成的 learning infra,让模型能持续暴露问题并迭代成长。

文章最终判断,具身智能正在从“模型时代”进入“基础设施时代”,谁能搭好学习系统,谁更可能掌握下一阶段主动权。

怜星夜思:

1、问题1:如果具身智能的竞争重点真的从模型转向基础设施,那未来最有价值的公司会更像“OpenAI for robots”,还是更像“英伟达+云服务+测试平台”的组合?
2、问题2:文章提到“先失败再成功”的数据可能更有价值。你认同这种说法吗?如果认同,它会不会改变机器人训练数据的采集方式?
3、问题3:仿真被说成是具身智能的“必备条件”,你觉得仿真最终能替代多少真实世界训练?会不会出现大家过度依赖仿真的问题?
4、问题4:如果评测成了具身智能最大的瓶颈之一,那行业应该优先建立统一标准,还是接受不同场景各自定义评测体系?

原文内容

图片
编辑|Panda


前些天,Generalist AI 发布了 GEN-1 模型,引爆了具身智能领域。该公司 CEO Pete Florence 甚至认为,机器人技术正接近其「ChatGPT 时刻」。



据 Generalist 官方介绍,GEN-1 在多种任务上展现出了高达 99% 的成功率、比以往快 3 倍的执行速度,以及应对意外情况时强大的恢复能力。这些显性的指标背后隐藏着一个更关键的趋势:具身基础模型第一次逼近了一个实质性门槛,它正从单纯的「能演示」阶段,稳步迈向具备商业可行性的「可部署」阶段


这也让人不禁发问:这样新一代的物理 AI 模型,究竟是如何训练出来的?


业内信息透露,这一轮能力跃迁的底层支撑,依赖于一套全新的数据与仿真基础设施体系,其中光轮智能也作为基础设施体系的关键参与者发挥了作用。


是的,GEN-1 的出现预示着:具身智能的竞争阵地,正逐步从模型层迁移至其背后的基础设施层。


并且,这种底层体系的建立已经迫在眉睫。谢晨在访谈中透露了行业的真实温度:「今年头部大厂已经真正下场去卷机器人 VLA。国内的字节跳动、阿里,以及海外的 OpenAI、 DeepMind 和英伟达,推进速度绝对更加激进了。」巨头们的加速入局,直接将竞争的焦点推向了能够支撑模型快速迭代的基础架构层 。


不只是模型能力提升

行业竞争的重心也已改变


分析 GEN-1 带来的影响,我们需要跳出常规的版本升级思维,思考其更深层的意义:GEN-1 第一次将具身基础模型从「证明机器能学」的验证期,切实推到了「接近可部署」的商业化门槛。


在这其中,有三项突破尤为关键:超高的成功率、快速的执行能力,以及面对意外情况时的自我恢复能力。


这意味着行业的关注焦点已经发生转移:从业者现在关心的重点,变成了模型执行是否足够稳定、动作是否足够敏捷,以及在面对现实偏差时是否具备足够的鲁棒性。


顺着这一逻辑推演,一旦模型跨越了初始的可用性门槛,行业面临的最突出矛盾也将随之转化。


接下来的核心挑战在于如何让模型持续且稳定地变强。此时,真正关键的问题会变成:还能不能拿到更大规模、更高质量、更多样的数据?能不能可靠地知道模型到底有没有变好?能不能在更广的场景、更复杂的任务里持续暴露失败模式?最后,能不能形成「发现问题→补充数据→再次训练→重新验证」的反馈闭环?



基于此,我们可以得出一个清晰的判断:现如今,行业真正稀缺的资源,已经超出了更强模型本身的范畴,支撑模型能够持续进化的基础设施能力成为了制胜关键。正因如此,具身智能的竞争正在全面向上游溯源,基础设施层正在成为角逐的核心战场。


这些判断也在张小珺近日对光轮智能 CEO 谢晨的访谈《机器人数据的综述:新时代的石油》中得到了印证,不仅如此,谢晨还在此次访谈中分享了更多有关具身智能数据基础设施的洞见。


模型能力跃迁之后

行业开始追问能力从哪里来


如果说 GEN-1 昭示了能力形态上的显著变化,那么张小珺与光轮智能 CEO 谢晨的那场深度对话,则为我们理解这种变化提供了一大关键视角。


在访谈中,谢晨提出了一个非常深刻的类比。他指出:「如果从第一性原理思考,我认为数据可能应该跟人的教育行业类比,就是数据对于模型或者数据对于智能,有点类似于教育行业对于人的学习。」这个判断意味深长,它表明数据早已超越了单纯的样本集合属性,转变为了学习的信号、经验的传递途径以及能力的塑造方式。



沿着这个框架再去审视当今具身智能前沿, 就会发现前沿模型的成功已经难以简单归结为数据量的堆砌;其核心在于:具身智能第一次开始形成一个真正的学习系统


在这个高度运转的系统中,究竟什么样的数据被采集、什么样的行为被保留、什么样的失败被强化,以及什么样的能力被持续优化,都不再仅仅是随机发生的孤立事件,它们正被高度系统性地构建起来。


这也揭示了一个更为深层的产业演进:数据正在从「静态数据集」加速演进为「动态教育系统」


谢晨将这一过程梳理得十分清晰,从早期机器视觉时代如同填鸭式教育的静态数据集,到后来工业化的大规模数据生产,再到现在大模型时代需要的反馈驱动。他总结道:「数据可能更多地应该被定义为能够帮助模型学习的信号以及相应的经验。」


这种演进的本质,是数据正在朝着「有针对性的指导」方向发展。传统的机器人训练往往追求完美的正确轨迹,但在当前的具身模型训练中,严格意义上的完美变得不再绝对。


谢晨在分享服务具体客户的实践经验时,提到了一点反直觉的认知:「其实最有效的数据是先失败再成功的数据。」在他看来,行云流水般的完美视频未必最有价值,那些种包含纠错过程的负样本,恰恰能够赋予模型在非结构化环境中随机应变的能力。



正是在这样一个全新的发展阶段,行业内开始涌现出一类全新的能力体系。这类能力超越了单纯的数据提供,致力于构造学习过程本身。业内信息显示,在这一类不断壮大的能力体系中,已经明确涵盖了光轮智能这样的关键参与者。他们正在为具身智能打造一整套完备的教育闭环,让模型能够在海量的仿真与现实交互中持续进化。


隐性的瓶颈

评测与仿真基础设施


谢晨认为,当今具身智能的的底层逻辑早已超越了单一的模型算法,同时涵盖了数据、评测以及反馈机制等能力。


这些核心要素共同构成了一套全新的能力体系,即学习基础设施(learning infra)。当模型能力还比较弱的时候,这套系统往往处于隐性状态;然而当模型开始变得强大,这套基础设施系统就会成为制约行业发展的真正瓶颈。


在这套系统中,最为关键的环节无疑是评测


谢晨在访谈中明确指出了这一点:「如果是具身的话,可能现在最关键的问题是评测,尤其是规模化的评测。」



其中的原因非常简单且致命:测不出来的问题,模型永远学不会。


为什么评测如此困难?自动驾驶的评价几乎是「免费」的,因为它有「影子模式」,可以拿司机的操作当老师进行实时对比反馈。但机器人在现实世界不具备这种大规模评价的基础。缺乏规模化的评测,开发者就无法准确判断模型是否真的取得了进步,无法系统性地发现模型存在的失败模式,自然也无法形成有效的反馈闭环。正如谢晨所强调的:「如果这个解决不了,大家就很难去衡量具身智能的提升。这是一个核心。」


在仿真中建立一套类似自动驾驶的「影子模式」评价体系,是具身智能跨越预训练时代的唯一路径。


与此同时,数据本身的结构也在发生着深刻的变化。具身智能的发展路径正在摆脱对单一硬件本体数量的依赖,走向一条全新的演进路线。


谢晨观察到:「最多的具身数据一定不是本体商提供的。」这意味着,支撑通用具身智能最大规模的数据,一定会走向本体无关。只有构建本体无关的数据闭环,才能真正打破硬件采集的物理限制,为通用大模型的训练提供海量且多样的燃料。


在这样的演进路线下,仿真的行业地位也随之发生了根本性的改变。过去,仿真往往被视作模型与算法训练的辅助手段;如今,仿真已然成为整个系统成立的前提条件


谢晨在定义仿真时给出了极其严格的标准:「需要在足够物理准确的环境中,能够可复现、可修正地去产生相应的行动,并且观测到其结果。


对于机器人而言,仿真已经去除了「可选项」的标签,成为了「必备条件」。谢晨非常笃定地表示:「我可以很肯定地说,仿真对于机器人是一个必备条件,没有仿真这件事肯定做不成。」


他还进一步指出,如果要做大规模、可重复的评测,且同时在千百个不同场景中随时验证算法演进,「我认为唯一的方案只有通过仿真。」


缺乏了高精度的仿真环境,行业就无法建立起真正可规模化的评测与学习闭环。这促成了一个关键的产业认知转变:优秀的模型本身已经很难成为单一的竞争壁垒,决定具身智能能力的核心要素,已经转移到了模型背后那套提供数据、仿真与评测支撑的「数据引擎」上


真正稀缺的不是数据

而是「数据引擎」


在这样的理论框架下,行业下一阶段真正稀缺的能力,已经摆脱了单纯对数据量或数据供给本身的依赖。目前的焦点在于:能否持续构造有效的学习信号,能否系统性暴露失败模式,能否将现实问题转化为评测问题,进而形成持续迭代的反馈闭环。


也正是在这个意义上,谢晨在访谈里对「data factory」和「data engine」的严格区分显得越来越重要。


前者带有流水线交付的特征,后者则作为一个反馈驱动、评测驱动的学习引擎存在。


谢晨明确表示:「我更希望把它定位成一个 data engine。」他进一步解释道:「data factory 有点偏工厂,其运作模式仍停留在流水线层面,不仅缺少关键技术与系统化能力,也未构建起反馈驱动的迭代机制。data engine 则是一个反馈驱动的学习引擎。」行业下一阶段真正渴望的,正是这种能够持续生产学习信号的系统,仅仅负责生产样本的工厂难以满足未来的演进需求。


进一步说,终局的数据系统会高度类似于教育系统。谢晨推断:「终局的数据公司可能跟教育公司长得很像。」他也直接指出量贩式的 data factory 将会被淘汰:「data factory 还是偏量贩式…… 我认为这个路径可能很快就会不需要了。」真正的终极需求将聚焦于能够自我进化的数据引擎、仿真环境和评测系统。



在这个意义上,像光轮智能这样的公司,其生态位也随之发生变化。它超越了传统意义上的数据供应商角色,演变为以数据、仿真与评测为核心,驱动模型持续学习的基础设施系统供应商


谢晨在定义自身企业时提到:「我们是一套以系统驱动的、以系统和评测为中心的…… 通过帮助客户的模型发现问题,并且基于这些有效的反馈和经验帮助他们提升的能力。」


从模型时代

进入基础设施时代


GEN-1 显然意味着一个新的起点,它尚未解决所有难题,也未能让具身智能一夜之间跨入大规模商业化阶段。


但它已经足够说明一件事:具身智能正在经历从「模型驱动」向「基础设施驱动」的深刻转型。在这个阶段里,决定智能上限的关键要素已经转变为那套让学习持续发生的系统,单独的一个更强模型无法支撑起行业的未来发展。


谢晨曾把仿真比作「时间机器」,认为它只是个加速器。但现在他认为,对于机器人而言,仿真是一个「先决条件」。这种认知的转变,本质上也是整个行业从模型狂热转向基础设施深耕的缩影。谢晨在总结这套基础设施的核心地位时强调:「我觉得仿真是真正能够解决具身数据问题的基石,或者说仿真是整个具身智能学习所需要的前提条件。」



面向未来,他描绘了一个更具科幻感却也极为理性的终局形态:「智能越强,对于数据的饥渴程度反而会成倍增加。到了最后,AI 可能会像马斯克设想的那样,处在一个庞大的仿真环境中,基于既定的成功指标,不断地自我博弈、修炼内功。」这也再次印证了一个结论:Generalist 的跃升只是结果,基础设施的厚度构成了其背后的真正原因。


© THE END

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

我觉得除了技术能力,更重要的是要有解决问题的能力和创新思维。Data Engine 的目标是让AI更好地学习,所以需要不断思考如何设计更有效的学习信号,如何减少数据偏差,如何提高模型的泛化能力。简单来说,就是要有“工匠精神”,不断打磨和优化系统,让它变得越来越智能。

我觉得这个说法很有道理!完美的成功案例固然重要,但失败的经验往往能让我们更深刻地理解问题的本质。就像我以前学编程的时候,遇到bug就头疼,但真正把bug调试出来,印象反而更深,下次遇到类似问题就能更快解决了。这种“失败-成功”的数据对于AI来说,就像人类的挫折教育,能提升模型的鲁棒性和适应性。

仿真确实太重要了!想想看,在现实世界中进行机器人训练,成本高昂,效率低下,还存在安全隐患。有了仿真环境,我们就可以大规模地进行实验,快速迭代算法,而且不用担心损坏硬件。这就像飞行员在模拟器上练习飞行,可以大大缩短训练周期,降低风险。

从控制论的角度来看,这很明显是利用了负反馈机制。模型从失败中学习,本质上是在调整自身的参数,以避免再次犯同样的错误。失败提供了一个明确的“误差信号”,指引模型向正确的方向进化。这种机制在很多领域都有应用,比如PID控制,就是通过不断地修正误差,最终达到稳定状态。

从学术角度来看,仿真提供了一个可控的实验环境,可以对不同的算法和策略进行严格的比较和评估。此外,仿真还可以用于生成大量的训练数据,特别是那些在现实世界中难以获取或成本高昂的数据。然而,仿真的一个主要挑战是“现实差距”(Reality Gap),即仿真环境与真实世界之间存在的差异。如何缩小这种差距,提高仿真结果的泛化能力,是目前研究的热点。

Data Engine的核心竞争力我认为在于它的迭代和优化能力。它不是简单的数据流水线,而是一个能够根据模型反馈不断进化、提高数据质量的智能系统。AI时代,需要既懂AI算法,又懂数据工程,还要有领域知识的复合型人才才能在Data Engine领域脱颖而出。他们需要能够设计有效的反馈机制,评估数据质量,并不断优化数据生成和处理流程。

可能说有点抖机灵哈,这不就是“失败是成功之母”的AI版本嘛!想想我们小时候学走路,摔跟头是必然的,但每次摔倒都能让我们更好地掌握平衡。AI也是一样,经历过失败才能更好地适应复杂多变的环境。

机遇就是可以低成本试错,快速提升AI能力。挑战就是仿真环境再逼真,也无法完全模拟现实世界的复杂性,可能会导致模型在仿真环境中表现良好,但在现实中却表现不佳。所以,如何在仿真和现实之间找到平衡,是一个需要认真思考的问题。

从技术栈的角度看,Data Engine 需要强大的数据处理、机器学习和云计算能力。核心竞争力体现在能够自动化地发现数据中的模式和规律,并根据这些模式来改进数据生成和标注过程。想要在这个领域有所作为,需要深入理解机器学习的底层原理,熟悉各种数据处理工具和框架,并具备良好的系统设计能力。