Dexmal团队突破VLA模型实时运行瓶颈:单张4090实现30fps,探秘具身智能高速控制框架

范浩强团队RT-VLA:单张4090实现VLA大模型30fps,让机器人实时控制触手可及。

原文标题:单张4090跑到30fps,范浩强团队让VLA实时跑起来了

原文作者:机器之心

冷月清谈:

具身智能公司Dexmal原力灵机(由范浩强团队创立)在一篇名为RT-VLA的论文中公布了一项突破性研究:他们成功将Visual-Language-Action (VLA) 大模型Pi0在单张消费级RTX 4090显卡上运行到30fps,颠覆了VLA模型高延迟的固有印象。
为实现这一目标,研究团队深入分析了Pi0模型的结构与计算流程,通过融合、并行优化等底层技术,将推理时间从100多毫秒大幅缩减至27毫秒(双视角),显著优于传统自动优化方案。所有优化后的代码已在GitHub开源,方便开发者“开箱即用”。
这项实时运行能力有效解决了机器人VLA大模型在实时控制中面临的延迟痛点。例如,机器人能够以不足200毫秒的端到端反应时间成功抓取自由下落的笔,表现堪比人类。
在此基础上,研究者设计了一套基于GPU的机器人控制框架,赋予机器人三种不同速度的“反应神经”:超快反应(480Hz,力传感器)、视觉反应(30Hz,摄像头)和智能思考(<1Hz,语言规划)。该框架最高有望实现480Hz的机器人控制信号生成。展望未来,该研究为VLA模型在边缘计算算力下追求更快“眼睛”、更大“大脑”和更极限“反应”速度的可能性打开了大门,引领机器人实现“又聪明又快”的全面具身智能。

怜星夜思:

1、论文里用的是RTX 4090,性能确实猛。但在实际的机器人部署中,成本也是个大问题。大家觉得未来有没有可能在更低功耗、更便宜的硬件上实现类似的实时VLA效果?比如边缘AI芯片或者特定优化过的嵌入式系统,这样才能真正普及开来吧?
2、这个“超快反应”的480Hz控制框架听起来很厉害,但如果机器人反应速度这么快,会不会在人机协作或者复杂环境中带来一些潜在的安全隐患?比如突然的快速动作,人类来不及预判或规避,这个问题要怎么平衡好效率和安全呢?
3、文章提到未来可能把VLA模型从3B扩展到7B甚至更大的模型。模型大了,虽然“聪明”了,但保持实时性肯定更难吧?除了文中说的那些优化,大家觉得为了在更大模型上实现实时高性能,还会遇到哪些新的技术挑战,或者需要引入哪些新的优化思路呢?

原文内容


VLA(Visual-Language-Action)大模型到底能跑多快?在这篇 RT-VLA(Real-time VLA)论文中,来自 Dexmal 原力灵机(由范浩强等人联合创立的具身智能公司)的研究者公布了一个反直觉的发现:它可以非常快!


具体而言,对于常用的 Pi0 级别的模型(30 亿参数),在单张消费级显卡 RTX 4090 上最快可以跑到 30fps。这和大家对于 VLA 模型动辄要几十甚至上百毫秒的刻板印象形成鲜明对比。


为实现这点,研究者深入分析 Pi0 的模型结构,通过一系列优化把用时从开始的 100+ ms 进行数倍缩减(针对双视角,甚至已经达到 27ms),显著强于 openpi 里采用的基于 jax 的自动优化的结果。


此外,研究者基于现有结果探讨了未来的“实时”运行的 VLA 结构,设计出一个有潜力最高实现 480Hz 闭环控制的算法框架。目前,优化后的代码已在 GitHub 开源,全部实现均打包为一个只依赖于 torch 和 triton 的单一文件,大家可在自己的项目里 “开箱即用”。这是 Dexmal 原力灵机 之后的又一开源代码工作。



  • 论文名称:Running VLAs at Real-time Speed

  • 论文链接:https://arxiv.org/abs/2510.26742

  • GitHub:https://github.com/Dexmal/realtime-vla


解决什么痛点?


现在机器人 VLA 大模型动辄几十亿参数,虽然有不错的泛化能力,但是延迟问题总是绕不过。即使是在高端推理显卡上,高达百毫秒级别的推理时间让机器人的实时控制困难重重,就像一个人看见东西后要愣一下才做出动作。


如果我们能够把模型运行到和相机一样快的频率(25fps、30fps 甚至 50fps),那么就可以在完全不丢帧的情况下处理视觉信息,让 VLA 模型的实时运行成为可能。


如何实现?


Pi0 模型计算流程图示,它主要包括 1 个视觉编码器,1 个编码器和 1 个解码器;所有这些又可进一步分解为一系列的矩阵乘法和标量运算。


对于 Transformer 这类模型,当它进行单次推理(比如只处理一个问题或一张图片)时,其内部计算过程实际上是由一长串零碎的 “矩阵计算小任务” 组成;而像 Pi0 这种采用 “流匹配” 技术的模型,需要反复迭代十次才能得出最终结果,每一次迭代本身就包含几十层计算。这样算下来,整个推理过程涉及数百层、上千个操作。任务如此零碎,让计算优化变得异常困难。


本文研究者通过深入分析模型推理过程中的计算问题,融合和并行优化每一个计算步骤,清除了推理方面的大部分障碍,再加上其他方面的优化,最终把整个 VLA 模型跑进了所需的时间之内。


这就像给了 VLA 大模型一份 “高性能 AI 大脑调校指南” ;它通过一系列深入的底层优化,把笨重的 AI 大模型变成能跑实时任务的 “闪电侠”,并在此基础上,构想出一个能同时具备条件反射、视觉反馈和智能思考的下一代机器人控制系统。


效果展示



上图所示的任务是抓取一支自由下落的笔。 这个任务对反应时间的要求极为苛刻。机器人观察到笔开始下落后,必须在极短的时间内做出反应并在正确的时间启动抓取动作,快一点或者慢一点都会导致任务失败。


最终呈现的效果是 从 “看到笔” 到 “执行抓取” 的端到端总反应时间被缩短到 200 毫秒以内,这大概对应到一个 30 cm 左右的最短下落距离。而人类在这个任务上的一般表现也不过如此。


下一步规划



基于上述取得的成果,研究者设计了一套完整的、围绕 GPU 打造的机器人控制框架,它能驱动 VLA 大模型,像 “直播” 一样对机器人进行流式的实时控制,让机器人拥有 3 种不同速度的 “反应神经”:


  • 超快反应(480Hz):处理来自力传感器等高速信号。就像你的手一碰到烫的东西会瞬间缩回,不需要经过大脑思考。这部分由模型的 “解码器” 负责,能每秒生成 480 次控制指令。

  • 视觉反应(30Hz):处理来自摄像头的画面。就像你看着球飞过来,用眼睛跟踪并判断落点。这部分由模型的 “编码器” 负责。

  • 智能思考(<1Hz):处理语言理解和任务规划。就像你在执行任务时,还能分心听一下队友的指令或者自己琢磨一下策略。这部分速度最慢,但赋予了机器人更高的智能。


通过分析与实验,这个框架下一步规划最高能以 480Hz 的频率生成机器人控制信号;这个速度,已经摸到了实现基于力反馈进行控制的门槛。


未来展望


机器人有没有可能达到 “又聪明又快” 的效果?这篇文章只是一个起点。针对未来不断增加中的边缘计算算力,研究者展望了更进一步的可能性:


  • “眼睛” 最快能有多快?从 30fps 到 60fps,甚至 120fps,是否有更多的任务变得可行?

  • “大脑” 最大能有多大?在实时性约束下,我们是否可以从 3B 模型,走向 7B,13B 模型,甚至更大模型?

  • “反应” 速度的极限在哪里?在 VLA 框架下,我们是否还可以建立亚毫秒、甚至微秒级的反馈回路?


从这篇文章出发,一个能够参与实时控制 VLA 的世界的大门正在被打开。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com


关于“480Hz控制框架在人机协作中带来安全隐患”的问题:这是一个非常关键但也复杂的问题。高速响应能力固然提升了机器人在动态环境中的作业效率,但确实可能对人机协作的安全性提出挑战。解决方案通常 involve 多模态感知(如视觉、雷达、触觉)以提前预测人类意图,Failsafe 机制(如急停按钮、安全围栏),以及“预测性”安全算法,即在机器人规划路径时就考虑人类的潜在活动区域。此外,透明度也很重要,让机器人能够解释其行为决策,增加人类的信任度和可预期性。

便宜硬件上跑实时VLA”?emmm,就像我们现在玩游戏,高端显卡肯定畅快淋漓。但很多时候,降低一下画质,旧点儿的显卡也能玩。VLA也是同理,未来的“画质”肯定能调。可能刚出的机器人是“4090尊享版”,过几年就是“低配普及版”了,到时候肯定有解决方案。毕竟谁不想自己的机器人能又便宜又聪明地干活呢?等等党永远不亏!

问到“机器人反应太快安全吗”:我觉得吧,就跟人开车一样,你反应快是好事,但速度太快肯定容易出事。机器人也需要“驾照”和“行驶规则”吧?它的480Hz可能更多用在一些工业内部的超精准操作,或者非人机交互的特定场景。如果是在人旁边工作,就得有各种感应器和降速策略。与其担心它太快,不如担心它“不够聪明”,判断失误。真正的安全,是建立在“聪明且可预测”的基础之上的。

想到“机器人反应太快会不会有安全隐患”:你看F1赛车,速度快得惊人,但赛车手和工程师会在安全方面做足工作。机器人也是一个道理,480Hz是它的极限反应速度,但在实际应用中,可以通过软件限制它的最大加速度、最大速度,以及设置安全距离。更重要的是,还得有视觉识别、障碍物规避这些“眼睛”和“避险机制”来配合,不是一味地快,而是“该快则快,该慢则慢,该停则停”,关键在于智能的决策。

讨论“更大VLA模型如何实现实时性”:我觉得这就像手机芯片的发展。你看以前手机运行大型应用也卡,现在各种AI加速算子、NPU都加进来了,跑大模型也越来越流畅。VLA模型未来肯定也会有专门的硬件加速器来支持,或者新的模型架构本身就更适合实时推理。可能到时候就不是纯粹靠堆算力,而是通过更巧妙的“硬件+软件+算法”协同设计来解决了。AI领域的发展总是超出我们想象的。

针对“更大VLA模型保持实时性的技术挑战”:当模型参数量从3B提升至7B、13B甚至更高时,首要挑战是推理延迟的二次方级别增长(对于Transformer架构),以及模型巨大带来的显存压力。除了文中提及的计算融合与并行优化,我们可能需要更先进的量化压缩技术(如混合精度量化、LLM.int8())、更高效的稀疏化训练与推理技术、分布式推理框架(如ZeRO Offload),甚至探索 MoE (Mixture of Experts) 架构在具身智能模型中的应用,以激活更大数据量的模型但仅计算一小部分。此外,编译器级的优化,例如 TVM、MLIR 等对模型图进行深度优化,也将变得更加重要。

回复关于“在更便宜硬件上实现实时VLA”:我觉得肯定能。现在很多手机都能跑一些轻量级的AI模型了,未来机器人肯定也得往这方向走。4090再强,也不可能每个机器人里都塞一张吧?可能不是完全跑到30fps,但跑个10fps、15fps,满足大部分日常任务也够了。关键是硬件厂商得跟上,出一些专门为机器人AI定制的低成本芯片。

针对“有没有可能在更低功耗、更便宜的硬件上实现类似的实时VLA效果?”:从硬件层面看,目前RTX 4090的TFlops(FP32)性能和内存带宽确实是消费级顶尖,但具身智能的趋势是走向边缘部署。这需要研究模型量化(如FP16/INT8甚至二值化)、剪枝,以及针对特定架构(如NPU、FPGA或ASIC)进行编译优化。例如,TensorRT或OpenVINO这类推理框架就是朝这个方向努力的,通过硬件加速与软件协同优化,有望在牺牲微小精度代价的前提下,显著提升嵌入式平台上的运行效率。

谈到“更大VLA模型还能实时吗”:这不就是我们电脑升级内存和CPU的烦恼嘛!软件功能越来越多,老硬件就跑不动了。大模型也是,参数量激增,每次计算量都爆炸。解决办法嘛,就像我们给电脑超频、加固态硬盘、优化系统一样。VLA可能也得“超频”——更快的芯片,或者“碎片整理”——更高效的数据流和计算调度,还得“精简系统”——模型剪枝、量化。总之,是个系统工程,每一点挖潜都不能放过。希望未来能有“VLA专用芯片”吧!