InfiGUI-R1:强化学习赋能GUI智能体,像人一样规划任务与反思错误

浙大&港理工等提出InfiGUI-R1,利用强化学习让GUI智能体学会规划任务、反思错误。Actor2Reasoner框架赋能小模型实现卓越性能,向“能思考、会纠错”的AI助手迈进。

原文标题:浙大&港理工等提出InfiGUI-R1:利用强化学习,让GUI智能体学会规划任务、反思错误

原文作者:机器之心

冷月清谈:

浙江大学和香港理工大学的研究者们提出了InfiGUI-R1,这是一个基于Actor2Reasoner框架训练的GUI智能体,旨在提升GUI智能体在复杂任务中的表现。该框架通过两个阶段的训练实现:首先,通过空间推理蒸馏技术,让智能体学习在行动前进行逻辑思考,建立“感知-推理-行动”模式;其次,利用强化学习增强智能体的规划和反思能力,鼓励其生成明确的子目标,并从错误中恢复。实验结果表明,InfiGUI-R1-3B模型在GUI元素定位和复杂任务执行方面均表现出色,证明了Actor2Reasoner框架的有效性,为开发更智能的GUI自动化工具提供了新思路。

怜星夜思:

1、InfiGUI-R1通过Actor2Reasoner框架,让AI在操作GUI界面时具备了规划和反思能力。你觉得这种能力在哪些实际应用场景中最有价值?除了文中提到的手机和电脑操作,还有其他可以结合的领域吗?
2、文章中提到InfiGUI-R1在ScreenSpot-Pro基准测试中表现出色,尤其是在复杂专业软件界面上的指令定位。你认为在专业软件领域,GUI智能体面临的最大挑战是什么?InfiGUI-R1是如何克服的?
3、Actor2Reasoner框架通过“推理注入”和“深思熟虑增强”两个阶段提升智能体的能力。你认为这两个阶段中,哪个阶段更为关键?如果只能选择一个阶段进行优化,你会选择哪个?为什么?

原文内容


当前,多模态大模型驱动的图形用户界面(GUI)智能体在自动化手机、电脑操作方面展现出巨大潜力。然而,一些现有智能体更类似于「反应式行动者」(Reactive Actors),主要依赖隐式推理,面对需要复杂规划和错误恢复的任务时常常力不从心。


我们认为,要真正提升 GUI 智能体的能力,关键在于从「反应式」迈向「深思熟虑的推理者」(Deliberative Reasoners)。为此,浙江大学联合香港理工大学等机构的研究者们提出了 InfiGUI-R1,一个基于其创新的 Actor2Reasoner 框架训练的 GUI 智能体,旨在让 AI 像人一样在行动前思考,行动后反思。



  • 论文标题:InfiGUI-R1: Advancing Multimodal GUI Agents from Reactive Actors to Deliberative Reasoners

  • 论文链接:https://arxiv.org/abs/2504.14239

  • 项目仓库:https://github.com/Reallm-Labs/InfiGUI-R1

  • 模型地址:https://huggingface.co/Reallm-Labs/InfiGUI-R1-3B


从「反应行动」到「深思熟虑」:GUI 智能体面临的挑战


想象一下,你让 AI Agent 帮你完成一个多步骤的手机操作,比如「预订明天下午去北京的高铁票」。一个简单的「反应行动」式 Agent 可能会按顺序点击它认为相关的按钮,但一旦遇到预期外的界面(如弹窗广告、加载失败),就容易卡壳或出错,因为它缺乏「规划」和「反思」的能力。


为了让 GUI 智能体更可靠、更智能地完成复杂任务,它们需要具备深思熟虑的推理能力。这意味着智能体的行为模式需要从简单的「感知 → 行动」转变为更高级的「感知 → 推理 → 行动」模式。这种模式要求智能体不仅能看懂界面,还要能:


  • 理解任务意图:将高层指令分解为具体的执行步骤
  • 进行空间推理:准确理解界面元素的布局和关系,定位目标
  • 反思与纠错:识别并从错误中恢复,调整策略

Actor2Reasoner 框架:两步走,打造深思熟虑的推理者


为了实现这一目标,研究团队提出了 Actor2Reasoner 框架,一个以推理为核心的两阶段训练方法,旨在逐步将 GUI 智能体从「反应式行动者」培养成「深思熟虑的推理者」。


图:Actor2Reasoner 框架概览

第一阶段:推理注入(Reasoning Injection)—— 打下推理基础

此阶段的核心目标是完成从「行动者」到「基础推理者」的关键转变。研究者们采用了空间推理蒸馏(Spatial Reasoning Distillation)技术。他们首先识别出模型在哪些交互步骤中容易因缺乏推理而出错(称之为「推理瓶颈样本」),然后利用能力更强的「教师模型」生成带有明确空间推理步骤的高质量执行轨迹。


通过在这些包含显式推理过程的数据上进行监督微调(SFT),引导基础模型学习在生成动作前,先进行必要的逻辑思考,特别是整合 GUI 视觉空间信息的思考。这一步打破了「感知 → 行动」的直接链路,建立了「感知 → 推理 → 行动」的基础模式。


第二阶段:深思熟虑增强(Deliberation Enhancement)—— 迈向高级推理

在第一阶段的基础上,此阶段利用强化学习(RL)进一步提升模型的「深思熟虑」能力,重点打磨规划和反思两大核心能力。研究者们创新性地引入了两种方法:


  • 目标引导:为了增强智能体「向前看」的规划和任务分解能力,研究者们设计了奖励机制,鼓励模型在其推理过程中生成明确且准确的中间子目标。通过评估生成的子目标与真实子目标的对齐程度,为模型的规划能力提供有效的学习信号。

  • 错误回溯:为了培养智能体「向后看」的反思和自我纠错能力,研究者们在 RL 训练中有针对性地构建了模拟错误状态或需要从错误中恢复的场景。例如,让模型学习在执行了错误动作后如何使用「返回」等操作进行「逃逸」,以及如何在「回到正轨」后重新评估并执行正确的动作。这种针对性的训练显著增强了模型的鲁棒性和适应性。

为了有效引导强化学习过程,研究者们还采用了一套专门适用于 GUI 多种任务场景的奖励函数,为智能体提供更佳的反馈。

InfiGUI-R1-3B:小参数,大能量


基于 Actor2Reasoner 框架,研究团队训练出了 InfiGUI-R1-3B 模型(基于 Qwen2.5-VL-3B-Instruct)。尽管只有 30 亿参数,InfiGUI-R1-3B 在多个关键基准测试中展现出了卓越的性能:


GUI 元素定位(Grounding)能力突出:

  • 在跨平台(移动、桌面、网页)的 ScreenSpot 基准上,平均准确率达到 87.5%,在移动、桌面、Web 平台的文本和图标定位任务上全面领先,达到同等参数量模型中 SOTA 水平。

  • 在更具挑战性、面向复杂高分屏桌面应用的 ScreenSpot-Pro 基准上,平均准确率达到 35.7%,性能比肩参数量更大且表现优异的 7B 模型(如 UI-TARS-7B),证明了其在复杂专业软件(例如 CAD、Office)界面上的指令定位准确性。

表:ScreenSpot 性能对比

图:ScreenSpot-Pro 性能对比

复杂任务执行(Trajectory)能力优异

在模拟真实安卓环境复杂任务的 AndroidControl 基准上(包含 Low 和 High 两个难度级别),成功率分别达到 92.1% 和 71.1%。这一成绩不仅超越了参数量相近的 SOTA 模型(如 UI-TARS-2B),甚至优于一些参数量远超自身的 7B 乃至 72B 模型(如 Aguvis-72B)。

表:AndroidControl 性能对比

这些结果充分证明了 Actor2Reasoner 框架的有效性。通过系统性地注入和增强推理能力,特别是规划和反思能力,InfiGUI-R1-3B 以相对较小的模型规模,在 GUI 理解和复杂任务执行方面取得了领先或极具竞争力的表现。


结语


InfiGUI-R1 和 Actor2Reasoner 框架的提出,为开发更智能、更可靠的 GUI 自动化工具开辟了新的道路。它证明了通过精心设计的训练方法,即使是小规模的多模态模型,也能被赋予强大的规划、推理和反思能力,从而更好地理解和操作我们日常使用的图形界面,向着真正「能思考、会纠错」的 AI 助手迈出了坚实的一步。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

我觉得这种能力在自动化测试领域潜力巨大!现在很多UI自动化测试工具都需要人工编写脚本维护,成本很高。如果AI能像用户一样思考和操作,就能大大降低测试成本,提高效率。除了手机和电脑,我觉得还可以应用在智能家居控制面板上,让AI更好地理解和执行用户的指令。

专业软件的GUI界面通常非常复杂,元素繁多,层级很深,这对于AI的视觉理解和空间推理能力提出了很高的要求。我觉得InfiGUI-R1通过Actor2Reasoner框架,特别是其中的空间推理蒸馏技术(Spatial Reasoning Distillation),有效提升了模型对复杂界面的理解能力,从而能够在专业软件领域取得不错的成绩。但是,实际应用中可能还需要针对特定软件进行微调。

从工程角度来看,“深思熟虑增强”的性价比可能更高。因为“推理注入”需要大量的标注数据,成本很高。而“深思熟虑增强”可以通过强化学习,利用奖励函数来引导AI学习,降低了对标注数据的依赖。因此,如果资源有限,我会选择优化“深思熟虑增强”阶段。

从技术角度来看,这种规划和反思能力的核心在于让AI拥有更强的泛化能力。想象一下,如果GUI界面发生了变化(例如按钮位置移动了),传统的AI可能就无法工作了。而InfiGUI-R1的设计思路使其能够更好地适应这些变化,从而降低维护成本。因此,我认为长期来看,这种技术会逐渐渗透到各种需要与GUI交互的场景中。

除了界面复杂,专业软件的操作往往需要特定的领域知识。例如,CAD软件中的各种专业术语和操作流程,如果AI没有相关的知识储备,就很难理解用户的意图。我认为InfiGUI-R1可能更多关注的是通用的GUI操作能力,如果想在特定专业软件领域取得更好的效果,还需要引入领域知识图谱或者进行针对性的训练。

我更看好在辅助残障人士使用电子设备方面的应用。对于行动不便或者视力障碍的人来说,操作GUI界面非常困难。如果AI足够智能,能够理解他们的意图并且准确执行,就能极大地提高他们的生活质量。比如,通过语音控制AI完成复杂的操作,真正实现科技向善。

我觉得“推理注入”是基础,没有这个前提,“深思熟虑增强”就成了空中楼阁。只有让AI先学会理解GUI界面的逻辑,才能进行有效的规划和反思。所以,如果只能选一个,我会选择优化“推理注入”阶段,让AI打好基础。

我倾向于选择“深思熟虑增强”,因为我认为AI的最终目标是解决实际问题,而不是仅仅理解界面。即使AI能够完美地理解GUI界面,如果缺乏规划和反思能力,仍然无法完成复杂的任务。通过强化学习,可以更好地训练AI的决策能力,使其能够适应各种复杂的环境。

我觉得挑战在于容错率。在日常应用中,操作失误可能影响不大,但在专业软件中,一个错误的操作可能会导致严重的问题。因此,GUI智能体需要具备更强的鲁棒性和纠错能力。InfiGUI-R1通过强化学习中的错误回溯机制(Error Backtracking)来提升模型的容错能力,这个思路非常值得借鉴。