ToolRL:强化学习视角下的大模型工具使用训练新范式

ToolRL提出了一种基于强化学习的大模型工具使用训练方法,通过精细化奖励设计,提升模型在复杂工具场景下的泛化能力和自主智能。

原文标题:首个系统性工具使用奖励范式,ToolRL刷新大模型训练思路

原文作者:机器之心

冷月清谈:

伊利诺伊大学香槟分校的研究团队提出了ToolRL,首次系统性地探讨了强化学习范式下的工具使用训练方法。不同于传统的监督式微调,ToolRL通过精细化的奖励设计,有效解决了工具推理中的泛化难题。该研究将工具调用问题建模为Tool-Integrated Reasoning (TIR)的任务范式,要求模型以合理顺序和逻辑调用多个工具,并基于中间结果灵活调整思维路径。ToolRL分析了工具使用任务中的奖励设计维度,包括尺度、粒度和动态性,并提出了一种结构化奖励设计,结合“格式规范”与“调用正确性”,确保模型生成合理的工具链式思维,并准确理解工具含义与调用语义。实验结果表明,ToolRL不仅提升了语言模型的工具使用能力,更重要的是,它促使模型学会“何时该调用工具、如何调用工具”,这有助于智能体走向自主智能。ToolRL开创了基于工具调用的强化学习奖励新范式, 通过大规模实验与深入对比分析,验证了简洁胜于冗长、动态奖励助力平滑过渡、细粒度反馈是关键等核心发现。

怜星夜思:

1、ToolRL中提出的奖励设计维度(尺度、粒度、动态性)中,你认为哪个维度对提升模型工具使用能力最关键?为什么?
2、ToolRL强调“简洁胜于冗长”,认为过度推理可能引入噪声。但在某些复杂场景下,更长的推理路径是否反而能提高问题解决的成功率?请结合具体例子谈谈你的看法。
3、ToolRL的思路是否可以迁移到其他领域?例如,在机器人控制领域,如何设计奖励函数来引导机器人更好地使用工具完成任务?

原文内容


钱成目前是伊利诺伊大学香槟分校 (UIUC) 一年级博士生,导师为季姮教授。本科就读于清华大学,导师为刘知远教授。其工作集中在大语言模型工具使用与推理以及人工智能体方向。曾在 ACL,EMNLP,COLM,COLING,ICLR 等多个学术会议发表论文十余篇,一作及共一论文十余篇,谷歌学术引用超 500,现担任 ACL Area Chair,以及 AAAI,EMNLP,COLM 等多个会议 Reviewer。

「工欲善其事,必先利其器。」 如今,人工智能正以前所未有的速度革新人类认知的边界,而工具的高效应用已成为衡量人工智能真正智慧的关键标准。大语言模型凭借卓越的推理与规划能力,正在快速融入人类生产与生活,但传统的监督训练方法在面对复杂或全新的工具场景时,却常常显得捉襟见肘。如何帮助人工智能突破这一瓶颈,拥有真正自如运用工具的能力?ToolRL 的出现为我们带来了答案。


伊利诺伊大学香槟分校的研究团队率先提出了一项开创性的研究 ——ToolRL。不同于传统的监督式微调,ToolRL 首次系统性地探讨了强化学习范式下的工具使用训练方法,通过精细化的奖励设计,有效解决了工具推理中的泛化难题。



  • 标题:ToolRL: Reward is All Tool Learning Needs

  • 论文链接:https://arxiv.org/pdf/2504.13958

  • 代码仓库:https://github.com/qiancheng0/ToolRL


图 1: 主要 Benchmark 任务上不同训练策略效果对比。精细化奖励设计 ToolRL + GRPO 冷启动能够在不同模型上表现出最佳效果。观察右侧训练曲线,随着训练数据增加,奖励也呈现迅速攀升。


Tool-Integrated Reasoning:LLM 的 「工具链式思维


在 ToolRL 中,研究者将工具调用问题建模为 Tool-Integrated Reasoning (TIR) 的任务范式。这种任务不仅仅要求模型 「用」 工具,更要求它以合理顺序和逻辑调用多个工具,并基于中间结果灵活调整接下来的思维路径。


TIR 任务的关键特征包括:

  • 多步交互:一个任务通常需要多次调用工具,每步都有中间观察结果(如 API 反馈)。

  • 组合调用:每一步可调用一个或多个工具,模型需生成参数化调用。

  • 推理驱动:模型必须在自然语言 「思考」 后决定调用哪些工具、输入什么参数。


图 2: SFT 在工具推理上难以泛化,可能造成过度推理等问题,而基于 RL 的方法具有更好的泛化能力。


设计的关键 —— 不是 「对」 就够了


ToolRL 首次系统性地分析了工具使用任务中的奖励设计维度,包括:

  • 尺度:不同奖励信号之间如何平衡?

  • 粒度:如何拆解奖励信号粒度而非仅是二值选择?

  • 动态性:训练过程中,奖励信号应否随时间变化?


研究表明,粗粒度、静态、或者仅以最终答案匹配为目标的奖励往往无法最有效地指导模型学习工具推理能力。为此,ToolRL 引入了一种结构化奖励设计,结合 「格式规范」 与 「调用正确性」,确保模型不仅生成合理的工具链式思维,更能准确理解工具含义与调用语义,激发更好更精准的模型工具推理能力。


图 3: 工具推理中的 Rollout 示意图,以及精细化奖励设计示例。除了正确性外,奖励信号额外涉及 「工具名称」,「参数名称」 以及 「参数内容」 进行精细化匹配,以取得更好的工具推理奖励效果。


实验:从模仿到泛化,ToolRL 如何激发工具智能?


为了验证 ToolRL 在多工具推理任务中的有效性,研究团队在多个基准上进行了系统实验,涵盖从工具调用(Berkeley Function Calling Leaderboard)、API 交互(API-Bank)到问答任务(Bamboogle)的真实应用场景。


实验设置

  • 模型:使用 Qwen2.5 和 LLaMA3 系列作为基础模型;

  • 训练方式:对比原始模型、监督微调(SFT)、近端策略优化(PPO)以及 ToolRL 提出的 GRPO + 奖励设计策略;

  • 评估维度:准确率、对新任务 / 工具的泛化能力等。


核心结果

  • 显著性能提升:在多个下游任务中,ToolRL 训练的模型准确率相比 SFT 平均提升超过 15%,比原模型基线表现超过 17%;

  • 更强的泛化能力:在未见过的工具、语言或任务目标中,ToolRL 模型依然保持领先表现,展现出主动性和抗干扰能力

  • 调用更合理:在问答类任务中,ToolRL 模型能灵活控制调用次数,避免无意义操作,效率更高,推理更稳健


实验结果表明,ToolRL 不仅提升了语言模型的工具使用能力,更重要的是,它促使模型学会 「何时该调用工具、如何调用工具—— 这正是智能体走向自主智能的关键一步。



表 1-3: 在三个 Benchmark 上的测试结果,文章发现 GRPO 冷启动的方法往往能取得最好的效果


结语:ToolRL 不仅是一个方法,更是一套通用的奖励范式


结论:ToolRL 不仅是一种方法,更开创了基于工具调用的强化学习奖励新范式。通过大规模实验与深入对比分析,文章验证了三个核心发现:

  1. 简洁胜于冗长 —— 过度展开的推理路径在工具使用上并不能带来更高的性能,反而可能引入噪声导致过度推理;

  2. 动态奖励助力平滑过渡 —— 基于训练步数实时调整的奖励机制,能够使模型能从简单目标泛化至复杂目标,逐步积累工具推理能力;

  3. 细粒度反馈是关键 —— 针对每一次工具调用的精细化奖惩,极大提升了模型执行多步操作并正确利用外部工具的能力。


表 4-5: TooRL 训练出的模型在不相关工具检测(BFCL 子任务)中表现出更好的泛化性与合理平衡工具调用以及自我知识的主动性。


相比于传统强化学习研究往往单纯以「结果正确性」为唯一优化目标,ToolRL 在奖励信号设计上引入了更丰富的维度,不仅量化了 「是否正确」,还反映了 「工具名称」、「参数规范」 等多方面指标,弥补了现有方法对复杂工具链学习的欠缺。展望未来,ToolRL 所提出的奖励扩展框架不仅能适配更多样的任务类别,也为 LLM 与外部工具协同带来了更灵活、更可控的训练思路。我们期待基于这一范式的后续研究,进一步深化多模态工具交互、知识检索与规划生成等领域的智能化水平。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com



从强化学习的角度来看,奖励函数的设计是一个trial and error的过程。一开始我们可能很难找到完美的奖励函数,需要不断地尝试和调整。可以先设计一个简单的奖励函数,然后观察机器人的行为,根据机器人的表现逐步改进奖励函数。此外,我们还可以借鉴逆强化学习的思想,从人类的示范操作中学习奖励函数,从而更好地引导机器人完成任务。

当然,这得结合实际场景来看。有些复杂的任务,像医学诊断或者金融风险评估,没有足够深入的分析,很容易做出错误的决策。比如,医生需要结合患者的病史、症状、检查结果等多方面信息才能做出准确的诊断,这个过程可能需要很长的推理链条。如果过于追求简洁,忽略了关键信息,反而可能导致误诊。所以我的理解是,简洁和冗长之间需要找到一个平衡,既要避免过度推理带来的噪声,又要保证推理的深度能够满足任务的需求。可能需要根据任务的复杂度动态调整推理的长度。

当然可以迁移!ToolRL的核心在于精细化奖励设计,这个思路在很多领域都适用。在机器人控制领域,我们可以根据任务的具体目标,设计一系列奖励函数。例如,如果任务是让机器人使用螺丝刀拧紧螺丝,我们可以设置以下奖励:
* 成功拧紧螺丝: 给予高额奖励。
* 螺丝刀对准螺丝: 给予中等奖励。
* 机器人平稳移动: 给予少量奖励。
* 螺丝滑丝: 给予负奖励。
* 螺丝刀掉落: 给予严重负奖励。

通过这些奖励函数,我们可以引导机器人逐步学习如何安全、高效地使用螺丝刀完成任务。此外,我们还可以引入模仿学习,让机器人学习人类的示范操作,从而更快地掌握工具的使用技巧。

个人觉得粒度最关键。尺度决定了不同奖励信号的相对重要性,动态性则关注奖励信号随时间的变化,但粒度直接关系到我们能否精确地指导模型学习。只有足够细的粒度,才能让模型明白哪些步骤做得好、哪些步骤还不够,从而更好地改进自身的行为。就像教小孩,如果你只告诉他“你做得不错”或者“你做得不好”,他可能很难理解具体哪里需要改进,但如果你能具体指出“你这样写字姿势是对的”、“你这道题的解题思路有点问题”,他就能更有针对性地学习和进步。

我个人觉得这个“简洁胜于冗长”的说法有些绝对。在需要创造性解决问题的场景下,更长的推理路径反而能带来意想不到的灵感。比如,头脑风暴的时候,大家可能会发散性地提出各种想法,即使有些想法看起来不太靠谱,但它们可能会激发新的思路。同样的,模型在进行推理的时候,也可以尝试不同的路径,探索更多的可能性。当然,前提是要有有效的机制来筛选和评估这些推理路径,避免模型陷入无意义的探索。

从工程实践角度看,尺度是最重要的。奖励的尺度实际上决定了不同目标的优先级,比如在工具使用中,正确调用工具可能比输出格式更重要,那么我们就需要调整两者的奖励尺度,确保模型优先关注正确性。在实际应用中,我们往往需要根据具体任务的特点,灵活调整不同奖励信号的权重,才能取得最佳效果。

我认为动态性是关键。在训练初期,模型可能连工具的基本使用都搞不清楚,这时候就需要更宽松的奖励机制,鼓励它多尝试。随着训练的深入,模型逐渐掌握了工具的使用方法,这时候就需要更严格的奖励机制,促使它追求更高的效率和准确性。这种动态调整奖励的方式,可以让模型在不同的学习阶段都获得最合适的指导,从而实现更好的训练效果。这就像玩游戏一样,一开始系统会给你很多提示和帮助,但随着你水平的提高,提示和帮助会逐渐减少,让你逐渐独立自主。

我觉得在机器人控制领域,奖励函数的设计需要更加谨慎。因为机器人通常是在物理世界中运行,错误的奖励信号可能会导致意想不到的后果。比如,如果奖励函数只关注任务的完成速度,机器人可能会采取一些危险的动作,比如撞墙或者损坏工具。因此,在设计奖励函数时,不仅要考虑任务的完成情况,还要考虑机器人的安全性和环境的安全性。可以加入一些惩罚项,比如碰撞惩罚、能量消耗惩罚等,来约束机器人的行为。

有道理!就像debug一样,有时候一个bug藏得很深,需要一层层地追踪调用栈才能找到问题所在。如果过于追求简洁,只看表面的现象,可能永远也找不到bug的根源。所以,长推理链条在某些情况下确实是必要的。但是,长推理也容易引入新的bug,所以需要谨慎使用。看来,在AI的世界里,也要讲究一个“中庸之道”啊!