通义实验室推出QwenLong-L1:强化学习赋能13万超长上下文推理

通义实验室推出QwenLong-L1,利用强化学习解决长上下文推理难题,13万token超长上下文,性能比肩Claude-3.7-Sonnet-Thinking。

原文标题:强化学习解决长上下文推理问题:通义推出QwenLong-L1-32B

原文作者:机器之心

冷月清谈:

阿里巴巴通义实验室推出了QwenLong-L1长上下文推理强化学习框架,旨在解决长上下文推理大模型在训练过程中遇到的训练效率低和优化不稳定等问题。该框架通过渐进式上下文扩展技术和混合奖励机制,实现了模型从短文本到长文本的稳定过渡,并在多个长文档问答基准测试中取得了卓越的成果。QwenLong-L1-32B不仅超越了OpenAI-o3-mini和Qwen3-235B-A22B等旗舰模型,甚至与Claude-3.7-Sonnet-Thinking的性能相媲美。该研究还揭示了渐进式上下文扩展的重要性,以及优先考虑强化学习对于实现最优性能的必要性,并观察到强化学习训练过程中长文本推理模式的增加对性能提升有促进作用。

怜星夜思:

1、QwenLong-L1通过强化学习提升了长文本推理能力,那么这种方法是否可以应用到其他领域,例如代码生成或视频理解?如果可以,会面临哪些新的挑战?
2、文章提到QwenLong-L1使用了渐进式上下文扩展技术和混合奖励机制,这两种技术分别解决了什么问题?在实际应用中,哪个技术更重要,或者说哪个技术带来的提升更明显?
3、QwenLong-L1在长文本推理方面取得了显著进展,那么它在处理其他类型的任务时,例如短文本分类、摘要生成等,表现如何?是否存在局限性?

原文内容

机器之心发布

机器之心编辑部

上下文长度达 13 万 token,适用于多段文档综合分析、金融、法律、科研等复杂领域任务。


近期的推理大模型(LRMs)通过强化学习(RL)展现出强大的推理能力,但这些改进主要体现在短上下文推理任务中。相比之下,如何通过强化学习扩展 LRMs 以有效处理和推理长上下文输入,仍然是一个尚未解决的关键挑战。


来自阿里巴巴通义实验室的团队首先形式化定义长上下文推理强化学习范式,并识别出其中的两个核心挑战:次优的训练效率与不稳定的优化过程



针对这些问题,团队提出 QwenLong-L1 长上下文推理强化学习框架,通过渐进式上下文扩展策略逐步提升模型在长上下文推理任务上的表现,最终在多个长文档问答 benchmarks 上,QwenLong-L1-32B 表现卓越,不仅超越 OpenAI-o3-miniQwen3-235B-A22B 等旗舰模型,更与 Claude-3.7-Sonnet-Thinking 性能对标



主要贡献



1. 定义长上下文推理强化学习范式


区别于短上下文推理强化学习促进模型利用内部知识推理,长上下文推理强化学习需要模型首先定位外部关键信息然后整合内部推理


2. 识别长上下文推理强化学习关键问题


长上下文推理强化学习训练效率低,具体表现在(a)奖励收敛较慢,(b)模型输出熵的显著降低,限制了优化过程中的探索行为。同时,长上下文推理强化学习训练不稳定,具体表现为(c)KL 散度突刺较多,这是由于(d)较长的输出长度和不均匀的输入长度导致方差变大,导致策略更新不稳定。


3. 构建 QwenLong-L1 长上下文推理强化学习框架


基于渐进式上下文扩展技术混合奖励机制,QwenLong-L1 通过强化学习实现了从短文本到长文本的稳定上下文适应。


4. 开源 QwenLong-L1-32B 长上下文文档推理大模型


与前沿长上下文推理大模型相比,QwenLong-L1-32B 实现了显著的性能提升,相较于 DeepSeek-R1-Distill-Qwen-32B 平均提升 7.8%,不仅超越 OpenAI-o3-miniQwen3-235B-A22B 等旗舰模型,更与 Claude-3.7-Sonnet-Thinking 性能对标,为长文本推理优化提供了基础性技术方案,


核心技术


基于传统的短上下文推理强化学习框架,QwenLong-L1 主要提出如下改进:渐进式上下文扩展技术和混合奖励机制。



渐进式上下文扩展技术


训练长上下文推理大模型存在不稳定的优化动态特性。为解决这些问题,我们提出了一种渐进式上下文扩展框架,该框架包含:课程引导的分阶段强化学习策略以稳定从短到长上下文的优化过程;难度感知的回顾采样机制,优先探索复杂实例;以及稳定的监督微调预热阶段,在强化学习训练前提供稳健的初始化基础。


稳健的监督微调预热:使用蒸馏的长上下文推理数据在强化学习前监督微调模型,获取稳定的初始策略,降低训练过程中的不稳定。 


课程引导的分阶段强化学习:将强化学习训练分为两阶段,阶段 I 输入长度 20K,阶段 II 扩展至 60K,逐步适应长上下文。每阶段仅训练当前长度区间的样本,避免混合长度导致的优化冲突。 


图片


难度感知的回顾采样:根据样本平均奖励动态计算难度,低奖励样本(高难度)被优先保留至后续阶段。阶段 II 训练时,包含阶段 I 的高难度样本,强制模型持续探索复杂案例。 



混合奖励机制


在数学、编程和逻辑推理等短上下文推理任务中,先前的研究工作通常采用基于规则的奖励函数。然而,开放域问答等长上下文推理任务因其固有的答案多样性带来了独特挑战。在这种情境下,限制性过强的基于规则的奖励机制可能会制约有效答案的多样性,从而可能影响整体性能。针对这些局限性,我们提出一种融合规则验证模型评判的混合奖励机制,通过互补性评估实现精确率与召回率的平衡。


规则奖励:通过正则表达式从模型输出中提取答案,与标准答案严格匹配。确保答案格式正确性,防止 Reward Hacking。 


图片


模型评判:训练过程采用 Qwen2.5-1.5B-Instruct 作为轻量级评判模型,评估预测答案和标准答案之间语义等价性。 


图片


组合策略:最终奖励取规则与模型评判的最大值,兼顾精确性与答案多样性。 


实验发现


主实验结果



相较于 SFT,RL 性能提升显著:仅需 1.6K 高质量样本在 R1-Distill-Qwen 模型上 RL 后提升明显,14B 模型平均提升 4.1,32B 模型平均提升 5.1。


在国内外旗舰推理模型中处于领先地位:


  • QwenLong-L1-14B 模型平均 Pass@1 达到 68.3,超越 Gemini-2.0-Flash-Thinking, R1-Distill-Qwen-32B, Qwen3-32B

  • QwenLong-L1-32B 模型平均 Pass@1 达到 70.7,超越 QwQ-Plus, Qwen3-Plus, OpenAI-o3-mini, 与 Claude-3.7-Sonnet-Thinking 持平



Test-Time Scaling 性能明显:QwenLong-L1-14B 模型平均 Pass@2 达到 73.7,超越 DeepSeek-R1 (Pass@1, 72.1), OpenAI-o1-preview (Pass@1, 72.9) 


SFT 与 RL 的权衡



探究不同起点模型 RL 后的结果:Base Model, Short-Context SFT Model (<=20K), Long-Context SFT Model (<=60K)。


有趣发现:


  • SFT 和 RL 发挥着互补作用,SFT 较低代价到可接受性能,而 RL 对达到最佳结果至关重要;

  • 要实现最优性能,必须优先考虑 RL 而不是 SFT,因为过度关注 SFT 可能使模型陷入局部最优,从而限制 RL 提升;


长上下文推理行为的涌现和变化



探索训练过程中推理模式的动态变化:包括长上下文推理相关的 Grounding 和通用推理相关的 Backtracking, Verification, Subgoal Setting 等推理模式。


有趣发现:


  • 所有模型都表现出明显的各类推理模式,且长上下文相关的 Grounding 出现频率最高

  • RL 自然地使这些推理模式出现频率越来越高,最终性能也会随之增长

  • SFT 尽管让推理模式取得了远高于 RL 的增加,但转换成的性能提高相较于 RL 有限


结论


这项研究通过强化学习探索了长上下文推理大模型的开发。其首先提出长上下文推理强化学习范式,并发现次优的训练效率和不稳定的优化过程等关键问题。


为应对这些挑战,研究团队推出 QwenLong-L1,一个渐进式上下文扩展强化学习框架。实验结果表明 QwenLong-L1 在业界领先的长上下文推理大模型中表现优异。其中,QwenLong-L1-14B 性能超越 Gemini-2.0-Flash-Thinking 和 Qwen3-32B,而 QwenLong-L1-32B 超越 OpenAI-o3-mini、Qwen3-235B-A22B,甚至与 Claude-3.7-Sonnet-Thinking 达到同等水平。


我们的分析揭示了长上下文推理强化学习的三项关键洞察:渐进式上下文扩展对实现稳定适应的重要作用、优先强化学习对最优性能的必要性,以及强化学习训练过程中长文本推理模式的增加对性能提升的促进作用。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

渐进式上下文扩展主要是为了解决训练过程中的不稳定问题,就像你要让一个人一下子适应高强度的工作,不如循序渐进地增加工作量。混合奖励机制则是为了平衡答案的准确性和多样性,规则奖励保证了答案的下限,模型评判则鼓励模型生成更丰富的答案。我觉得渐进式上下文扩展更重要,毕竟训练不稳定,一切都白搭。

我觉得强化学习在代码生成和视频理解领域肯定有潜力。代码生成方面,RL可以用来优化代码的效率或者可读性,视频理解方面,可以帮助模型更好地理解视频中的时序关系和上下文信息。不过,这两个领域的数据标注和奖励函数设计可能会非常复杂,需要针对具体任务进行深入研究。

虽然QwenLong-L1在长文本推理上表现出色,但是针对短文本任务可能就有点“大材小用”了。就像用一个擅长精细木工的师傅去做简单的家具组装,虽然也能完成,但效率可能不如专门的家具工匠。它可能在处理短文本时,参数量太大,导致计算资源浪费,或者模型过于复杂,反而不如简单的模型效果好。不过,如果经过针对性的微调,应该也能取得不错的成绩。

理论上可行。代码生成可以奖励编译通过和执行效率,视频理解可以奖励对关键帧和事件的准确识别。但挑战在于:1. 奖励函数设计更复杂,需要领域专家知识;2. 状态空间和动作空间爆炸,计算资源需求巨大;3. 探索策略需要更精细的设计,避免无效探索。

Good question! While optimized for long contexts, QwenLong-L1 might be overkill for short text tasks. Think of it like using a super-powered telescope to look at something right in front of your nose. It’s powerful, but not the most efficient tool. However, with some fine-tuning, it could still perform decently. The key is understanding that it’s designed for a specific type of problem.

Absolutely! Applying RL to code generation could mean rewarding syntactically correct and efficient code, think of it as teaching a program to ‘debug’ and ‘optimize’ itself. For video understanding, RL could focus on rewarding accurate event detection and contextual awareness. The big hurdles? Defining what ‘good’ looks like (the reward function) and dealing with the sheer complexity of code and video data. But the potential is huge!

我觉得混合奖励机制更重要。渐进式上下文扩展像是在给模型“热身”,让它逐渐适应长文本,但混合奖励机制直接决定了模型学习的方向。没有一个好的目标,模型还是会跑偏。当然,两者结合才能发挥最大效果。

它的优势在于长文本建模,如果直接用在短文本任务上,可能会因为模型结构和训练方式的不同,导致性能下降。另外,长文本模型通常参数量大,推理速度慢,也是一个限制。不过,可以尝试知识蒸馏等技术,将长文本模型的知识迁移到小模型上,以提高短文本任务的性能。

从实验结果来看,感觉渐进式上下文扩展更像地基,保证了模型的稳定训练,混合奖励更像是优化方向的指引。地基不稳,指引再好也容易翻车。所以,个人感觉渐进式上下文扩展带来的提升更为基础和关键。