无需训练,让大模型更强:全新「三思而后行」推理策略

无需训练,让大模型掌握“三思而后行”的智慧!通过多轮推理,模型不仅提升准确率,表达也更理性自信。

原文标题:三思而后行,让大模型推理更强的秘密是「THINK TWICE」?

原文作者:机器之心

冷月清谈:

a-m-team 团队提出的“三思而后行(Think Twice)”方法,通过让大模型在推理阶段进行多轮自我反思和纠错,显著提升了其在多个基准测试中的性能。该方法无需额外训练,仅依赖一种非常人类式的思维策略,即让模型先生成初步答案,再将该答案作为新的提示,促使模型独立“重答”一次。研究表明,这种策略能够有效缓解大模型推理中的“认知惯性”,使模型跳脱出错误的逻辑路径,逼近更合理的答案。实验结果显示,DeepSeek-R1 和 QwQ-32B 等主流模型在 AIME、MATH-500、GPQA-Diamond 和 LiveCodeBench 等数据集上均表现出不同程度的提升,且随着“再思考”轮数的增加,准确率稳步上升。此外,研究还发现,多轮推理不仅提升了结果的准确性,还改变了模型的表达风格,使其在回答时更加简洁、自信,更接近人类的思考方式。该研究为大模型推理阶段的优化提供了一种轻量级、即插即用的新思路。

怜星夜思:

1、“Think Twice”策略的核心在于让模型进行自我反思,那么这种策略是否可以应用到其他领域,例如,创意写作或者程序debug?效果会如何?
2、文章提到“Think Twice”使模型在回答时更加“像人类”,这种“像人类”的表达风格是通过什么指标来衡量的?除了文章中提到的语气词,还有其他可以量化的指标吗?
3、“Think Twice”策略在提升模型性能的同时,也增加了推理的轮数,这意味着更高的计算成本和更长的响应时间。在实际应用中,如何平衡性能提升和资源消耗?

原文内容


近年来,大语言模型(LLM)的性能提升逐渐从训练时规模扩展转向推理阶段的优化,这一趋势催生了「测试时扩展(test-time scaling)」的研究热潮。OpenAI 的 o1 系列与 DeepSeek 的 R1 模型已展示出显著的推理能力提升。然而,在实现高性能的同时,复杂的训练策略、冗长的提示工程和对外部评分系统的依赖仍是现实挑战。


近日,由 a-m-team 团队提出的一项新研究提出了一个更简洁直观的思路:三思而后行(Think Twice)。它不依赖新的训练,不引入复杂机制,仅通过一种非常人类式的思维策略 ——“再想一轮”—— 在多个基准任务中带来显著性能提升。



  • 论文标题:Think Twice: Enhancing LLM Reasoning by Scaling Multi-round Test-time Thinking

  • 论文连接:https://arxiv.org/abs/2503.19855

  • 项目地址:https://github.com/a-m-team/a-m-models


“Multi-round Thinking”

一轮不够,那就两轮、三轮



该方法的核心思想类似于人类在做题时的反思机制:模型先基于原始问题生成第一次答案,再将该答案(而非推理过程)作为新的提示,促使模型独立 “重答” 一次,并在每一轮中不断修正先前的偏误。


这个过程中,模型不会受限于上一次的推理轨迹,而是以一个「结果驱动」的方式自我反思与纠错,逐步逼近更合理的答案。研究人员指出,这种策略有效缓解了大模型推理中常见的 “认知惯性”,即模型过度依赖初始推理路径而难以跳脱错误逻辑。


不靠训练,也能提升多个基准性能


研究团队在四个权威数据集上验证了该方法,包括:


  • AIME 2024(美国数学邀请赛)

  • MATH-500(由 OpenAI 从原始 MATH 数据集中精选出 500 个最具挑战性的问题)

  • GPQA-Diamond(研究生级别问答)

  • LiveCodeBench(编程任务)



在不改变模型结构、无额外训练的前提下,DeepSeek-R1 和 QwQ-32B 等主流模型在所有测试集上均表现出不同程度的提升。例如:


  • DeepSeek-R1 在 AIME 上从 79.7% 提升至 82.0%

  • QwQ-32B 在 AIME 上从 80.3% 提升至 83.1%


更值得注意的是,在进行 2 轮、3 轮甚至 4 轮的 “再思考” 后,准确率稳步上升,模型表现出更强的稳定性和反思能力。


更短的答案、更少的犹豫

模型开始 “自信发言”


除了准确率的提升,研究团队还观察到了语言风格的变化。通过分析模型生成内容中 “but”、“wait”、“maybe”、“therefore” 等语气词的使用频率,他们发现:


  • 模型在第二轮中使用 “but”、“wait” 等不确定词的频率明显减少;

  • 即使在多轮中仍答错,模型的表达也趋向更加简洁、自信;

  • 当模型成功从错误中修正时,常伴随着更慎重的过渡语,例如 “wait”、“therefore” 增多。


这种变化表明,多轮推理不仅提升了结果准确性,也改变了模型的表达风格,使其在回答时更加 “像人类”,且逻辑清晰。


不同推理路径中平均词频的变化。每个子图展示了四个具有代表性的词语 —— “but”(但是)、“wait”(等等)、“maybe”(也许)和 “therefore”(因此)—— 在第 1 轮与第 2 轮中的平均词频,对回答类型进行分组:I-C(错误 → 正确)、I-I(错误 → 错误)、C-C(正确 → 正确)和 C-I(正确 → 错误)。


多做题同时多思考

可能是更好路径


这项研究的一个关键优势在于:它完全作用于推理阶段,不需要额外的训练资源,即插即用。这种方法对于模型部署阶段的优化具有高度实用性,同时也为后续研究提供了可拓展的思路 —— 如何结合监督微调,或构建更智能的多轮判断机制。


目前研究团队已尝试使用基于多轮推理结果的监督微调数据对模型进一步训练,初步结果显示尚未显著突破,但为 “训练 + 推理” 的结合方向奠定了基础。


结语


“Think Twice” 展示了一种简单有效的思路:鼓励大模型主动 “反思”,用多轮推理激发更强的认知能力。它不仅提升了准确率,更令模型在语言表达上变得更加理性、紧凑、自信。


在训练成本不断攀升的今天,这种无需再训练的 “轻量级优化” 无疑具有极强的现实吸引力。未来,多轮推理或许能成为一种标准机制,帮助模型更接近真正意义上的 “会思考”。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

这是一个非常现实的问题。我觉得可以考虑以下几个方面: 1. 自适应轮数:并非所有问题都需要多轮推理,可以根据问题的难度和模型的置信度动态调整推理轮数。 2. 模型蒸馏:将多轮推理的结果作为训练数据,训练一个更小的模型,使其能够直接输出高质量的答案。 3. 硬件加速:利用GPU等硬件加速推理过程,降低单轮推理的时间。

与其想着怎么减少计算量,不如换个思路,想想怎么提高计算效率。比如,可以探索并行计算的方法,让多轮推理同时进行。或者,可以利用缓存机制,避免重复计算。只要技术足够先进,成本问题总有解决的办法。

不妨引入心理学的概念。比如,可以分析模型输出的文本中是否包含“元认知”的成分,也就是对自身思考过程的描述。人类在思考时,常常会意识到自己的局限性,并且会主动调整策略。如果模型也能表现出类似的“元认知”,那就更像人类了。

我觉得可以!在创意写作中,第一稿可能灵感迸发,但后续的“Think Twice”可以帮助润色情节、完善人物,避免逻辑漏洞。程序debug也是,第一遍可能只是粗略修复,多几遍的“Think Twice”能深入挖掘潜在问题,提高代码质量。不过,关键在于如何引导模型进行有效的反思,避免陷入死循环或者过度修改。

衡量“像人类”的表达风格确实是个难题。除了语气词,我觉得还可以考虑以下指标: 1. 句法复杂度:人类的语言通常不是一味的简单句,而是会穿插一些从句、插入语等复杂结构。 2. 语义多样性:避免重复使用相同的词语和表达方式,而是根据语境灵活变化。 3. 情感色彩:人类的语言带有情感,可以通过分析情感词的使用来判断。当然,这些指标都需要进一步量化才能进行比较。

这个思路很棒!我想到一个可能的问题,如果模型一开始的答案就偏差很大,那么“Think Twice”会不会让它越陷越深,反而适得其反?有没有办法避免这种情况?