大语言模型“推理”能力再审视:系统性研究揭示结构性失败

研究揭示大语言模型推理的结构性缺陷,强调理解失败是构建可靠推理系统的关键。

原文标题:大语言模型真的会「推理」吗?一项系统性研究梳理 LLM 的结构性推理失败

原文作者:机器之心

冷月清谈:

本文总结了近期发表于 TMLR 的论文《Large Language Model Reasoning Failures》,该研究系统性地梳理了大语言模型在推理方面的结构性失败,旨在揭示模型在快速提升性能的同时,存在的深层次结构性缺陷。文章提出了一个二维分类结构,从“推理类型”(非具身的非正式推理、非具身的形式化推理、具身推理)和“失败性质”(根本性失败、应用特定限制、鲁棒性问题)两个维度分析了现有文献中的问题。研究指出,自回归训练目标、注意力机制的分散效应以及缺乏真实世界的感知与反馈闭环等因素,可能导致模型在逻辑推理、长程规划和具身推理等方面出现结构性问题。文章强调,未来的研究应更加重视失败基准的长期更新与跨模型比较,建立能够追踪顽固失败模式的评测体系,从静态分数导向转向结构稳定性与行为一致性的综合衡量。只有理解失败,才能构建可靠的推理系统。模型架构和训练目标是导致根本性失败的根源,并且仅靠扩大规模可能无法解决

怜星夜思:

1、论文中提到了自回归训练目标可能导致模型更倾向于局部模式补全,而非全局结构建模。大家觉得除了改进训练目标,还有什么方法可以提升模型对全局结构的理解能力?
2、文章提到“鲁棒性问题”揭示了模型内部推理结构的不稳定性。在实际应用中,我们应该如何提高大语言模型在复杂场景下的鲁棒性?
3、文章最后提到理解失败是构建可靠推理系统的关键。你认为在未来的大语言模型研究中,应该如何更好地关注和利用模型的失败案例?

原文内容


过去两年,大语言模型在推理能力上的进展令人瞩目。


从数学与代码生成,到复杂逻辑与科学问题求解,模型不断刷新 benchmark 记录。随着 “推理模型”(reasoning models)概念的兴起,越来越多的研究将推理能力视为通向通用智能的关键标志。


然而,在能力快速提升的同时,一个更为基础的问题逐渐浮出水面:当模型在推理任务中出错时,这些错误究竟是偶然的波动,还是揭示出更深层次的结构性缺陷?


近期发表于 TMLR 的论文《Large Language Model Reasoning Failures》对这一问题进行了系统性梳理。该研究并未围绕 “模型是否真正理解” 展开哲学层面的争论,而是采取更加务实的路径 —— 通过整理现有文献中的失败现象,构建统一框架,系统分析大语言模型的推理短板。



  • 论文标题:Large Language Model Reasoning Failures

  • 论文链接:https://arxiv.org/abs/2602.06176


在当前以性能为导向的研究环境中,这样的工作显得尤为必要。


该论文的作者 宋沛洋 是加州理工学院计算机专业本科生,本工作为他在斯坦福大学人工智能实验室(Stanford AI Lab, SAIL)访问时所进行的研究;韩芃睿 是伊利诺伊大学香槟分校(UIUC)计算机系研究生,该工作为他在本科时所做;指导老师 Noah Goodman 是斯坦福大学计算机系和心理学系的正教授。


从 “性能提升” 到 “失败结构”


近年来,大模型研究的主旋律几乎始终围绕性能提升展开。规模扩展、提示工程、思维链、强化学习对齐等方法持续推动模型在标准基准上的成绩上涨。


相比之下,对失败模式的系统分析却长期处于碎片化状态。逻辑推理中的不一致、数学结构泛化困难、社会情境下的不稳定表现、物理推理中的常识缺失,这些问题分散在不同领域的研究之中,缺乏统一视角。


该论文的核心贡献,正是在于将这些看似零散的现象组织进一个系统化框架之中,从而揭示它们之间潜在的共性。


研究提出了一个二维分类结构。一条轴线刻画 “推理类型”,另一条轴线刻画 “失败性质”。通过这一结构,不同领域中的问题得以在同一坐标系下被理解与比较。



三类推理:从语言逻辑到具身环境


在推理类型维度上,论文区分了三种主要形式。


第一类是非具身的非正式推理,涵盖直觉判断、认知偏差以及社会语境中的推断能力。这类能力在人类认知发展中属于基础结构,但在大语言模型中往往呈现出高度不稳定性。


第二类是非具身的形式化推理,包括自然语言逻辑推断、组合推理、算术与数学问题求解以及代码生成等任务。这是当前推理模型竞争最为激烈的领域,同时也是结构性失败频繁暴露的区域。


第三类则是具身推理,涉及物理常识、空间关系理解、工具使用以及在真实或模拟环境中的行动规划。当模型从文本世界进入具身环境,这类问题变得更加突出。


这一分类并非简单罗列任务,而是试图揭示不同推理场景之间的认知结构差异。


三类失败:结构性、领域性与鲁棒性问题


在失败性质维度上,研究将现有文献中的问题归纳为三类。


第一类是根本性失败。这类问题通常源于模型架构或训练目标本身,具有跨任务的普遍性。它们往往在不同推理场景中反复出现,难以通过简单的数据扩充或规模提升彻底消除。


第二类是应用特定限制。模型在某些特定领域或任务中表现出明显短板,即便在其他领域已有显著进展。这类问题通常与任务结构、领域知识或推理深度相关。


第三类是鲁棒性问题。在语义保持不变的情况下,任务形式的轻微扰动即可导致模型输出出现显著波动。这种现象在标准 benchmark 评测中尤为常见,也在社会推理与多智能体协作情境中频繁出现。


通过这一分类可以看到,不同领域中的失败现象并非彼此孤立。许多根本性问题会跨越推理类型反复出现,而鲁棒性问题则揭示出模型内部推理结构的不稳定性。


结构性共性:从训练目标到内部机制


论文进一步指出,多个失败现象可以追溯到相似的结构根源。


自回归训练目标使模型更倾向于进行局部的模式补全,而非全局结构建模。这种偏置在形式化逻辑推理与长程规划任务中尤为明显。注意力机制在复杂任务中的分散效应,也可能导致组合结构整合能力不足。


在具身推理场景中,由于模型缺乏真实世界的感知与反馈闭环,其内部表示难以形成稳定的物理因果模型。这种缺失并不会在纯文本 benchmark 中立即显现,但在动态环境中会被放大。


值得注意的是,随着模型规模扩大,部分能力确实得到显著提升,但某些结构性问题并未同步消失。这一观察提示,仅依赖规模扩展,或许不足以解决所有推理缺陷。


走向成熟阶段的必经之路


论文发布后,很快在海外社交平台引发热议。



在 X(原 Twitter)上,有评论直言这是“近年来最令人不安的一篇 LLM 推理论文”。所谓“不安”,并非因为提出了夸张的结论,而恰恰相反——它并未展示新的 SOTA 模型,也未公布新的 leaderboard 成绩,而是系统梳理了大语言模型在推理方面反复出现的失败模式。


当社区沉浸在性能跃升的叙事之中,这种对结构性缺陷的全面回顾,无疑具有某种冷静甚至反思的意味。


回顾计算机系统发展的历史可以发现,系统性能提升的同时,对故障结构的分析始终是成熟阶段的重要标志。早期计算机工程依赖 fault tolerance 研究不断改进架构设计,安全关键行业则通过事故复盘建立可靠机制。


在大语言模型迈向推理模型时代的背景下,对失败模式进行系统整理,同样具有基础性意义。


论文指出,未来的研究应更加重视失败基准的长期更新与跨模型比较机制。与其仅关注单点性能提升,不如建立能够追踪顽固失败模式的评测体系,从而观察哪些问题在模型代际迭代中持续存在。


同时,推理评估也需要逐步从静态分数导向,转向结构稳定性与行为一致性的综合衡量。只有当具体的推理崩溃现象能够被追溯至内部机制层面,改进路径才会更加明确。


理解失败,才能构建可靠推理系统


大语言模型的推理能力仍在快速进化之中。但一个成熟的推理系统,不应仅在理想条件下取得高分,更应在复杂环境中保持结构稳定,并在失败时具有可预测性与可解释性。


《Large Language Model Reasoning Failures》所做的,正是为这一方向提供基础框架。


在能力竞赛之外,系统理解失败,或许将成为下一阶段人工智能研究的关键课题。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com


我觉得评测体系不能只看最终得分,更要关注模型“思考”的过程。比如,可以要求模型给出推理步骤,或者解释为什么选择某个答案。这样就能更容易发现模型是在“死记硬背”还是真的理解了。另外,评测数据也要更贴近真实场景,不能只用那些“考试题”。

我有一个大胆的想法,能不能让LLM自己生成一些“全局结构”的标签?比如,给它看一段长文本,让它自己总结这段文本的中心思想,然后用这个中心思想作为标签来训练模型。这样,模型就可以自己学习到什么是“全局结构”了。当然,这种方法的关键在于如何保证LLM生成的标签的质量。

我个人认为可以考虑加入一个“任务复杂度”的维度。LLM在简单任务和复杂任务上的表现可能存在显著差异,针对不同复杂度的任务进行分析,可以更清晰地了解模型的推理瓶颈。此外,还可以考虑加入一个“模型特异性”维度,区分不同模型架构或训练方式导致的失败模式,以便更好地进行模型优化和选择。

我觉得LLM在具身推理上的困难,除了文章提到的缺乏感知和反馈闭环,还有一个重要原因是它缺少像人类一样的身体经验。我们从小通过触摸、移动、与环境互动来建立对物理世界的直观理解。也许可以尝试让LLM与机器人结合,通过实际操作来学习,或者通过更真实的模拟环境进行训练,让它获得更丰富的“具身”经验。

除了训练方法,数据也很重要吧?是不是可以构建更多包含全局结构信息的训练数据集,比如一些需要综合多方面信息才能解决的问题?

我觉得关键还是知识图谱的融入,将外部知识显式地编码到模型里,这样模型在进行推理的时候才能有更可靠的结构支撑,不至于瞎猜。

我觉得提高鲁棒性可以考虑引入集成学习的思想,训练多个模型,然后取它们的平均结果,这样可以减少单个模型的误差,提高整体的稳定性。而且可以考虑引入人类反馈,对badcase进行标注,持续优化模型的效果

可以借鉴软件工程中的测试驱动开发(TDD)模式,先定义好模型的预期行为(包括各种边界情况),然后针对这些预期行为编写测试用例,再开始开发模型,这样可以从一开始就关注模型的可靠性。

数据增强是必须的,但我觉得更重要的是对抗训练。专门设计一些对抗样本来攻击模型,然后让模型学习如何防御,效果应该更好。

我觉得可以搞一个“失败案例库”,定期收集和整理各种模型的失败案例,并进行详细的分析和标注,供研究人员学习和参考。就像医学上的病理分析一样。

与其每次都追求新的SOTA,不如花更多精力去分析现有模型的缺陷,搞清楚它们为什么会失败。只有这样才能真正推动大语言模型的发展,不然永远在benchmark上打转。

提高鲁棒性是个大工程啊!我觉得可以从数据增强入手,模拟各种噪声和干扰,让模型在更恶劣的环境下也能保持性能。

我感觉可以尝试引入一些图神经网络(GNN)的思想,让模型在处理序列时也能考虑到节点之间的关系,增强对全局信息的捕捉能力。