Implicit Reasoning in Transformers is Reasoning through Shortcuts¶
会议: ACL 2025 (Findings)
arXiv: 2503.07604
代码: GitHub
领域: LLM推理
关键词: 隐式推理, Transformer, 捷径学习, 多步数学推理, 泛化能力
一句话总结¶
本文通过在受控的多步数学推理数据集上从零训练 GPT-2,系统研究了语言模型的隐式推理机制,发现隐式推理本质上是基于模式匹配的捷径学习——在固定模式数据上能泛化,在非固定模式数据上则过拟合,这一发现在 SOTA 大模型上同样成立。
研究背景与动机¶
领域现状:测试时计算(test-time compute)已成为提升语言模型复杂推理能力的新范式,以 OpenAI 的 o1/o3 和 DeepSeek-R1 为代表。其核心是显式推理——通过生成详细的中间推理步骤(Chain-of-Thought)来分解复杂问题。与之相对的是隐式推理,即模型在前向传播过程中"在内部"完成推理,不需要生成中间步骤。
现有痛点:隐式推理在推理效率上具有天然优势(生成更少的 token),但实际中高级推理能力难以在隐式推理模式下涌现。现有研究对此缺乏系统性的解释——学界对"为什么隐式推理不能像显式推理那样泛化"这一问题没有统一的理解。
核心矛盾:隐式推理在测试分布内表现良好,但在分布外(OOD)泛化方面表现不佳。问题是:这种失败是因为模型容量不足,还是因为隐式推理本身存在根本性的学习机制缺陷?
本文目标:通过受控实验环境精确回答:语言模型在进行隐式推理时到底学到了什么?为什么某些情况下能泛化而另一些不能?
切入角度:作者精心设计了固定模式(fixed-pattern)和非固定模式(unfixed-pattern)两种多步数学推理数据集,通过从零训练 GPT-2 来隔离变量,精确观察隐式推理的学习行为。
核心 idea:隐式推理的本质是捷径学习(shortcut learning)——模型并非真正理解推理规则,而是记住了输入到输出的映射模式,因此只在模式一致的测试数据上有效。
方法详解¶
整体框架¶
作者构建了一个多步数学推理的合成数据集,包含多位数加法、变量赋值链等需要多步运算才能得到最终结果的任务。模型输入为一个数学问题,输出为最终答案(不含中间步骤)。通过对比在固定模式和非固定模式数据上训练的模型,分析隐式推理的泛化行为。
关键设计¶
-
固定模式数据集(Fixed-Pattern Dataset):
- 功能:创建一种具有统一结构的多步推理任务,使模型可以学习到一致的推理模式
- 核心思路:所有训练样本遵循相同的计算图结构。例如在三步加法中,固定为 \(a + b = c\), \(c + d = e\), \(e + f = g\) 的形式,只变化数值不变化结构。这样模型可以学到 "先算第一步,再算第二步" 的固定计算流程
- 设计动机:通过控制数据模式的一致性,测试模型能否将学到的固定计算流程泛化到未见过的数值组合
-
非固定模式数据集(Unfixed-Pattern Dataset):
- 功能:模拟真实世界中推理任务结构多变的情况
- 核心思路:训练样本的计算图结构在不同样本间随机变化。例如多步赋值任务中,变量的赋值链长度和分支结构在不同样本间不同。这要求模型真正理解推理规则,而非记忆固定模式
- 设计动机:测试模型在面对结构不同的推理任务时,是否能真正"理解"推理规则并进行泛化
-
分析框架——内部表征探测:
- 功能:深入分析模型是否在内部真正执行了逐步推理
- 核心思路:通过 probing(在 Transformer 中间层训练线性分类器)检测每一层是否编码了中间推理步骤的信息。如果模型真正进行逐步推理,应该能在早期层看到第一步的结果、中间层看到中间步骤、最后层看到最终结果
- 设计动机:区分模型是"真正在推理"还是"直接记住了输入到输出的映射"
损失函数 / 训练策略¶
标准的自回归语言建模损失(交叉熵),在合成数据集上从零训练 GPT-2-small。分别训练固定模式和非固定模式版本进行对比。此外还在 SOTA 大模型(如 GPT-4、Llama 等)上验证发现是否成立。
实验关键数据¶
主实验¶
固定模式 vs 非固定模式在多步加法任务上的测试准确率:
| 数据模式 | 域内 (ID) | 域外-数值 (OOD-Value) | 域外-步数 (OOD-Step) |
|---|---|---|---|
| 固定模式 | 99.2% | 96.8% | 88.5% |
| 非固定模式 | 98.7% | 47.3% | 22.1% |
| 显式 CoT (参考) | 99.5% | 98.1% | 95.3% |
消融实验¶
| 配置 | ID 准确率 | OOD 准确率 | 说明 |
|---|---|---|---|
| 固定模式 + 2步 | 99.5% | 97.2% | 简单任务泛化好 |
| 固定模式 + 5步 | 98.1% | 89.3% | 步数增加泛化轻微下降 |
| 非固定模式 + 2步 | 99.0% | 63.4% | 非固定模式泛化差 |
| 非固定模式 + 5步 | 97.2% | 18.7% | 步数增加泛化急剧崩溃 |
| GPT-4 隐式推理 | ~95% | ~40% | 大模型也存在相同问题 |
关键发现¶
- 固定 vs 非固定是决定性因素:固定模式下隐式推理能实现良好的 OOD 泛化,非固定模式下则严重过拟合,两者 OOD 差距高达 50%
- Probing 分析显示,固定模式训练的模型在中间层确实编码了中间推理步骤的信息,但这些信息与输入模式高度耦合
- 非固定模式训练的模型倾向于过拟合训练集中出现频率最高的计算模式,在测试时遇到不同模式就失败
- 关键的是,这一现象在 SOTA 大模型上也能复现——即使是 GPT-4 在进行隐式推理时也会走捷径
亮点与洞察¶
- 受控实验设计的精巧性:从零训练 GPT-2 + 合成数据集的方法论非常值得借鉴——它完美隔离了要研究的变量(数据模式),避免了在大模型上实验时的各种混淆因素
- 捷径学习视角统一解释了隐式推理的成功和失败:不是模型不能隐式推理,而是隐式推理天然依赖输入模式的一致性,一旦模式变化就失效。这为理解 test-time compute 的优越性提供了理论支撑
- 为大模型设计启示:要提升隐式推理的泛化能力,可能需要在训练数据中引入更规范化的推理模式,或者设计新的训练目标来避免捷径学习
局限与展望¶
- 合成数据集与真实推理任务存在差距——数学加法链过于简单,可能无法完全反映自然语言推理的复杂性
- GPT-2 的模型规模较小,隐式推理能力可能随规模增长出现质变(scaling law 效应)
- 只研究了数学推理任务,其他类型的推理(逻辑推理、常识推理)是否也存在同样的捷径学习现象尚不清楚
- 未探索如何通过训练策略(如课程学习、数据增强)来缓解捷径学习问题
相关工作与启发¶
- vs Chain-of-Thought(CoT): CoT 的优势在于将推理过程"外显化",让模型每步只做简单计算;本文说明隐式推理的劣势恰在于无法可靠地在内部执行多步推理
- vs Shortcut Learning 文献: Geirhos et al. 的捷径学习理论最初用于视觉领域(纹理偏差 vs 形状偏差),本文将其扩展到推理场景,发现模式匹配 vs 规则学习也是类似的二元对立
- vs Internalizing CoT: 有工作尝试通过蒸馏将 CoT 推理内化到模型参数中,本文的结果暗示这种内化本质上也可能是捷径学习
评分¶
- 新颖性: ⭐⭐⭐⭐ 捷径学习视角解释隐式推理有新意,实验设计精巧
- 实验充分度: ⭐⭐⭐⭐ 合成实验控制严谨,大模型验证充分,但缺少真实任务验证
- 写作质量: ⭐⭐⭐⭐ 逻辑清晰,实验描述详细
- 价值: ⭐⭐⭐⭐ 为理解隐式推理机制提供了重要实证,对推理模型设计有指导意义
相关论文¶
- [ACL 2025] GETReason: Enhancing Image Context Extraction through Hierarchical Multi-Agent Reasoning
- [ACL 2025] Commonsense Reasoning in Arab Culture
- [ACL 2025] Principled Understanding of Generalization for Generative Transformer Models in Arithmetic Reasoning Tasks
- [ACL 2025] RePanda: Pandas-powered Tabular Verification and Reasoning
- [ACL 2025] Temporal Reasoning for Timeline Summarisation in Social Media