The Non-Linear Representation Dilemma: Is Causal Abstraction Enough for Mechanistic Interpretability?¶
会议: NeurIPS 2025 (Spotlight)
arXiv: 2507.08802
代码: 待确认
领域: llm_nlp / 可解释性
关键词: Causal Abstraction, mechanistic interpretability, Linear Representation Hypothesis, Alignment Map, Interchange Intervention
一句话总结¶
证明了当因果抽象(causal abstraction)中的对齐映射不受线性约束时,任意神经网络都可以被映射到任意算法,使得因果抽象变得平凡而无信息量,由此提出"非线性表示困境"——在对齐映射的复杂度与准确度之间缺乏原则性的权衡方式。
背景与动机¶
因果抽象是机制可解释性领域的核心方法论——通过寻找神经网络与高层算法之间的映射来"解码"模型的决策过程。然而这个方法论本身的理论基础值得审视:
- 线性表示假说驱动了实践:当前大多数可解释性工作隐式依赖线性表示假说(Linear Representation Hypothesis),即模型在表示空间中线性编码特征,因此使用线性探针/线性对齐映射来建立网络与算法的对应。但线性约束并非因果抽象定义的一部分——它是一个方便但未经充分论证的假设。
- 非线性映射的表达力未被充分探索:因果抽象的数学定义允许任意可测函数作为对齐映射,但几乎所有实证工作都限制在线性映射。一个自然的问题是:如果放开这个限制会怎样?映射是否仍然有意义?
- 可解释性结论的可靠性存疑:如果足够复杂的对齐映射能让任何模型"看起来"在执行任何算法,那么现有基于因果抽象的可解释性发现(如"GPT-2在执行间接对象识别电路")的可靠性就值得重新审视——结论可能是映射的artifact而非模型的真实机制。
- 复杂度-准确度权衡缺乏理论指导:实践中研究者凭直觉选择线性映射,但对"为什么线性"缺乏理论论证。一旦放松到非线性,映射的复杂度成为新的自由度,如何设定合理界限?这个问题在可解释性社区基本未被讨论。
- 信息编码假设的基础性地位未被显式化:因果抽象框架隐含了一个前提——模型以某种特定方式编码信息。本文揭示这个前提不仅是隐含的,而且是因果抽象方法论有效性的必要条件。没有它,整个方法论就会崩塌。
- 与Transformer电路分析的张力:近年来大量工作通过线性探针+因果干预发现了"注意力头的功能角色"等结构化发现,但这些发现的稳健性取决于线性映射假设的合理性——如果非线性映射能产生同样甚至更好的结果,这些"发现"如何解读?
方法详解¶
理论结果:非线性抽象的平凡性¶
本文的核心定理表明:在温和的假设下(如表示空间连续、对齐映射允许为任意可测函数),任意神经网络都可以被因果抽象为任意算法。更具体地说:
对于一个将输入映射到输出的神经网络 \(f: \mathcal{X} \to \mathcal{Y}\),和任意高层算法 \(A\) 及其中间变量 \(Z\),总存在一个(可能非线性的)对齐映射 \(\tau: \mathcal{H} \to Z\)(从网络的隐藏表示空间到算法的中间变量空间),使得网络在interchange intervention下完美对齐算法——即interchange-intervention accuracy (IIA) 达到100%。
证明直觉:这本质上利用了高维表示空间的"过剩容量"。在足够表达力的映射族下,总可以找到一个映射将表示空间中的任意分区映射到目标算法的任意中间状态。这类似于"给定足够的参数,任何函数都能被拟合"——对齐映射本身吸收了所有的"解释能力"。
实证验证:随机模型也能完美对齐¶
为验证理论预测的实际可行性,作者在间接对象识别(IOI)任务上进行了实验。IOI任务是机制可解释性的经典benchmark:给定 "When Mary and John went to the store, John gave a drink to",模型应补全为 "Mary"。
关键实验设计: - 使用随机初始化的GPT-2模型(未经任何训练、无法完成IOI任务) - 训练非线性对齐映射(MLP)将随机模型的隐藏状态映射到IOI算法的中间变量 - 在interchange intervention下计算IIA
核心发现:非线性对齐映射在随机初始化模型上实现了100% IIA。这意味着一个完全不理解语言、不能执行IOI的随机网络,在因果抽象框架下"完美地"实现了IOI算法——这显然是荒谬的,从反面证明了无约束因果抽象的空洞性。
非线性表示困境¶
由此产生的困境是: - 保持线性约束:结果有意义但可能遗漏模型中的非线性编码信息 - 放松线性约束:映射表达力增强但结果变得无信息量 - 中间地带:没有原则性的方式来决定"多少非线性是合适的"
这不是一个工程问题("用MLP还是线性层"),而是一个方法论问题:因果抽象作为可解释性工具的有效性,根本性地依赖于对模型信息编码方式的先验假设,而这个假设通常是未经验证的。
实验关键数据¶
| 实验设置 | 对齐映射类型 | 模型状态 | IIA (%) | 结论 |
|---|---|---|---|---|
| GPT-2 + IOI任务 | 线性映射 | 训练后 | ~85-95% | 标准因果抽象结果 |
| GPT-2 + IOI任务 | 非线性MLP | 随机初始化(未训练) | 100% | 因果抽象在非线性映射下变平凡 |
| GPT-2 + IOI任务 | 线性映射 | 随机初始化 | ~50%(随机水平) | 线性约束确实过滤了虚假对齐 |
| 分析维度 | 线性映射 | 非线性映射 | 含义 |
|---|---|---|---|
| 对训练模型的IIA | 较高 | 100% | 非线性可能引入虚假对齐 |
| 对随机模型的IIA | 随机水平 | 100% | 非线性映射的解释力来自映射本身而非模型 |
| 映射复杂度 | 低(d×d矩阵) | 高(多层MLP) | 复杂度越高→越容易达到虚假完美 |
| 可解释性价值 | 有意义 | 无意义 | 验证了线性假设的关键作用 |
亮点¶
- 理论结果干净且具有颠覆性:一个定理就揭示了因果抽象在无约束下的平凡性,论证简洁有力。这类"指出方法论缺陷"的工作在rapidly growing的可解释性领域极为重要。
- 实证设计巧妙:用随机初始化模型达到100% IIA,是最有说服力的反例——如果一个什么都不会的模型也能"完美执行"某算法,那因果抽象的结论就是空洞的。这个实验设计值得作为教科书案例。
- 问题比答案更重要:本文提出的"非线性表示困境"是一个深层的方法论问题,它指出可解释性研究不能绕开关于模型信息编码方式的假设——这对后续研究方向有重大指导意义。
- Spotlight论文实至名归:在可解释性方法不断增多但理论反思不足的当下,这篇论文提出了正确的警示——不是所有的合理方法论都是正确的,需要关注其底层假设的合理性。
局限与展望¶
- 未提出建设性替代方案:论文在指出问题方面做得很好,但未能给出具体的"如何做对"的方案。"研究信息编码假设与因果抽象的关系"是一个粗泛的方向,缺乏可操作的路线图。
- 实验场景较单一:仅在IOI任务上验证,仅使用GPT-2。对于更大模型(LLaMA/GPT-4)和更多任务(事实查找、算术推理)的普适性未验证。
- 非线性映射的具体形式未充分探索:论文使用MLP作为非线性映射,但不同程度的非线性(如低秩非线性、kernel映射、浅层网络)对结果的影响程度如何?是否存在"刚好足够"的非线性程度?
- 与信息论视角的联系可进一步加深:可以从互信息的角度量化"对齐映射在多大程度上创造了信息 vs. 提取了信息",为复杂度-准确度权衡提供信息论的界。
- 实际影响可能被高估:大多数严肃的可解释性工作已经使用线性映射,作者指出的风险(使用非线性映射导致虚假结论)在实践中并不常见——但作为理论基础的阐明仍有价值。
与相关工作的对比¶
与Geiger et al. (2021, 2024)因果抽象框架比:本文是对Geiger等人提出的因果抽象方法论的直接批判性审视。Geiger等人发展了interchange intervention的方法论但隐含线性映射假设,本文揭示了放松这一假设后的坍塌。
与线性表示假说(Park et al. 2024, Jiang et al. 2024)比:线性表示假说为因果抽象中使用线性映射提供了实证动机,本文从反面论证了这个假设不仅仅是"方便"的,而是"必要"的——否则因果抽象就变得空洞。
与探针方法(Belinkov 2022, Hewitt & Liang 2019)比:线性探针的"控制任务"方法试图区分探针学到的信息vs. 表示中编码的信息。本文的工作在更高层面(因果抽象vs.探针)揭示了同样的问题——工具本身可能制造虚假发现。
与Distributed Alignment Search (DAS)比:DAS是因果抽象的一种具体实现,使用正交线性变换作为对齐映射。本文的理论结果暗示DAS的线性约束是其有效性的关键保障,而非限制。
启发与关联¶
- "表达力越强的工具越需要正则化"的启示:在机器学习中我们深知过参数化模型需要正则化,本文将同样的道理推广到可解释性工具——过于灵活的对齐映射等价于过拟合,需要通过约束(如线性性)来正则化。
- 对LLM可解释性的实际指导:使用SAE/线性探针/因果干预分析LLM时,应始终报告映射的复杂度,并验证简单映射(如线性)是否能达到类似性能——如果需要复杂映射才能得到"好看"的结果,应该对结论持怀疑态度。
- 与模型压缩的潜在联系:因果抽象本质上也是一种"表示压缩"——将高维隐藏状态映射到低维算法变量。本文的发现暗示压缩映射的表达力需要与目标任务的复杂度匹配,这与知识蒸馏中的设计理念一致。
评分¶
- 新颖性: ⭐⭐⭐⭐⭐ 提出的困境是全新的深层方法论问题,理论结果有颠覆性
- 实验充分度: ⭐⭐⭐ 实验设计精巧但场景较少(仅IOI+GPT-2),lacks breadth
- 写作质量: ⭐⭐⭐⭐⭐ 论证逻辑层层递进,问题动机阐述清晰,Spotlight水平的写作
- 价值: ⭐⭐⭐⭐ 对可解释性方法论基础的反思极具价值,但缺乏建设性替代方案略减分
相关论文¶
- [NeurIPS 2025] Minimizing False-Positive Attributions in Explanations of Non-Linear Models
- [ICML 2025] MIB: A Mechanistic Interpretability Benchmark
- [NeurIPS 2025] Causal Head Gating: A Framework for Interpreting Roles of Attention Heads in Transformers
- [ACL 2025] An Empirical Study of Mechanistic Interpretability Approaches for Factual Recall
- [ACL 2025] Mechanistic Interpretability of Emotion Inference in Large Language Models