跳转至

🔬 可解释性

🔬 ICLR2026 · 56 篇论文解读

A Cortically Inspired Architecture for Modular Perceptual AI

从神经科学出发提出皮层启发的模块化感知 AI 架构蓝图,包含专用编码器、共享跨模态潜空间、路由控制器和递归预测反馈回路四个组件,并通过稀疏自编码器实验验证模块化分解可提升域内特征稳定性 (+15.4pp Jaccard 重叠)。

ActivationReasoning: Logical Reasoning in Latent Activation Spaces

提出 ActivationReasoning (AR) 框架,在 LLM 的潜在激活空间(通过 SAE 提取的特征)上嵌入显式逻辑推理,通过三阶段流程(发现概念表征→检测激活命题→逻辑规则推理)实现多跳推理、概念组合和安全控制,在 PrOntoQA 上 8B 模型达到 95%+ 准确率超越 GPT-4o。

Auditing Cascading Risks in Multi-Agent Systems via Semantic–Geometric Co-evolution

提出 SCCAL 框架,通过耦合语义流(semantic flow)和交互图的 Ollivier–Ricci 曲率(ORC)来建模多智能体系统中语义-几何的协同演化,利用两者的一致性残差作为级联风险的早期预警信号,在语义违规显现前数轮即可检测异常。

Behavior Learning (BL): Learning Hierarchical Optimization Structures from Data

受行为科学中效用最大化范式启发,提出 Behavior Learning (BL) 框架,将数据建模为由可解释的模块化效用最大化问题(UMP)层次组合所诱导的 Gibbs 分布,在预测性能、内在可解释性和参数可辨识性三者之间实现了统一。

Beyond Linear Probes: Dynamic Safety Monitoring for Language Models

提出截断多项式分类器(TPC),通过对 LLM 激活空间中的多项式逐阶训练和截断评估,实现动态安全监控——在简单输入上用低阶(≈线性探针)快速决策,在困难输入上增加高阶项提供更强防护,在 WildGuardMix 和 BeaverTails 两个数据集上匹敌或超越 MLP 基线且具备内置可解释性。

Closing the Curvature Gap: Full Transformer Hessians and Their Implications for Scaling Laws

首次推导完整 Transformer block(含 LayerNorm 和 FFN)的显式 Hessian 表达式及谱范数上界,建立了损失面随数据量增加以 \(O(1/k)\) 速率收敛的理论框架,为 scaling laws 和曲率感知训练提供了数学基础。

Concepts' Information Bottleneck Models

在概念瓶颈模型(CBM)的概念层引入信息瓶颈(IB)正则化,通过惩罚 I(X;C) 同时保留 I(C;Y) 来学习最小充分概念表示,在六个CBM变体和三个基准上一致提升预测性能和概念干预可靠性。

Cross-Modal Redundancy and the Geometry of Vision-Language Embeddings

提出 Iso-Energy 假设(真正跨模态共享的概念在不同模态中应具有相同的平均激活能量),并设计 Aligned SAE 作为分析工具,揭示 VLM 嵌入空间中双模态原子承载跨模态对齐信号、单模态原子完全解释模态间隙的几何结构。

Decomposing Representation Space into Interpretable Subspaces with Unsupervised Learning

提出 NDM(Neighbor Distance Minimization),通过最小化子空间内的近邻距离来无监督地发现神经网络表征空间中的可解释非基对齐子空间,在 GPT-2 上平均 Gini=0.71(信息高度集中),在 Qwen2.5-1.5B 上发现了参数化知识与上下文知识路由的分离子空间。

Decoupling Dynamical Richness from Representation Learning: Towards Practical Measurement

提出一种计算高效、与性能无关的动态丰富度度量 \(\mathcal{D}_{LR}\),通过比较最后一层前后的激活来衡量 rich/lazy 训练动态,并证明 neural collapse 是该度量的特殊情况。

Dynamic Reflections: Probing Video Representations with Text Alignment

本文首次将柏拉图表示假说 (PRH) 从静态图像-文本扩展到时序视频-文本领域,通过对 121 个视觉与语言模型的系统评估,揭示了测试时增加帧数与描述数可将对齐分数提升近一倍的现象,并提出 \(R^2 > 0.98\) 的饱和式缩放律来量化这一行为。

Dynamic Reflections: Probing Video Representations with Text-Driven Reasoning

首次将柏拉图表示假说(PRH)扩展到时序领域,系统研究视频-文本表示对齐,发现通过增加测试时的帧数和描述数量可以显著提升对齐分数(翻倍),并提出了精确的参数化测试时缩放定律。

Evolution of Concepts in Language Model Pre-Training

首次将 crosscoders(跨快照稀疏字典学习)应用于追踪语言模型预训练过程中特征的涌现和演化,发现预训练存在"统计学习→特征学习"两阶段相变,并通过归因分析将微观特征演化与宏观下游任务指标因果关联。

Exploring Interpretability for Visual Prompt Tuning with Cross-layer Concepts

提出IVPT(Interpretable Visual Prompt Tuning),通过跨层类别无关概念原型将抽象visual prompt关联到人类可理解的语义区域,在保持参数高效微调优势的同时,首次实现了visual prompt的可解释性,在CUB-200等细粒度分类基准上同时提升解释一致性(+8.4%)和准确率。

ExPO-HM: Learning to Explain-then-Detect for Hateful Meme Detection

提出 ExPO-HM,受人类审核员培训流程启发,结合策略手册 SFT 预热、GRPO 课程学习和条件决策熵(CDE)奖励,首次实现 Explain-then-Detect 仇恨 Meme 检测在二分类、细粒度分类和推理质量上全面超越直接检测基线,F1 提升最高达 15-17%。

Formal Mechanistic Interpretability: Automated Circuit Discovery with Provable Guarantees

将神经网络验证(NN verification)引入机制可解释性,提出首个具有可证明保证的电路发现框架:在连续输入域上保证电路忠实度(input robustness)、在连续 patching 域上保证电路一致性(patching robustness),并形式化了四级最小性层次(quasi → local → subset → cardinal),通过单调性理论将三类保证统一连接。

GAVEL: Towards Rule-Based Safety through Activation Monitoring

借鉴网络安全中 Snort/YARA 规则集的理念,提出将 LLM 内部激活分解为 23 个细粒度"认知元素"(CE),再通过布尔逻辑组合为可审计的安全规则,在 Mistral-7B 上以 <1% 推理开销实现 9 类误用场景平均 AUC 0.99、FPR 0.004 的实时检测,并天然支持跨语言、跨模型迁移。

GEPA: Reflective Prompt Evolution Can Outperform Reinforcement Learning

提出 GEPA(Genetic-Pareto)提示优化器,通过自然语言反思从少量执行轨迹中诊断问题并迭代优化提示,在六个任务上平均超越 GRPO 6%(最高20%),同时仅使用 1/35 的采样量。

Grokking in LLM Pretraining? Monitor Memorization-to-Generalization without Test

首次在实际规模 LLM(7B MoE)的近单遍预训练中验证 grokking 现象——不同数据组异步记忆、延迟泛化;通过分析 MoE routing pathway 的演化(从 instance-specific 到 structured/shared),提出两个零成本指标来监控泛化进度,无需 instruction tuning 和 benchmark 评估。

Hallucination Begins Where Saliency Drops

提出 LVLMs-Saliency 梯度感知诊断框架来量化每个输出 token 的视觉锚定强度,发现"当先前输出 token 对下一个 token 预测的显著性降低时,幻觉就会产生"的关键规律,并基于此设计了 SGRS(显著性引导的拒绝采样)+ LocoRE(局部一致性增强)双机制推理时框架,在多个 LVLM 上显著降低幻觉率。

Hidden Breakthroughs in Language Model Training

提出 POLCA(Projection Oriented Loss Change Allocation)——一种沿低秩训练子空间任意正交基分解单样本损失变化的方法,从看似平滑的训练损失曲线中揭示出大量隐藏的概念性突破(hidden breakthroughs),将训练可解释性从"先定义技能再观测"翻转为"先分解再自动发现技能"。

How Do Transformers Learn to Associate Tokens: Gradient Leading Terms Bring Mechanistic Understanding

通过对训练梯度的前导项近似分析,推导出Transformer在训练早期阶段各权重矩阵的闭式表达——均可分解为三种基函数(bigram、token-interchangeability、context mapping)的简单组合——从而揭示Transformer如何从自然语言数据中学习"bird"↔"flew"这类语义关联,且理论预测与真实LLM的学到权重高度吻合。

Implicit Statistical Inference in Transformers: Approximating Likelihood-Ratio Tests In-Context

从统计决策论视角出发,证明Transformer在上下文学习中能近似Bayes最优的似然比检验充分统计量,并通过机制分析揭示模型对线性/非线性任务采用不同深度的自适应电路。

Information Shapes Koopman Representation

Initialization Schemes for Kolmogorov-Arnold Networks: An Empirical Study

首次对样条KAN的初始化策略进行系统性研究,提出LeCun/Glorot启发的方差保持方案和可调幂律初始化族,在126K+模型实例的大规模实验中证明幂律初始化在函数拟合和PDE求解上全面超越基线,Glorot方案在大参数量模型上增益显著,NTK特征谱分析揭示了其背后的优化动力学机制。

Internal Planning in Language Models: Characterizing Horizon and Branch Awareness

提出基于VQ-VAE的信息论框架来分析语言模型内部的规划行为,发现规划视野是任务依赖的、模型隐式保留未选择的正确路径信息、下一token决策主要依赖最近的计算。

Layer by layer, module by module: Choose both for optimal OOD probing of ViT

通过大规模线性探测实验系统研究预训练ViT的中间层行为,发现分布偏移是深层性能退化的主因,并在模块级别揭示了最优探测点取决于偏移程度:显著偏移时探测FFN激活最优,弱偏移时探测MHSA归一化输出最优。

LORE: Jointly Learning the Intrinsic Dimensionality and Relative Similarity Structure from Ordinal Data

提出LORE——首个同时从序数三元组比较中联合学习嵌入表示和内在维度的框架:用非凸Schatten-p拟范数(p<1)正则化替代传统的预设维度策略,通过迭代重加权(IRNN)算法求解并证明收敛到稳定点;在合成数据、LLM模拟感知实验和3个众包数据集上,LORE在维度恢复上远超所有基线方法,同时保持高三元组准确率和语义可解释性。

MATA: A Trainable Hierarchical Automaton System for Multi-Agent Visual Reasoning

提出MATA(Multi-Agent hierarchical Trainable Automaton),将多Agent视觉推理建模为层次有限状态自动机,顶层状态转移由可训练的hyper agent(基于LLM的状态控制器)学习,每个Agent内部使用规则化的子自动机,通过共享内存实现协作与竞争,在多个视觉推理基准上达到SOTA。

Modal Logical Neural Networks for Financial AI

提出模态逻辑神经网络(MLNN),将 Kripke 语义(必然/可能模态算子)集成到神经网络中,在金融合同安全审查、洗售合规和市场串谋检测中实现可审计的逻辑推理与深度学习性能的结合。

Narrow Finetuning Leaves Clearly Readable Traces in Activation Differences

发现窄域微调(narrow finetuning)在 LLM 激活中留下清晰可读的痕迹:即使在无关文本的前几个 token 上,微调前后模型的激活差异也编码了微调目标的语义信息。通过 Activation Difference Lens(ADL)方法,可解释性 agent 识别微调目标的成功率达 91%,比黑盒基线高 2 倍以上。

NIMO: a Nonlinear Interpretable MOdel

NIMO 提出一种混合模型 \(y = \sum_j x_j \beta_j (1 + g_{\mathbf{u}_j}(\mathbf{x}_{-j}))\),在保留线性回归系数全局可解释性(通过均值边际效应 MEM)的同时,利用神经网络提供逐实例的非线性修正,并通过参数消去法高效联合优化线性系数和网络参数。

Noise Stability of Transformer Models

提出噪声稳定性(noise stability)替代平均敏感度(average sensitivity)作为衡量 Transformer 简单性偏差的更优指标,并基于此设计正则化方法,在合成任务和语言建模上分别加速训练约 35% 和 75%。

PolySHAP: Extending KernelSHAP with Interaction-Informed Polynomial Regression

本文提出 PolySHAP,通过将 KernelSHAP 的线性近似扩展为高阶多项式回归来捕获特征间的非线性交互,从而提升 Shapley 值的估计精度;并从理论上证明了配对采样(paired sampling)等价于二阶 PolySHAP,首次解释了配对采样启发式方法优越性能的根本原因。

PoSh: Using Scene Graphs to Guide LLMs-as-a-Judge for Detailed Image Descriptions

提出PoSh评估指标,通过从生成描述和参考描述中提取场景图 \(G(d) = \langle O(d), E(d), K(d) \rangle\) 作为结构化rubric,引导开源14B LLM(Qwen3-14B)进行QA式细粒度错误定位,在DOCENT艺术品基准和CapArena上以+0.05 Spearman ρ超越GPT-4o-as-Judge,且完全可复现。

Provably Explaining Neural Additive Models

针对 Neural Additive Models (NAMs) 设计了专用的高效解释算法,仅需对数级别的验证查询即可生成可证明的基数最小解释(cardinally-minimal explanations),在速度和解释质量上均超越了现有的通用子集最小解释算法。

RADAR: Reasoning-Ability and Difficulty-Aware Routing for Reasoning LLMs

本文提出 Radar 框架,将推理语言模型(RLM)的自适应推理问题建模为多目标优化,利用项目反应理论(IRT)联合估计可解释的查询难度和模型配置能力参数,实现轻量级、可扩展的查询级路由,在 8 个推理基准上优于 SOTA 路由方法,且仅增加约 7ms 延迟。

SALVE: Sparse Autoencoder-Latent Vector Editing for Mechanistic Control of Neural Networks

提出 SALVE 框架——"发现-验证-控制"三阶段流程:用 L1 正则化稀疏自编码器发现模型的可解释特征基,用 Grad-FAM 可视化验证特征语义,再利用 SAE 解码器矩阵引导永久性权重空间编辑。在 ResNet-18 和 ViT-B/16 上验证了从类别抑制到跨类特征调控的精确、持久、低副作用控制。

SEED-SET: Scalable Evolving Experimental Design for System-level Ethical Testing

提出 SEED-SET 框架,将自主系统的伦理评估建模为层次化贝叶斯实验设计问题,同时整合客观指标和主观价值判断,在有限预算下高效生成高伦理对齐度的测试用例。

Semantic Regexes: Auto-Interpreting LLM Features with a Structured Language

提出 semantic regexes——一种用于自动描述 LLM 特征的结构化语言,通过 symbol/lexeme/field 三种原语及 context/composition/quantification 修饰符,在保持与自然语言同等准确度的同时,实现了更简洁、更一致的特征描述,并可量化特征复杂度随层的变化趋势。

Semantic Regexes: Auto-Interpreting LLM Features with a Structured Language

本文提出 Semantic Regexes(语义正则表达式),一种用于自动描述 LLM 特征的结构化语言,通过原语(symbol/lexeme/field)+ 修饰符(context/composition/quantification)组合,实现与自然语言同等准确但更简洁、一致且可分析的特征描述。

Stretching Beyond the Obvious: A Gradient-Free Framework to Unveil the Hidden Landscape of Visual Invariance

提出 Stretch-and-Squeeze(SnS)算法,一个无梯度、模型无关的双目标优化框架,通过在不同处理层级"拉伸"表征同时"压缩"目标单元激活来系统性地探测视觉系统的不变性流形,揭示了标准与鲁棒 CNN 之间不变性可解释性的分层差异。

Temporal Sparse Autoencoders: Leveraging the Sequential Nature of Language for Interpretability

提出 Temporal SAEs (T-SAEs),通过引入时间对比损失鼓励高层特征在相邻 token 间保持一致激活,在无显式语义信号的自监督训练下实现语义与句法特征的解耦,恢复更平滑、连贯的语义概念且不牺牲重构质量。

Position: The Reasoning Trap — Logical Reasoning as a Mechanistic Pathway to Advanced AI Self-Awareness

提出 RAISE 框架,论证逻辑推理能力(演绎、归纳、溯因)的改进是 AI 情境意识(situational awareness)的机制性路径,改善推理不可避免地放大了情境意识的危险前提条件。

The Reasoning Trap — Logical Reasoning as a Mechanistic Pathway to Situational Awareness

立场论文,提出 RAISE (Reasoning Advancing Into Self Examination) 框架,系统论证逻辑推理能力的三种提升路径(演绎/归纳/溯因)会不可避免地赋予 LLM 情境感知能力,并构建了从基础自我识别到战略性欺骗的五级升级阶梯,同时指出 RLHF、Constitutional AI 等当前安全机制均不足以阻止这一趋势。

There Was Never a Bottleneck in Concept Bottleneck Models

指出概念瓶颈模型(CBM)实际上并不存在真正的"瓶颈"——表征变量 \(z_j\) 能预测概念 \(c_j\) 不意味着它只编码 \(c_j\) 的信息。提出 MCBM(Minimal Concept Bottleneck Model),通过信息瓶颈正则化约束每个 \(z_j\) 仅保留对应概念的信息,实现真正的解耦表征和可靠的概念干预。

Tokenizing Single-Channel EEG with Time-Frequency Motif Learning

提出 TFM-Tokenizer,首个从单通道 EEG 学习时频 motif 词表并编码为离散 token 的框架,在事件分类、癫痫检测等任务上一致提升性能,且可作为即插即用组件增强现有 EEG 基础模型。

TokenSeek: Memory Efficient Fine Tuning via Instance-Aware Token Ditching

提出 TokenSeek,一个通用的 Transformer 微调内存优化插件,通过结合上下文注意力信息和梯度信息进行实例级 token 重要性评估,仅保留 10% 高价值 token 参与梯度更新,实现最高 65.7% 内存节省且性能持平甚至超越全 token 微调。

Towards Understanding Subliminal Learning: When and How Hidden Biases Transfer

本文通过受控实验和机制分析揭示了潜意识学习(subliminal learning)的本质——教师模型的隐藏偏好通过少量"分歧token"(divergence tokens)传递给学生模型,且早期层是关键,同时发现该现象非常脆弱,简单的同义改写即可抑制。

Uncovering Grounding IDs: How External Cues Shape Multimodal Binding

本文通过机制可解释性工具揭示了LVLM中外部视觉线索(符号+分割线)改善推理的内部机理:模型在结构化输入下自发产生"Grounding IDs"——将视觉区域与符号锚点绑定的潜在标识符,因果激活交换实验(swap accuracy=0.98)证明该绑定因果性地驱动模型预测,且该机制在MS-COCO上将Qwen2.5-VL的CHAIRs幻觉率从32.4%降至27.2%,同时适用于GPT-4o等闭源模型。

Uni-NTFM: A Unified Foundation Model for EEG Signal Representation Learning

Uni-NTFM 从神经科学第一性原理出发,设计异质特征投影(HFPM)解耦时频编码、分层拓扑嵌入(TE)统一异构电极配置、MoE Transformer 实现功能模块化与稀疏编码,在 28000 小时 EEG 数据上预训练 1.9B 参数模型,9 个下游任务上的线性探测和微调均达到 SOTA。

Universal Properties of Activation Sparsity in Modern Large Language Models

对现代 LLM(GLU 架构 + SiLU/GELU)的激活稀疏性进行系统性研究,提出通用的 top-p 稀疏化框架和临界稀疏度(critical sparsity)指标,发现激活稀疏度随模型规模单调递增、输入稀疏化是最实用的免训练加速方案,并首次证明扩散型 LLM 也具有显著的激活稀疏性。

VCWorld: A Biological World Model for Virtual Cell Simulation

提出 VCWorld,一个细胞级白盒模拟器,整合结构化生物知识图谱与大语言模型的迭代推理能力,以数据高效的方式模拟药物扰动引发的信号级联,生成可解释的逐步预测和显式机制假说,在药物扰动基准上达到 SOTA。

When Machine Learning Gets Personal: Evaluating Prediction and Explanation

本文提出统一框架量化模型个性化对预测准确性和解释质量的影响,证明二者可以分离(预测不变但解释变好/变差),推导了基于数据集统计量的假设检验误差概率有限样本下界,揭示了许多实际场景中个性化效果在统计上根本不可检验。

When Thinking Backfires: Mechanistic Insights Into Reasoning-Induced Misalignment

发现并机制性地解释"推理诱导失对齐"(RIM)现象:增强推理能力(CoT prompting 或数学微调)会削弱安全守护,原因是推理和安全共享神经元资源,训练推理时安全关键神经元的激活发生不成比例的偏移。

ZeroTuning: Unlocking the Initial Token's Power to Enhance Large Language Models Without Training

提出 ZeroTuning,仅需对初始 token(如 <BOS>)的注意力分数进行头部特异性缩放,即可在无训练情况下提升 LLM 在 15 个数据集上的表现,仅需修改 4 行代码。