⚡ LLM 效率¶
🧠 NeurIPS2025 · 共 54 篇
- 3-Model Speculative Decoding (PyramidSD)
-
在标准的draft-target两模型推测解码的中间插入一个"qualifier"模型,构成三层金字塔式解码架构(PyramidSD),利用模型家族天然的熵梯度来分级过滤token,以模糊接受准则放宽匹配阈值,实现最高1.91×的速度提升(在RTX 4090上达到124 tok/s)。
- A Multi-Task Benchmark for Abusive Language Detection in Low-Resource Settings
-
针对低资源语言 Tigrinya,构建了首个大规模多任务基准数据集 TiALD(13,717条YouTube评论,涵盖滥用检测、情感分析、主题分类三任务),并证明小型微调模型在低资源场景下显著优于GPT-4o等前沿LLM(F1: 86.67% vs 79.31%)。
- A Stochastic Differential Equation Framework for Multi-Objective LLM Interactions
-
将 LLM 迭代交互中的多目标优化建模为 SDE(漂移-扩散过程),通过干扰矩阵量化目标间的耦合模式,通过特征值谱分析策略收敛行为,在代码生成(安全性、效率、功能性三目标)上验证了不同策略的收敛率(0.33-1.29)和可预测性(\(R^2\) 达 0.74)。
- A Unified Framework for Establishing the Universal Approximation of Transformer-Type Architectures
-
本文建立了一个统一的理论框架来证明各类Transformer架构的万能逼近性(UAP),将UAP归结为两个可验证条件——前馈层的非线性仿射不变性和注意力层的token可区分性——并利用解析性假设将后者简化为仅需检验两样本情形。
- Advancing Expert Specialization for Better MoE
-
通过正交性损失(减少专家间投影重叠)和方差损失(增大路由分数差异)双目标优化,在不修改 MoE 架构的前提下将专家重叠减少 45%、路由方差提升 150%,11 个基准任务平均提升 23.79%,同时完全保持负载均衡。
- Approximately Aligned Decoding
-
提出 Approximately Aligned Decoding (AprAD),一种利用投机解码(speculative decoding)中的前缀选择算法来实现LLM受约束生成的方法——在遇到约束违反时,既不像约束生成那样仅回退一步(导致极端概率放大),也不像ASAp那样完全重新采样(计算成本过高),而是通过投机采样智能选择回退位置,在输出分布失真和计算效率之间取得良好平衡。
- Constant Bit-Size Transformers Are Turing Complete
-
首次证明常数 bit 精度、固定参数数量的 Transformer(仅允许上下文窗口增长)是图灵完备的,并建立了精确的复杂度等价关系 WINDOW[s(n)] = SPACE[s(n)],表明扩展上下文窗口——而非模型尺寸——已足以实现通用计算。
- Critical Batch Size Revisited: A Simple Empirical Approach to Large-Batch Language Model Training
-
提出 branched training 方法直接实证测量临界 batch size (CBS),发现 CBS 在训练早期快速增长后趋于平稳且不依赖模型规模,据此设计 batch size warmup 策略以 43% 更少的梯度步数达到同等甚至更优的训练 loss。
- Deep Compositional Phase Diffusion for Long Motion Sequence Generation
-
提出 Compositional Phase Diffusion 框架,在 ACT-PAE 建立的频域相位空间中用 SPDM 和 TPDM 分别处理语义对齐和过渡连续性,实现长程组合式动作序列生成,在 BABEL-TEACH 上达到 SOTA。
- Dense Associative Memory with Epanechnikov Energy
-
提出基于 Epanechnikov 核的 log-sum-ReLU(LSR)能量函数替代传统的 log-sum-exp(LSE),在 Dense Associative Memory 中首次实现了"精确记忆所有模式 + 同时涌现新的创造性局部极小"的共存,且保持指数级记忆容量。
- DICE: Discrete Interpretable Comparative Evaluation with Probabilistic Scoring for RAG
-
提出 DICE 框架,通过两阶段评估(证据耦合深度分析 + 概率化 {A,B,Tie} 打分)和瑞士赛制锦标赛实现 RAG 系统的可解释、鲁棒、高效评估,在中文金融 QA 数据集上达到 85.7% 人类专家一致率,远超 RAGAS(45.7%)。
- DISC: Dynamic Decomposition Improves LLM Inference Scaling
-
DISC 提出了一种动态分解算法,在推理时根据每一步的 z-score(采样奖励的标准化最大值)自动、递归地调整推理步骤的粒度——困难步骤分更细、简单步骤一步跨过——可以即插即用地与贪心搜索、Beam Search、MCTS 结合,在 APPS、MATH、LiveCodeBench 上以更少的 token 预算达到更高的 pass@k。
- Document Summarization with Conformal Importance Guarantees
-
首次将Conformal Prediction应用于文档摘要,通过校准句子重要性分数的阈值,为抽取式摘要提供用户可控的覆盖率(\(1-\alpha\))和召回率(\(\beta\))的严格统计保证,方法模型无关且仅需小规模校准集。
- Dynamics of Spontaneous Topic Changes in Next Token Prediction with Self-Attention
-
从理论和实验两方面研究自注意力模型中"自发主题切换"的动力学机制,证明在单层 self-attention 模型中:(1) 混合主题训练保持原主题的 token 优先级顺序;(2) 主题切换仅在低优先级 token 数量超过高优先级 token 时发生;(3) 更长输入和更模糊主题不会增加切换概率——与人类认知相反。
- Edit Less Achieve More Dynamic Sparse Neuron Masking For Lifelong Knowledge Edit
-
提出 NMKE 框架,通过神经元级归因发现 knowledge-general 和 knowledge-specific 两类知识神经元,并结合熵引导的动态稀疏 mask,实现精准神经元级知识编辑,在 5000 步连续编辑后仍保持高编辑成功率和模型通用能力。
- Efficient Training-Free Online Routing for High-Volume Multi-LLM Serving
-
提出首个无需训练的在线 LLM 路由算法 PORT,通过近似最近邻搜索估计查询特征,并在少量初始查询上一次性优化对偶变量作为路由权重,在有限 token 预算下实现接近离线最优 (\(1-o(1)\) 竞争比) 的路由性能,平均较基线提升 3.55× 性能、1.85× 成本效率和 4.25× 吞吐量。
- Exploring the Translation Mechanism of Large Language Models
-
提出 subspace-intervened path patching 方法对 LLM 翻译机制进行精细因果分析,发现翻译由不到 5% 的稀疏 attention head 驱动——分为 source head、indicator head、positional head 三类功能角色,MLP 将其特征整合为以英语为中心的中间表示,仅微调 64 个关键 head 即可匹配全参数微调性能。
- Frequency-Aware Token Reduction for Efficient Vision Transformer
-
从频域视角提出 frequency-aware token reduction,将 token 分为高频(HF)和低频(LF)两组,选择性保留 HF token 并将 LF token 聚合为 DC token,在缓解 rank collapse 的同时减少 ViT 的计算量,在 30% token 减少率下多个模型上超越现有 SOTA。
- From Shortcut to Induction Head: How Data Diversity Shapes Algorithm Selection in Transformers
-
通过严格的理论分析证明了预训练数据的多样性(由"max-sum ratio"刻画)决定了单层Transformer学到的是可泛化的induction head还是无法OOD泛化的位置捷径,并给出了使模型学会induction head的最优预训练分布。
- Hardware-Aligned Hierarchical Sparse Attention For Efficient Long-Term Memory Ac
-
提出层次化稀疏注意力(HSA)及 RAMba 架构,通过两阶段 token-to-chunk 相关性学习与硬件对齐 kernel 设计,让 Mamba 获得高效长程随机访问能力,仅在 4K 上下文预训练即可在 64M passkey retrieval 上达到 100% 准确率。
- Hierarchical Balance Packing: Towards Efficient Supervised Fine-tuning for Long-Context LLM
-
提出层次均衡打包(HBP)方法,通过多级打包分组、均衡批处理、自适应序列并行和稳定损失归一化,解决长短上下文混合 SFT 中的注意力计算不均衡和通信浪费问题,在 DeepSeek-V2 (236B) 上实现 2.4× 训练加速且性能无损。
- HiFi-RAG: Hierarchical Content Filtering and Two-Pass Generation for Open-Domain RAG
-
通过分离轻量级 Flash 模型的过滤能力与 Pro 模型的推理能力,构建多阶段管道(查询优化→分层过滤→两阶段生成→引文验证),在 MMU-RAGent 竞赛中实现 SOTA 性能。
- HyGen: Efficient LLM Serving via Elastic Online-Offline Request Co-location
-
HyGen是干扰感知LLM推理系统,通过延迟预测和虚拟队列调度实现在线离线工作负载的弹性共置,保证SLO同时获得3.87-5.84倍吞吐改进。
- Improving Perturbation-based Explanations by Understanding the Role of Uncertainty Calibration
-
揭示了不确定性校准(模型置信度与实际准确率的对齐)与扰动式可解释性方法质量之间的根本联系,证明模型在扰动输入下的误校准直接损害全局和局部解释质量,并提出 ReCalX 通过扰动级别自适应温度缩放显著改善解释的鲁棒性和保真度。
- L-MTP: Leap Multi-Token Prediction Beyond Adjacent Context for Large Language Models
-
L-MTP 在多token预测(MTP)基础上引入跳跃机制,预测非相邻位置的token(如位置1,3,5,7而非1,2,3,4),通过"后向查找"解码策略复用先前预测填补空隙,在3B-12B模型上实现22%推理加速的同时保持或提升任务性能。
- Learning in Compact Spaces with Approximately Normalized Transformer
-
提出 anGPT(近似归一化 Transformer),利用高维空间中向量范数的集中现象,用简单标量乘法替代逐层精确归一化,在消除权重衰减和学习率预热的同时实现了相比 GPT+(含 QK-norm)40% 的收敛加速,仅增加 3% 运行时开销。
- Long-Context Modeling with Dynamic Hierarchical Sparse Attention for On-Device LLMs
-
提出动态分层稀疏注意力 (DHSA),通过自适应 chunk 分割 + chunk 级相似度预测 + 上采样到 token 级的分层框架,在不重训基座模型的前提下将密集注意力替换为稀疏注意力,在 Gemma2/3 上实现与密集注意力同等精度、20-60% prefill 延迟降低和 35% 峰值内存节省。
- LooGLE v2: Are LLMs Ready for Real World Long Dependency Challenges?
-
构建覆盖法律/金融/游戏/代码四大真实领域、长度16K-2M token的长依赖推理基准LooGLE v2,设计10类领域特定任务共1,934个QA实例,评估10个LLM发现最强模型GPT-4.1仅59.2%,揭示当前LLM在真实长依赖场景下的根本不足。
- MEMOIR: Lifelong Model Editing with Minimal Overwrite and Informed Retention for LLMs
-
提出MEMOIR框架,通过在FFN层引入零初始化的残差记忆矩阵,利用基于TopHash的稀疏掩码将每次编辑限制在记忆参数的不同子集上,推理时通过掩码重叠率识别相关编辑并条件性激活知识,在15000次连续编辑下仍保持可靠性、泛化性和局部性的最优平衡。
- Minimizing False-Positive Attributions in Explanations of Non-Linear Models
-
针对非线性模型的XAI解释中抑制变量(suppressor variable)导致的假阳性归因问题,提出PatternLocal方法,将局部判别式代理模型权重转换为生成式表示,在XAI-TRIS基准、MRI人工病灶和EEG运动想象三个数据集上显著减少了假阳性特征归因。
- MIR-Bench: Can Your LLM Recognize Complicated Patterns via Many-Shot In-Context Reasoning?
-
提出 MIR-Bench,首个大规模多样化的 many-shot 上下文推理基准,通过从编程题中自动生成输入输出对来测试 LLM 的模式识别能力,发现 LLM 在 many-shot 场景下存在注意力分散导致的性能饱和现象,且转导推理普遍优于归纳推理。
- Mozart: Modularized and Efficient MoE Training on 3.5D Wafer-Scale Chiplet Architectures
-
提出 Mozart 算法-硬件协同设计框架,通过专家聚类分配、细粒度流式调度和 3.5D 晶粒架构(NoP-Tree + 分层存储),在三个 MoE-LLM 上实现 1.9× 以上的训练加速。
- Not All Splits Are Equal: Rethinking Attribute Generalization Across Unrelated Categories
-
本文首次系统评估了属性预测任务中训练/测试划分策略对泛化性能的影响,提出了基于 LLM 语义分组、嵌入相似度、嵌入聚类和超类标签的四种渐进式难度划分方案,发现无监督聚类划分在不依赖标注的情况下实现了与真值超类划分相当的去泄漏效果,同时保留了更好的预测性能。
- Obliviator Reveals the Cost of Nonlinear Guardedness in Concept Erasure
-
提出Obliviator——一种基于RKHS中HSIC最小化的后处理概念擦除方法,通过两步迭代优化逐步变形特征空间,首次实现对非线性对抗者的完全防护,同时量化了非线性防护的效用-擦除代价(utility-erasure trade-off),在多个PLM和数据集上显著优于现有方法。
- On the Entropy Calibration of Language Models
-
系统研究语言模型的熵校准问题(生成文本的熵是否匹配在人类文本上的 log loss),发现由于数据分布的幂律特性(\(\alpha \approx 1\)),误差积累随模型规模的改善极为缓慢(scaling exponent \(\approx -0.05\)),并从理论上证明了在多项式时间内可以在不牺牲多样性的前提下校准熵。
- On the Expressive Power of Mixture-of-Experts for Structured Complex Tasks
-
首次系统分析 MoE 在结构化复杂任务上的表达能力:证明浅层 MoE 可在低维流形上克服维度诅咒(近似速率由内在维度 \(d\) 而非环境维度 \(D\) 决定),深层 MoE 通过 \(E\) 专家 × \(L\) 层的分层组合可高效近似有 \(E^L\) 段的分段函数,远超朴素上界 \(LE\)。
- One Prompt Fits All: Universal Graph Adaptation for Pretrained Models
-
理论证明表示级图提示(representation-level prompt)本质等价于线性探针,据此提出 UniPrompt——基于可学习 kNN 拓扑提示图的输入级方法,通过 bootstrapping 策略融合提示图和原图,在同域和跨域 few-shot 节点分类中一致超越现有图提示学习方法。
- ParallelPrompt: Extracting Parallelism from Large Language Model Queries
-
构建了首个查询内并行(intra-query parallelism)基准数据集ParallelPrompt,包含37000+条真实用户提示的结构化分解标注,证明约10%的用户查询包含可并行的潜在结构,并行执行可实现最高5.7×的延迟加速且质量损失有限。
- Plasticity as the Mirror of Empowerment
-
本文提出广义有向信息(GDI)作为度量智能体可塑性(plasticity)的信息论工具,揭示可塑性是赋权(empowerment)的"镜像"——两者使用相同度量、仅方向相反,并证明了两者之间存在严格的张力约束(tension bound)。
- Scale-invariant Attention
-
借鉴自然图像的尺度不变性,提出对 attention logits 做位置相关的乘性缩放和加性偏移变换,使注意力在不同 token 范围上的总权重和稀疏度满足尺度不变性,从而实现从短序列训练到长序列推理的零样本泛化(4k→64k 仅需一个超参数 \(\tau\))。
- Silent Tokens, Loud Effects: Padding in LLMs
-
系统性研究了padding token在未被正确掩码时对LLM的影响,发现即使少量padding也会漂移隐层表示、降低生成质量、不可预测地改变偏见,而128个padding token可将Llama-3.1-8B的有害提示攻击成功率从8%飙升到77.5%,本质上实现了jailbreak。
- SkyLadder: Better and Faster Pretraining via Context Window Scheduling
-
通过上下文窗口短到长的渐进式调度策略 SkyLadder,在固定计算量下实现更优的预训练效率(节省 22% 训练时间)和更好的模型性能(+3.7%),反驳了"长上下文=好性能"的业界信念。
- SPARTA Alignment: Collectively Aligning Multiple Language Models through Combat
-
让多个LLM组成"斯巴达部落"互相竞技和互评,通过声誉加权的判断聚合生成偏好对,再用DPO迭代训练所有模型,在12个任务中的10个上超越Self-Rewarding等自对齐基线,平均提升7%。
- Structure-Aware Spectral Sparsification via Uniform Edge Sampling
-
本文证明在具有良好聚类结构的图上(结构比 Υ(k) 足够大),均匀边采样即可保留谱聚类所需的谱子空间结构,无需昂贵的有效电阻预计算——这是首个关于均匀采样保持结构的可证明保证。
- 上下文学习中的技术债务:长序列中的递减效率
-
揭示ICL作为学习算法在少射大样本制度下存在本质低效:少射ICL样本复杂度接近贝叶斯最优(1.1×),而多射时恶化至1.45×,信息论分析证明此低效来自非递减过剩风险。
- Tensor Product Attention Is All You Need
-
通过上下文张量分解将 Q/K/V 表示为低秩因子的加权和,将 KV 缓存压缩至原来的 1/10~1/16,同时在验证损失和下游任务精度上超越标准 MHA/MQA/GQA/MLA。
- The Emergence of Sparse Attention: Impact of Data Distribution and Benefits of Repetition
-
通过理论分析和受控实验研究 sparse attention 的涌现机制,揭示涌现时间遵循关于序列长度和维度的幂律关系 \(T_\epsilon \propto \sqrt{d} \cdot T\),并发现 in-context 和 cross-sample 两种数据重复策略都能加速涌现,为理解 LLM 能力涌现提供了统一的 sparse attention 视角。
- The PokeAgent Challenge: Competitive and Long-Context Learning at Scale
-
提出 PokéAgent Challenge,一个基于宝可梦对战和RPG速通的双赛道大规模AI基准,通过NeurIPS 2025竞赛验证了专家RL方法远超通用LLM方法,并揭示宝可梦对战衡量的能力与现有49个LLM基准近乎正交。
- Tiled Flash Linear Attention: More Efficient Linear RNN and xLSTM Kernels
-
提出 TFLA(Tiled Flash Linear Attention)算法,通过二层序列并行化和 tiling 优化,实现高效的线性 RNN/mLSTM 内核,相比 FlashAttention 3 和 Mamba 2 获得显著墙钟加速(训练 >2x vs Mamba 2),同时保持等价的模型精度。
- Towards Interpretability Without Sacrifice: Faithful Dense Layer Decomposition with Mixture of Decoders
-
提出 Mixture of Decoders (MxD),将 LLM 的 MLP 层分解为数万个稀疏激活的专家子层(layer-level sparsity),每个专家通过 Hadamard 乘积张量分解实现满秩线性变换,在稀疏性-准确性权衡上显著优于 Transcoders,同时保持可解释性。
- UMoE: Unifying Attention and FFN with Shared Experts
-
通过重新表述多头注意力机制,揭示其与 FFN 共有的"两层矩阵乘法"结构,据此提出 UMoE 统一架构——在注意力和 FFN 层使用相同设计的专家并支持参数共享,在 Base(134M) 和 Large(1.1B) 模型上均优于现有 FFN-MoE 和 Attention-MoE 基线。
- Unmasking Covid-19 Vulnerability In Nigeria Mapping Risks Beyond Urban Hotspots
-
本文针对尼日利亚各州构建了一个综合 COVID-19 脆弱性风险评分体系,整合人口密度、贫困、医疗可及性和年龄风险四个维度,并通过 GIS 地图可视化热点区域,为公共卫生资源分配提供数据驱动的决策工具。
- Vocabulary Customization For Efficient Domain-Specific Llm Deployment
-
提出一种保证不增加任何输入 token 数的词表扩展算法,通过向预训练 LLM 的 tokenizer 添加领域特定 token,在电商场景实现输入序列缩短 20%、推理吞吐量提升 20-30%,且不损失模型质量。
- ZeroS: Zero-Sum Linear Attention for Efficient Transformers
-
通过移除 softmax 的零阶均匀项 \(1/t\),构建零和权重的线性注意力机制 ZeroS,突破凸组合只能做加法混合的限制,支持单层内的差分/对比操作,在保持 \(O(Nd^2)\) 线性复杂度的同时,在多个序列建模基准上匹配甚至超越标准 softmax 注意力。