📊 LLM评测¶
🧪 ICML2025 · 39 篇论文解读
- Are LLM Belief Updates Consistent with Bayes' Theorem?
-
本文提出贝叶斯一致性系数(BCC)来量化 LLM 的信念更新是否符合贝叶斯定理,发现更大、更强的预训练模型在给定新证据时,其信念更新与贝叶斯定理更一致。
- Communicating Activations Between Language Model Agents
-
提出让 LLM 智能体通过中间层激活(而非自然语言)进行通信的方法——在模型 B 的前向传播中间层注入模型 A 的激活向量,无需额外参数和数据,在多项推理基准上比自然语言通信提升 27%,计算量仅为 1/4。
- Cooperation of Experts: Fusing Heterogeneous Information with Large Margin
-
提出 Cooperation of Experts (CoE) 框架,将异构信息编码为多重网络,通过两级专家设计与大间隔置信张量优化实现专家协作(而非竞争),在节点分类任务上全面超越现有 MoE 和多重网络方法。
- Correlated Errors in Large Language Models
-
本文通过对超过350个LLM的大规模实证分析,发现不同LLM之间存在高度相关的错误模式——在两个模型都出错时约60%的情况下会选择同一个错误答案,且越准确的模型相关性越高;进而研究了这种相关性对LLM-as-Judge评估和招聘市场的下游影响。
- Cross-regularization: Adaptive Model Complexity through Validation Gradients
-
提出 Cross-regularization(交叉正则化),通过验证集梯度直接优化正则化参数(权重范数、噪声尺度、增强强度),在单次训练中收敛到交叉验证最优解,消除手动调参需求。
- DiLQR: Differentiable Iterative Linear Quadratic Regulator via Implicit Differentiation
-
本文提出 DiLQR 框架,通过在 iLQR 控制器的不动点上施加隐式微分,得到解析梯度解,将反向传播的计算复杂度从随迭代数线性增长降为 \(O(1)\) 常数,实现最高 128× 加速,同时学习性能比传统神经网络策略提升 \(10^6\) 倍。
- Disentangling and Integrating Relational and Sensory Information in Transformer Architectures
-
本文提出了 Dual Attention Transformer(DAT),通过在标准注意力机制中引入"关系注意力"头,将感知信息和关系信息解耦后并行处理再整合,在关系推理基准、数学问题求解、图像识别和语言建模等任务上均展现出显著的数据效率和参数效率提升。
- EnIGMA: Interactive Tools Substantially Assist LM Agents in Finding Security Vulnerabilities
-
EnIGMA 是一个用于自主解决 Capture The Flag (CTF) 挑战的 LM agent,通过引入新型交互式 Agent 工具(调试器和服务器连接工具),首次使 LM agent 能够运行交互式终端程序,在 4 个基准的 390 个 CTF 挑战上取得 SOTA,并发现了 "soliloquizing" 这一新的幻觉现象。
- MultiCogEval: Evaluating LLMs Across Multi-Cognitive Levels
-
受 Bloom 分类法启发,提出多认知层次评估框架 MultiCogEval,从知识掌握、综合应用、情景问题解决三个层次评估 LLM 医学能力,发现所有模型性能随认知复杂度增加显著下降,且模型规模在高层次更关键。
- Faster and Stronger: When ANN-SNN Conversion Meets Parallel Spiking Calculation
-
首次将并行脉冲计算与 ANN-SNN 转换结合,建立数学等价映射关系,在超低时间步(4步)下实现 ImageNet Top-1 72.90%,推理速度加速 19~38 倍。
- FEDTAIL: Federated Long-Tailed Domain Generalization with Sharpness-Guided Gradient Matching
-
FedTAIL 提出了一个联邦域泛化框架,通过梯度一致性正则化、逐类锐度感知最小化和曲率感知动态加权三个模块,同时解决域偏移和长尾类别不平衡的双重挑战,在多个基准上达到 SOTA。
- Feedforward Few-shot Species Range Estimation
-
提出 FS-SINR(Few-shot Spatial Implicit Neural Representations),一种基于 Transformer 的前馈式少样本物种分布估计模型,无需针对新物种重新训练即可从少量观测位置(甚至零个)一次前传预测空间分布,在 IUCN 和 S&T 基准上以 2-6% 的计算时间超越 LE-SINR 等需要重新训练的方法。
- Fully Heteroscedastic Count Regression with Deep Double Poisson Networks
-
提出 Deep Double Poisson Network (DDPN),通过输出 Double Poisson 分布的参数实现离散计数回归中的完全异方差性,支持任意高或低的预测方差,在精度、校准和 OOD 检测上全面超越现有基线。
- Function Encoders: A Principled Approach to Transfer Learning in Hilbert Spaces
-
提出基于 Hilbert 空间几何视角的迁移学习分类体系(凸包插值 / 线性张成外推 / 全空间外推),并设计 Function Encoder 方法利用可学习神经网络基函数实现三种迁移,在多项基准上超越 MAML、Transformer 等方法。
- G-Sim: Generative Simulations with Large Language Models and Gradient-Free Calibration
-
提出 G-Sim 混合框架,利用 LLM 自动设计仿真器的因果结构(子模块与连接关系),再通过无梯度优化(GFO)或仿真推断(SBI)对数值参数进行经验校准,在迭代循环中不断改进,生成可靠、可干预的通用仿真器。
- Gradient Aligned Regression via Pairwise Losses
-
提出 GAR(Gradient Aligned Regression),通过在标签空间引入两个成对差异损失(误差方差 + 负Pearson相关系数)来对齐预测函数与真实函数的梯度,并利用 DRO 鲁棒聚合三个子损失,实现与传统回归损失相同的线性复杂度,同时在多个基准上超越 MAE/MSE 及对比学习方法。
- How Much Can We Forget about Data Contamination?
-
通过受控实验系统量化数据污染对 LLM benchmark 评估的影响,发现在超过 Chinchilla 最优五倍以上的训练数据量下,即使 144 次重复的污染数据也能被完全遗忘;进一步证明权重衰减是遗忘的关键机制,并据此推断 Llama 3 405B 等大型模型已遗忘训练早期的数据。
- Hyperband-based Bayesian Optimization for Black-box Prompt Selection
-
提出 HbBoPs 方法,结合结构感知深度核高斯过程(对 instruction 和 few-shot exemplar 分别编码)与 Hyperband 多保真度调度器,在黑盒 LLM 的 prompt 选择问题上同时实现样本高效和查询高效,在十个基准和三个 LLM 上超越所有 SOTA 方法。
- Improved and Oracle-Efficient Online \(\ell_1\)-Multicalibration
-
提出将在线 \(\ell_1\)-multicalibration 归约为新定义的在线线性乘积优化 (OLPO) 问题,分别达到 \(\widetilde{O}(T^{-1/3})\)(改进速率)和 \(\widetilde{O}(T^{-1/4})\)(oracle 高效速率)的多校准误差上界。
- Improving Generalization with Flat Hilbert Bayesian Inference
-
提出 Flat Hilbert Bayesian Inference (FHBI),将 SAM 的平坦性概念从有限维欧氏空间推广到无限维再生核希尔伯特空间 (RKHS),并与粒子采样贝叶斯推断结合,在 VTAB-1K 基准上以 73.7% 平均 Top-1 准确率全面超越九个基线方法。
- Improving the Effective Receptive Field of Message-Passing Neural Networks
-
本文形式化了 MPNN 中有效感受野(ERF)的概念,证明节点贡献随距离指数衰减(二项式分布),并提出 IM-MPNN 架构通过多尺度图粗化和跨尺度信息交织来扩展 ERF,在 LRGB 等长程依赖基准上显著提升。
- Latent Imputation before Prediction: A New Computational Paradigm for De Novo Peptide Sequencing
-
LIPNovo 提出在肽段预测前,通过隐空间补全(latent imputation)来弥补质谱中碎片缺失信息的新范式,利用可学习peak queries和二部匹配补全理论peak隐表示,在三个基准上大幅超越 CasaNovo 等 SOTA(氨基酸精度提升 5.6%-20%)。
- Learning Distribution-Wise Control in Representation Space for Language Models
-
将表示微调(Representation Fine-tuning)中的确定性节点替换为随机节点,通过重参数化技巧学习潜在分布而非单点变换,在常识推理和数学推理任务上取得了一致性能提升,尤其在早期层的干预效果最为显著。
- Learning Safe Strategies for Value Maximizing Buyers in Uniform Price Auctions
-
针对重复统一价格多物品拍卖中带有RoI约束的价值最大化买家,提出"安全竞标策略"概念,证明其仅需满足温和的不超出竞价条件,并设计多项式时间在线学习算法实现 \(\widetilde{O}(M\sqrt{mT})\) 的遗憾界。
- Leveraging Online Olympiad-Level Math Problems for LLMs Training and Contamination-Resistant Evaluation
-
利用 Art of Problem Solving (AoPS) 论坛的社区内容,构建了 652K 奥赛级数学 QA 对的训练集 AoPS-Instruct 和带时间戳的抗污染评估集 LiveAoPSBench,揭示了 LLM 在旧数据上的高表现可能源于预训练数据泄露而非真正推理能力。
- LLM-SRBench: A New Benchmark for Scientific Equation Discovery with LLMs
-
提出LLM-SRBench基准(239题/4个科学领域),通过方程变换(LSR-Transform)和合成问题(LSR-Synth)防止LLM的记忆化,当前最好方法仅达31.5%符号准确率。
- Meek Models Shall Inherit the Earth
-
基于 Chinchilla 缩放定律的数学建模,证明在固定分布的 next-token 目标下,计算缩放的递减收益将导致 SOTA 大模型相对于低计算预算"弱模型"(meek models)的能力优势最终收敛趋零,论证 AI 能力的民主化是当前缩放范式下的必然趋势,现有基于算力的 AI 治理策略需要根本性重新设计。
- On Temperature Scaling and Conformal Prediction of Deep Classifiers
-
首次系统研究 Temperature Scaling (TS) 校准对 Conformal Prediction (CP) 方法的影响,揭示 TS 在改善 APS/RAPS 类条件覆盖率的同时会增大预测集尺寸的反直觉现象,建立了完整的非单调理论解释并提出实用指南。
- PhantomWiki: On-Demand Datasets for Reasoning and Retrieval Evaluation
-
提出 PhantomWiki——一个按需生成虚构世界语料库和 QA 对的评测框架,通过上下文无关文法(CFG)控制推理难度、调节宇宙规模控制检索难度,实现对 LLM 推理与检索能力的解耦评估,同时天然抵抗数据泄漏。
- Position: AI Evaluation Should Learn from How We Test Humans
-
提出将人类心理测量学中的自适应测试范式系统性引入AI评估,通过估计题目特征(难度/区分度/猜测因子)实现高效、可靠的模型能力评估,仅需3%的题目即可准确重建完整benchmark分数。
- IBDR: Promoting Ensemble Diversity with Interactive Bayesian Distributional Robustness
-
提出IBDR贝叶斯推断框架,通过在乘积分布空间上引入交互式损失和Wasserstein分布鲁棒性优化,构建兼顾多样性与低锐度的粒子集成,在VTAB-1K上以ViT-B/16实现73.6%平均准确率超越所有基线。
- Provably Cost-Sensitive Adversarial Defense via Randomized Smoothing
-
基于 randomized smoothing 框架提出"代价敏感认证半径"(cost-sensitive certified radius),首次实现可扩展到大模型与高维数据的代价敏感对抗鲁棒性认证与训练,在保持整体准确率的同时显著提升对高代价误分类的鲁棒性。
- Random Registers for Cross-Domain Few-Shot Learning
-
在跨域小样本学习(CDFSL)中发现可学习 prompt 会损害目标域泛化性能,而用随机噪声替代(即随机寄存器)反而能持续提升性能,并基于此提出 REAP 方法,通过在图像语义区域添加随机寄存器来增强注意力扰动,实现高效的域无关特征学习。
- ResearchTown: Simulator of Human Research Community
-
提出 ResearchTown,一个基于 agent-data 图和 TextGNN(文本空间消息传递)的多智能体框架,将人类科研社区建模为异构图,统一模拟论文阅读、论文写作和审稿三大核心研究活动,并通过节点掩码预测任务 (ResearchBench) 进行可扩展、客观的仿真质量评估。
- Runtime Analysis of Evolutionary NAS for Multiclass Classification
-
首次对进化神经架构搜索(ENAS)在多类分类问题上进行运行时理论分析,证明 one-bit 和 bit-wise 变异的 (1+1)-ENAS 算法均以 \(O(rM\ln rM)\) 期望运行时找到最优架构,说明简单的 one-bit 变异即可与复杂的 bit-wise 变异媲美。
- Set-Valued Predictions for Robust Domain Generalization
-
提出集值预测器(set-valued predictor)解决域泛化(DG)中的鲁棒性问题:输出标签子集而非单一标签,使预测在尽可能多的未见域上满足预定义的覆盖率要求,同时最小化预测集大小。
- The Best of Both Worlds: Bridging Quality and Diversity in Data Selection with Bipartite Graph
-
提出 GraphFilter 方法,将 SFT 数据集建模为句子-n-gram 的二部图,通过乘法优先级函数同时优化数据质量和多样性,在 3 个模型 6 个基准上全面超越 9 种基线方法。
- UI-Evol: Automatic Knowledge Evolving for Computer Use Agents
-
提出UI-Evol即插即用模块,通过Retrace(从截图还原实际动作序列)和Critique(对比外部知识诊断偏差并修正)两阶段自主进化GUI任务知识,在OSWorld基准上将Agent S2的成功率从19.5%提升到22%+,同时将行为标准差降低约4倍,显著增强了计算机操作代理的可靠性。
- Unlocking Post-hoc Dataset Inference with Synthetic Data
-
提出通过合成生成held-out数据集并结合后校准(post-hoc calibration)来实现无需真实held-out集的数据集推断(Dataset Inference),通过suffix completion生成高质量合成数据、双分类器校准解耦生成偏移与成员信号,在15个多样化文本数据集上实现高置信度版权检测且低误报率。