跳转至

💡 LLM推理

🧪 ICML2025 · 15 篇论文解读

Ad-Hoc Human-AI Coordination Challenge (AH2AC2)

提出 AH2AC2 挑战——基于 Hanabi 合作卡牌游戏,通过行为克隆+正则化强化学习构建人类代理智能体,并开源有限人类数据集,为 Human-AI 临时协作研究提供标准化、可复现的评估框架。

AdaDecode: Accelerating LLM Decoding with Adaptive Layer Parallelism

AdaDecode 通过在中间层训练轻量级 LM Head 实现高置信度的 token 早期预测,将后续层的 KV cache 计算延迟并行化执行,在保证与标准自回归解码完全一致输出的同时,实现最高 1.73× 的解码吞吐量加速。

Adversarial Manipulation of Reasoning Models using Internal Representations

本文发现推理模型(如 DeepSeek-R1-Distill-Llama-8B)在 CoT 生成阶段存在一个线性"谨慎方向"(caution direction),通过消融该方向可有效越狱模型,揭示了 CoT 本身是对抗攻击的新靶点。

Evaluating Judges as Evaluators: The JETTS Benchmark of LLM-as-Judges as Test-Time Scaling Evaluators

本文提出 JETTS 基准,系统评估 LLM-judge 在 test-time scaling 场景(response reranking、step-level beam search、critique-based refinement)中作为评估器的表现,发现 judge 在 reranking 中与 outcome reward model 竞争力相当但在 beam search 中显著弱于 process reward model,且自然语言 critique 目前无法有效引导生成器改进。

FMC: Formalization of Natural Language Mathematical Competition Problems

本文提出基于 LLM 错误反馈的全自动形式化流水线,将自然语言数学竞赛题转化为 Lean 形式化表示,构建了包含 3,922 道自然语言与 9,787 条 Lean 形式化对齐的奥赛级数据集 FMC,并验证了其作为自动定理证明基准的价值。

Improving Rationality in the Reasoning Process of Language Models through Self-playing Game

本文提出 Critic-Discernment Game(CDG),通过自博弈语言游戏让 LLM 与"有帮助的批评者"和"误导性批评者"互动,用 ReST 强化学习联合优化三个角色,无需人类或更强模型的监督即可显著提升 LLM 对自身推理过程的理性理解,在数学推理、逐步错误检测、自我纠错和长链推理四个任务上均取得一致提升。

No Soundness in the Real World: On the Challenges of the Verification of Deployed Neural Networks

本文证明所有当前最先进的神经网络验证器都只提供"理论健全性"(约束全精度输出)而非"实际健全性"(约束部署环境中的浮点输出),并通过构造环境敏感的对抗性后门网络,实证验证了所有测试验证器均可被欺骗。

One Missing Piece for Open-Source Reasoning Models: A Dataset to Mitigate Cold-Starting Short CoT LLMs in RL

提出 Long CoT Collection——一个由短CoT LLM(如GPT-4o)标注的100K长链推理数据集,通过从o1提取推理流程(reasoning flow)作为间接引导,使短CoT模型也能生成高质量长推理链,从而有效缓解开源推理模型在强化学习阶段的冷启动问题,初始化后的模型在RLVR中获得2-3倍的性能提升。

PCoT: Persuasion-Augmented Chain of Thought for Detecting Fake News and Social Media Disinformation

提出 PCoT(Persuasion-Augmented Chain of Thought),通过两阶段推理——先让 LLM 识别文本中的说服策略,再将说服分析结果注入虚假信息检测推理——在零样本设置下,跨 5 个 LLM 和 5 个数据集平均提升 F1 约 15%。

PCoT: Persuasion-Augmented Chain of Thought for Detecting Fake News and Social Media Disinformation

本文提出 PCoT(说服增强链式思维)方法,通过两阶段推理——先让 LLM 识别文本中的说服策略,再利用该分析进行虚假信息检测——在五个数据集和五个 LLM 上实现平均 15% 的 F1 提升,并发布了两个新的后知识截止期虚假信息数据集。

ProofCompass: Enhancing Specialized Provers with LLM Guidance

ProofCompass 提出一种无需额外训练的混合方法,用通用 LLM 为专业定理证明器(如 DeepSeek-Prover-v1.5-RL)提供自然语言证明策略和中间引理选择,在 miniF2F 上用 25 倍少的尝试次数超越了基线性能(54.9% → 55.3%)。

Putnam-AXIOM: A Functional & Static Benchmark for Measuring Higher Level Mathematical Reasoning in LLMs

提出 Putnam-AXIOM —— 522 道大学级 Putnam 竞赛数学题 + 100 道程序化功能变体,揭示 LLM 数学推理中的记忆依赖,并引入 Teacher-Forced Accuracy (TFA) 作为超越最终答案的推理质量评估指标。

Towards Better Chain-of-Thought: A Reflection on Effectiveness and Faithfulness

本文从有效性和忠实性两个角度系统分析影响 CoT 性能的关键因素,发现问题难度、信息增益和信息流是有效性的核心因素,并揭示 LLM 在预测答案时可从问题中直接召回 CoT 缺失的正确信息导致不忠实推理,进而提出 QUIRE 方法同时提升 CoT 的忠实性和有效性。

Rethinking External Slow-Thinking: From Snowball Errors to Probability of Correct Reasoning

本文从信息论视角系统分析了 LLM 推理中的"雪球误差"现象,建立了雪球误差与推理正确概率之间的理论联系,证明了外部慢思考方法(如 BoN、MCTS)本质上是通过扩展搜索宽度来缓解误差累积,并在理论和实验上证明了方法效果主要取决于总推理代价和奖励函数可靠性,而非搜索框架本身。

Towards Better Chain-of-Thought: A Reflection on Effectiveness and Faithfulness

本文从有效性(effectiveness)和忠实性(faithfulness)两个维度系统分析了 CoT 的性能影响因素,发现问题难度、信息增益和信息流是影响 CoT 有效性的关键因子,而不忠实 CoT 的根因在于模型在预测答案时绕过 CoT 直接从问题中召回了正确信息,并据此提出 QUIRE 方法同时提升 CoT 的有效性和忠实性。