💬 LLM/NLP¶
💬 ACL2026 · 25 篇论文解读
- A Study of LLMs' Preferences for Libraries and Programming Languages
-
首次系统研究8个LLM在代码生成中对库和编程语言的偏好行为,发现LLM严重偏好NumPy等流行库(45%的使用不必要)和Python语言(58%的高性能任务仍选Python),且自然语言推荐与实际代码选择不一致。
- Adam's Law: Textual Frequency Law on Large Language Models
-
本文提出"文本频率定律"(TFL),发现当语义相同时,使用更高频率的文本表达来提示或微调LLM能获得更好效果,并设计了频率蒸馏和课程训练策略来进一步利用该规律。
- An Existence Proof for Neural Language Models That Can Explain Garden-Path Effects via Surprisal
-
通过在花园路径句上微调神经语言模型,证明了存在一个神经 LM 能够通过惊奇度(surprisal)同时解释花园路径效应和自然阅读时间,为惊奇度理论提供了存在性证明。
- Automatic Combination of Sample Selection Strategies for Few-Shot Learning
-
本文提出 ACSESS 方法,通过前向选择、后向选择和 Datamodels 三种机制自动识别互补的样本选择策略并加权组合,在 23 种策略、5 个 ICL 模型和 3 种梯度少样本学习方法、6 个文本和 8 个图像数据集上验证了组合策略一致优于单一策略和 ICL 专用基线。
- ChatHLS: Towards Systematic Design Automation and Optimization for High-Level Synthesis
-
ChatHLS 提出了一个多智能体 HLS 设计框架,通过 HLSTuner(QoR 感知推理优化指令选择)和 HLSFixer(分层反馈增强的调试框架)两个核心组件,结合自进化错误用例扩展机制(VODA),在 HLS-C 生成成功率和硬件性能优化上显著超越基线。
- CoSToM: Causal-oriented Steering for Intrinsic Theory-of-Mind Alignment in Large Language Models
-
提出 CoSToM 框架,先用因果追踪定位 LLM 中编码心智理论(ToM)特征的关键层(发现主要在早期层),再通过激活转向在这些层上进行轻量级对齐,使 LLM 在谈判和说服对话中显著提升社会推理质量——从"知道但不会用"变为"知道且会用"。
- Detoxification for LLM from Dataset Itself
-
本文提出 HSPD(层次化语义保留去毒)流水线,通过 SoCD(软对比解码)引导 LLM 定位并重写原始语料中的有毒片段,同时保留语义,生成可直接替换原始数据用于微调的去毒语料——在 GPT2-XL 上将毒性概率从 0.42 降至 0.18,在 LLaMA2-7B、OPT-6.7B 和 Falcon-7B 上也取得了最优去毒效果。
- Don't Adapt Small Language Models for Tools; Adapt Tool Schemas to the Models
-
本文提出 PA-Tool,一种无训练的工具 Schema 优化方法,利用从数据污染检测中借鉴的"尖锐度"(peakedness)信号识别模型预训练中熟悉的命名模式,通过重命名工具组件来对齐小语言模型的内化知识,在 MetaTool 和 RoTBench 上实现最高 17% 的提升,Schema 不对齐错误减少 80%。
- EvoSpark: Endogenous Interactive Agent Societies for Unified Long-Horizon Narrative Evolution
-
EvoSpark 提出一个支持长程叙事演化的多智能体框架,通过分层递归记忆(RSB 做社会认知代谢)、生成式场面调度(GMS 做角色-地点-情节对齐)和涌现角色锚定协议(ECGP 将 LLM 幻觉转化为持久角色)三重设计解决社会记忆堆叠和叙事-空间失谐问题。
- Expect the Unexpected? Testing the Surprisal of Salient Entities
-
本文研究全局显著实体(discourse-level salient entities)与惊异度(surprisal)的关系,通过 70K+ 手工标注的实体提及和新颖的最小对提示方法,发现全局显著实体本身更出人意料(更高 surprisal),但它们系统性地降低周围内容的 surprisal,且该效应随体裁变化——话题连贯性高的文本中效应最强。
- FastDiSS: Few-step Match Many-step Diffusion Language Model on Sequence-to-Sequence Generation
-
本文分析了连续扩散语言模型在少步采样时自条件化信号的不匹配和训练饱和两个瓶颈,提出FastDiSS框架通过自条件化扰动(SCP)和模型感知噪声缩放(MANS)来改善鲁棒性,在6个基准上实现4×-400×加速同时保持质量。
- Foresight Optimization for Strategic Reasoning in Large Language Models
-
本文提出 Foresight Policy Optimization(FoPO),通过在策略优化中引入对手建模的前瞻修正项,使 LLM 能够显式预见对手行为并据此调整自身策略,在合作(Cooperative RSA)和竞争(Competitive Taboo)两类博弈任务上显著提升策略推理能力,并在跨域 γ-Bench 上取得一致性提升。
- From Static Inference to Dynamic Interaction: A Survey of Streaming Large Language Models
-
本文首次系统综述流式大语言模型(Streaming LLMs),提出基于数据流和交互并发性的统一定义,将现有方法分为三级递进分类——输出流式(Output-streaming)、顺序流式(Sequential-streaming)和并发流式(Concurrent-streaming),覆盖文本、语音和视频流式场景的方法论和应用。
- GRASS: Gradient-based Adaptive Layer-wise Importance Sampling for Memory-Efficient LLM Fine-tuning
-
提出 GRASS 框架,使用均值梯度范数(MGN)作为任务感知和训练阶段感知的层重要性指标,自适应地采样和更新模型层子集进行微调,配合层级优化器状态卸载机制,在平均准确率提升最高 4.38 分的同时减少最高 19.97% 的内存使用。
- How Do Answer Tokens Read Reasoning Traces? Self-Reading Patterns in Thinking LLMs
-
本文发现推理 LLM(如 DeepSeek-R1)在定量推理中存在"良性自读"模式——答案 token 对推理痕迹的注意力呈现前移漂移(沿推理链逐步推进)和语义锚点集中(反复回顾关键步骤),且此模式与正确性强相关;基于此提出 SRQ(自读质量)驱动的免训练激活引导方法,在多个基准上提升准确率最高 2.6%。
- Iterative Formalization and Planning in Partially Observable Environments
-
提出 PDDLego+ 框架,让 LLM 在部分可观测环境中迭代地生成和修正 PDDL(规划领域定义语言)表示,通过双层错误修复循环(solver error + simulation error)实现无需微调、无需示例的有效规划。
- MulDimIF: A Multi-Dimensional Constraint Framework for Evaluating and Improving Instruction Following in Large Language Models
-
提出 MulDimIF 多维约束框架,从约束模式(3种)、约束类别(4类13子类)和约束难度(4级)三个维度系统评估 LLM 的指令遵循能力,并通过 GRPO 训练显著提升模型性能,发现改进主要源自注意力模块的参数更新。
- Not All Animals Are Equal: Metaphorical Framing through Source Domains and Semantic Frames
-
本文提出首个结合 FrameNet 语义框架和概念隐喻理论(CMT)源域的计算框架 ConceptFrameMet,通过 RoBERTa 多任务模型检测隐喻并预测其语义框架和源域,配合对数似然比统计方法发现话语中显著的隐喻模式,揭示了自由派和保守派在移民话语中使用相同源域但选择不同语义框架来传达截然不同的联想。
- One Persona, Many Cues, Different Results: How Sociodemographic Cues Impact LLM Personalization
-
本文系统比较了 6 种常用的人物画像提示方式(姓名/显式提及/对话历史各两种变体)在 7 个 LLM 和 4 个任务上的效果,发现虽然平均响应跨提示方式高度相关,但不同提示方式产生的人物画像间差异显著不同,过于显式的提示导致更强的个性化偏差,警示不应基于单一提示方式得出偏差结论。
- Please Refuse to Answer Me: Mitigating Over-Refusal in LLMs via Adaptive Contrastive Decoding
-
本文提出 AdaCD(自适应对比解码),通过比较极端安全提示下和无提示下的 token 分布差异提取拒绝 token 分布,再根据一致性比率动态决定增强或抑制拒绝行为,在降低过度拒绝 10.35% 的同时提升恶意查询拒绝率 0.13%。
- Route to Rome Attack: Directing LLM Routers to Expensive Models via Adversarial Suffixes
-
本文提出 R2A(Route to Rome Attack),通过在黑盒设置下构建混合集成代理路由器并优化通用对抗后缀,将 LLM 路由器的路由决策从廉价弱模型导向昂贵强模型——在 7 个开源路由器和 2 个商用路由器(GPT-5-Auto、OpenRouter)上平均攻击成功率提升 49%,推理成本增加 2.7-2.9 倍。
- Style Amnesia: Investigating Speaking Style Degradation and Mitigation in Multi-Turn Spoken Language Models
-
发现口语语言模型(SLMs)在多轮对话中无法维持初始指定的说话风格(情感、口音、音量、语速),称之为"风格遗忘"现象,并通过注意力分析揭示其成因(注意力衰减),提出显式回忆过程作为缓解手段。
- Think in Sentences: Explicit Sentence Boundaries Enhance Language Model's Capabilities
-
本文提出在 LLM 输入中的句子边界处插入分隔符标记,通过 ICL 和 SFT 两种方式实现"逐句思考"的推理范式,在 7B 到 600B 模型上取得一致提升(GSM8k +7.7%,DROP +12.5%),且几乎不增加额外计算开销。
- Towards Robust Real-World Spreadsheet Understanding with Multi-Agent Multi-Format Collaboration
-
提出 SpreadsheetAgent,一种两阶段多智能体框架,通过代码执行、视觉和 LaTeX 三种格式的渐进式区域读取与交叉验证,在不超出 LLM 上下文限制的前提下实现鲁棒的真实世界电子表格理解。
- Why Did Apple Fall: Evaluating Curiosity in Large Language Models
-
本文提出首个系统评估 LLM 好奇心行为的心理学启发框架,结合问卷自评和行为实验发现 LLM 展现出好奇心般的行为模式但并非内在特质,并设计好奇心驱动的提问管道证明模拟好奇行为可提升下游推理性能。