跳转至

💬 ACL2025 论文笔记

954 篇笔记,覆盖 31 个领域。

领域概览

领域 篇数
💬 LLM / NLP 356
🧩 多模态 VLM 63
📦 模型压缩 53
⚖️ 对齐 / RLHF 50
🦾 LLM Agent 40
✍️ 文本生成 36
📖 NLP 理解 31
💡 LLM 推理 30
🛡️ AI 安全 22
🎵 音频/语音 22
LLM 效率 21
🕸️ 图学习 17
🏥 医学图像 17
🔎 AIGC 检测 7
🤖 机器人/具身智能 7
🎁 推荐系统 6
🎮 强化学习 5
🔄 自监督/表示学习 5
📈 时间序列 5
🎬 视频理解 5
🔗 因果推理 4
🎨 图像生成 4
🎯 目标检测 4
🧑 人体理解 2
🖼️ 图像恢复 2
✂️ 语义分割 2
📡 信号/通信 2
🧊 3D 视觉 1
🚗 自动驾驶 1
📐 优化/理论 1
📂 其他 133

💬 LLM / NLP

A Case Study of Cross-Lingual Zero-Shot Generalization for Classical Languages in LLMs

系统评估 LLM(GPT-4o/Llama-3.1)在三种古典语言(梵语、拉丁语、古希腊语)上的零样本跨语言泛化能力——涵盖 NER、机器翻译、问答三个 NLU 任务,发现大模型在域外数据上可比肩甚至超越微调基线,模型规模是决定性因素,并贡献了一个 1501 对的梵语事实问答数据集。

A Large-Scale Real-World Evaluation of LLM-Based Virtual Teaching Assistant

在 KAIST 477 名研究生的 AI 编程课上部署基于 GPT-4o-mini + RAG 的虚拟教学助手(VTA),通过三轮大规模问卷调查和 3,869 条交互日志分析系统性评估 VTA 的有效性与接受度,发现 VTA 在编程和概念问题上有效但信任度随时间下降。

A Survey of Automatic Prompt Optimization with Instruction-focused Heuristic-based Search Algorithm

系统综述 80+ 种基于启发式搜索算法的自动 Prompt 优化方法,提出五维分类体系(Where/What/What criteria/Which operators/Which algorithms)将碎片化研究统一到一个完整的分析框架下。

A Survey of Large Language Models in Psychotherapy: Current Landscape and Future Directions

系统综述 LLM 在心理治疗中的应用——提出评估(Assessment)→ 诊断(Diagnosis)→ 治疗(Treatment)三阶段概念分类法,覆盖症状检测、诊断推理、治疗对话策略等,揭示当前研究失衡(聚焦常见障碍、语言偏差、方法碎片化、理论整合不足),并提出连续多阶段建模和实时自适应系统等未来方向。

A Survey of LLM-based Agents in Medicine: How Far Are We from Baymax?

系统综述 LLM-based Agent 在医学中的应用——分析 Agent 架构(系统配置/临床规划/医学推理/外部能力增强)、应用场景(临床决策/文档/训练模拟/服务优化)和评估框架,覆盖 60 篇研究,识别幻觉管理、多模态整合、部署障碍和伦理问题等关键挑战。

A Survey on Efficient Large Language Model Training: From Data-centric Perspectives

首个系统性的数据高效 LLM 后训练综述,提出"数据价值飞轮"分类法,将方法分为五大类(数据选择、质量增强、合成生成、蒸馏压缩、自演进生态),覆盖 100+ 篇代表性工作并展望未来方向。

A Survey on Proactive Defense Strategies Against Misinformation in Large Language Models

系统综述 LLM 主动防御错误信息的策略——提出"三支柱"框架:(1) 知识可信度(训练数据质量+知识编辑+RAG), (2) 推理可靠性(自对齐+解码策略), (3) 输入鲁棒性(对抗攻击防御+输入净化)。127 种技术的分类映射,48 项基准研究的元分析显示主动防御比传统检测方法提升 42-63%。

A Systematic Study of Compositional Syntactic Transformer Language Models

对组合型句法 Transformer 语言模型(Compositional SLMs)进行系统研究——识别四个关键设计维度(句法树二叉化、线性化方向、组合函数、子成分掩码),提出统一框架涵盖 16 种变体(含 13 种全新变体),在语言建模、句法泛化、摘要、对话和推理效率上全面评估,给出多条设计建议。

AAD-LLM: Neural Attention-Driven Auditory Scene Understanding

提出意图感知听觉场景理解(II-ASU)范式和 AAD-LLM 原型系统——通过颅内脑电(iEEG)解码听者正在关注哪个说话人,将注意力状态注入听觉 LLM(Qwen2-Audio),使模型在多说话人场景中生成与听者感知对齐的回答,在描述/转录/提取/问答四个任务上主观和客观评估均优于无注意力感知的基线。

AbGen: Evaluating Large Language Models in Ablation Study Design and Evaluation for Scientific Research

提出 AbGen——首个评估 LLM 设计消融实验能力的基准(1500 条专家标注数据来自 807 篇 NLP 论文),发现最强 LLM (DeepSeek-R1) 与人类专家差距 14.4%,且 LLM-as-Judge 评分与人类评估严重不一致。

Ad-hoc Concept Forming in the Game Codenames as a Means for Evaluating Large Language Models

以桌游 Codenames 作为 LLM 评测工具——LLM 分别扮演线索给出者(Spymaster)和猜测者(Field Operative),通过控制词频/歧义性/具体性/风险等级/对手速度等变量系统评估 LLM 的临时概念形成、语义关联、合作推理和语用能力,发现 o3-mini 和 Claude-3.5 领先但所有模型在高风险和抽象词条件下均显著退化。

AD-LLM: Benchmarking Large Language Models for Anomaly Detection

首个系统评估 LLM 在 NLP 异常检测中角色的基准 AD-LLM——覆盖三个关键任务:(1) 零样本检测(LLM 预训练知识直接做 AD),(2) 数据增强(生成合成数据/类别描述提升 AD 模型),(3) 模型选择(LLM 推荐无监督 AD 模型)。多数据集实验发现 LLM 零样本 AD 表现出色,精心设计的增强有用,但模型选择的可解释性仍是挑战。

Adaptive-VP: A Framework for LLM-Based Virtual Patients that Adapts to Trainees' Dialogue

提出 Adaptive-VP——基于 LLM 的虚拟病人对话生成框架,根据护理学员的沟通质量动态调整虚拟病人行为(沟通差→升级敌意,沟通好→缓和),包含案例开发管线+评估模块+动态适应模块+对话生成模块+安全监控模块五个组件,专家护士评估显示其交互自然度和真实感显著优于现有方法。

ToxEdit: Adaptive Detoxification Safeguarding General Capabilities of LLMs through Toxicity-Aware Knowledge Editing

提出 ToxEdit——毒性感知的知识编辑方法,在前向传播中动态检测毒性激活模式(SVM 二分类器检测有害隐藏状态),将计算路由到原始 FFN 或编辑后的 FFN,实现自适应去毒而不过度编辑。增强 SafeEdit 基准加入指令遵从评估,在多个 LLM 上去毒能力和通用能力保留均 SOTA。

AfroBench: How Good Are Large Language Models on African Languages?

构建 AfroBench——首个大规模非洲语言 LLM 多任务评测基准,覆盖 64 种非洲语言、15 个任务、22 个数据集(9 NLU + 6 生成 + 6 知识QA + 1 数学推理),系统对比提示式 LLM 与微调 BERT/T5 基线,发现非洲语言与英语之间存在巨大性能差距,且性能与单语资源可用性密切相关。

AIMSCheck: Leveraging LLMs for AI-Assisted Review of Modern Slavery Statements Across Jurisdictions

提出 AIMSCheck——使用 LLM 辅助审查企业现代奴隶制声明是否合规的端到端框架,构建英国和加拿大的新标注数据集(AIMS.uk/AIMS.ca),三层分解合规评估增强可解释性,在澳大利亚数据上训练的模型能有效跨司法管辖泛化到英国和加拿大。

Algorithmic Fidelity of Large Language Models in Generating Synthetic German Public Opinions: A Case Study

使用德国纵向选举研究(GLES)的开放式调查数据,评估 LLM 在生成反映德国亚群体公共舆论方面的"算法保真度",发现 Llama2 在建模群体意见方面优于其他 LLM,但对左翼政党支持者的表征好于右翼(如 AfD),且提示中包含更多人口统计变量可改善表现。

NOVA: Aligning LLMs to Follow Instructions and Hallucinate Less via Effective Data Filtering

提出 NOVA 框架——通过过滤掉 LLM "不熟悉"的指令数据来同时减少幻觉和保持指令遵从能力——Internal Consistency Probing(ICP)通过多次自生成回复的隐藏状态一致性评估 LLM 对指令的熟悉度,Semantic Equivalence Identification(SEI)通过语义聚类+投票评估 LLM 对目标回复的熟悉度,再用质量奖励模型确保数据质量。大幅减少幻觉同时保持指令遵从。

Alignment Drift in CEFR-prompted LLMs for Interactive Spanish Tutoring

通过 LLM 模拟师生对话实验,发现基于 CEFR 等级的 system prompting 虽然能初步约束 LLM 输出的西班牙语难度,但随着对话轮次增加,这种约束效果逐渐衰减——作者将此现象命名为"alignment drift",表明仅靠提示工程不足以支撑长期的自适应语言教学。

Answer When Needed, Forget When Not: Language Models Pretend to Forget via In-Context Knowledge Unlearning

提出"上下文知识遗忘"(In-Context Knowledge Unlearning)——通过引入遗忘 token(<<UNL>>...<<UNL>>)使 LLM 在推理时根据查询上下文选择性地"遗忘"特定知识,微调后 LLM 在 TOFU/AGE/RWKU 上达到 95% 遗忘准确率同时保留 80% 无关知识。更深入的内部分析发现 LLM 在中间层仍生成正确答案,仅在最后一层决定"假装遗忘"。

Revisiting Common Assumptions about Arabic Dialects in NLP

系统验证了阿拉伯语 NLP 中四个被广泛接受的假设,通过 978 个方言句子+33 名标注者的多标签标注数据集证明:56% 的方言句子在多个区域方言中有效,方言词表的区分度被高估,句子长度与方言歧义性的相关性远弱于方言化程度(ALDi),不同方言说话者对同一句子的 ALDi 评级差异显著。

ArithmAttack: Evaluating Robustness of LLMs to Noisy Context in Math Problem Solving

提出 ArithmAttack,通过在数学题上下文中随机插入标点符号(不改变任何单词)来测试 LLM 的鲁棒性,发现八个主流 LLM(包括 Llama3、Mistral、DeepSeek)在面对这种简单噪声时性能都显著下降。

Astute RAG: Overcoming Imperfect Retrieval Augmentation and Knowledge Conflicts for Large Language Models

Astute RAG 提出了一种对不完美检索具有鲁棒性的 RAG 方法,通过自适应生成 LLM 内部知识作为补充、带有来源标注的知识整合、以及基于可靠性的答案生成三个步骤,在 Gemini 和 Claude 上显著优于现有鲁棒 RAG 方法,且是唯一在最坏情况下(检索全部无用)不劣于无 RAG 基线的方法。

Atomic Calibration of LLMs in Long-Form Generations

系统研究长文本生成中的原子级校准(Atomic Calibration)——将长回复分解为原子主张(atomic claims),为每个主张分配置信度分数,发现回复级校准良好的模型在原子级校准很差,将置信度获取方法分为判别式(内部状态)和生成式(外部评估)两类并发现它们互补,提出两种融合策略达到 SOTA 校准效果。

Automating Legal Interpretation with LLMs: Retrieval, Generation, and Evaluation

提出 ATRIE 框架模拟法学教义研究流程——自动从判例法中检索概念相关信息、解释法律概念、并通过下游任务(法律概念蕴涵LCE)自动评估解释质量,生成的解释在全面性和可读性上与专家相当。

AutoGUI: Scaling GUI Grounding with Automatic Functionality Annotations from LLMs

提出 AutoGUI 自动标注管线——通过模拟交互比较 UI 状态变化 + LLM 推断元素功能 + LLM 验证过滤,构建 704K 高质量 UI 功能标注数据集,标注正确率 96.7% 可比人类,显著提升 VLM 的 UI grounding 能力且展现数据扩展效应。

LLM-AT: Automatic Transmission for LLM Tiers Optimizing Cost and Accuracy

提出 LLM-AT(LLM Automatic Transmission)框架——无需训练即可动态选择 LLM 层级,Starter 通过准确率估计器选择初始层级,Generator 生成回答,Judge 评估有效性,无效则自动升级到更高层级,在不同难度任务上平衡准确率和成本,比始终用顶级模型更高效。

Awes, Laws, and Flaws From Today's LLM Research

对 2020-2024 年 2000+ 篇 LLM 相关论文进行科学方法论的系统批判——基于统计检验/可复现性/伦理声明等标准评估研究质量,发现多种趋势:伦理声明减少、LLM 作为评估器增多、无人工评估的推理能力声称增多、统计严谨性下降,但会议检查清单(如 ACL 强制 limitations 章节)确实有效缓解部分问题。

OPTS: Bandit-Based Prompt Design Strategy Selection Improves Prompt Optimizers

首次提出 Prompt 设计策略的显式选择机制 OPTS——将 CoT/角色提示/少样本等多种策略视为多臂老虎机的"臂",用 Thompson 采样动态选择要应用的策略,集成到 EvoPrompt 后在 BIG-Bench Hard 上将 GPT-4o mini 性能提升最高 50%,超越隐式策略选择(APET)和均匀采样。

BanStereoSet: A Dataset to Measure Stereotypical Social Biases in LLMs for Bangla

构建 BanStereoSet,一个包含 1194 条填空式样本、覆盖 9 类偏见(种族/性别/宗教/职业/美貌/年龄/种姓/地区等)的孟加拉语刻板印象偏见数据集,用于评估多语言 LLM 在孟加拉语中的社会偏见,发现 GPT-4o 偏见最高,Mistral 最低。

Batayan: A Filipino NLP Benchmark for Evaluating Large Language Models

提出 Batayan——首个全面的菲律宾语 LLM 评测基准,覆盖理解/推理/生成三大能力的 8 个任务(含 3 个全新菲律宾语任务),由母语者翻译和标注确保语言真实性,评测 50+ 开源和商用 LLM 后发现菲律宾语表现显著落后于英语,显式菲律宾语支持和模型规模的提升均能带来明显增益。

Binary Classifier Optimization for Large Language Model Alignment

提出 BCO(Binary Classifier Optimization),从数学上证明二元交叉熵损失是 DPO 损失的上界,使 LLM 对齐仅需"点赞/踩"二元反馈而非成对偏好数据,并通过新颖的 reward shift 技术收紧上界,在配对偏好数据集上与 DPO 持平,在真实 Likert-5 标注数据上优于 DPO 和 KTO。

Between Circuits and Chomsky: Pre-pretraining on Formal Languages Imparts Linguistic Biases

提出在自然语言预训练前先在形式语言上进行"pre-pretraining",发现具有层级依赖结构的形式语言(如 k-Shuffle Dyck)能为 Transformer 提供有效的归纳偏置,使 1B 参数模型以 33% 更少的 token 达到相同的语言建模损失。

Beyond In-Context Learning: Aligning Long-form Generation of LLMs via Task-Inherent Attribute Guidelines

证明 ICL 示例不足以教会 LLM 任务的语言和格式分布,提出 LongGuide 自动生成质量指标和输出约束两种 guidelines 来增强长文本生成。

Beyond Profile: From Surface-Level Facts to Deep Persona Simulation in LLMs

提出 CharacterBot,通过 4 个训练任务(视角重建预训练 + 选择题/生成式QA/风格迁移微调)和 CharLoRA 参数更新机制,从鲁迅 17 部杂文集中学习其语言风格和深层思想模式,在语言准确性和观点理解上显著超越各基线。

Beyond Prompt Engineering: Robust Behavior Control in LLMs via Steering Target Atoms

提出 STA(Steering Target Atoms),利用稀疏自编码器 (SAE) 将 LLM 的表示解耦为原子知识组件,通过激活幅度和频率筛选目标原子并操控,实现比提示工程更鲁棒、更精细的行为控制,在安全解毒和推理控制任务上效果优于现有 steering 方法。

Bias Attribution in Filipino Language Models: Extending a Bias Interpretability Metric for Application on Agglutinative Languages

将信息论偏见归因分数指标扩展到黏着语(菲律宾语),通过对子词分数取均值来处理复杂词素结构,在 4 个多语言 PLM 上揭示菲律宾语模型的偏见由实体类主题词(人物/物品/关系)驱动,与英语中动作类主题词(犯罪/性行为)形成鲜明对比。

Bias in Language Models: Beyond Trick Tests and Towards RUTEd Evaluation

通过对比标准偏见基准("trick tests")与基于真实使用场景的 RUTEd 评估,发现标准偏见基准与真实场景中的偏见表现无显著相关性,主张偏见评估应面向具体应用场景。

BiasGuard: A Reasoning-Enhanced Bias Detection Tool for Large Language Models

提出 BiasGuard,通过显式推理公平性规范来检测 LLM 输出偏见:第一阶段用教师模型生成推理轨迹做 SFT 初始化,第二阶段用 DPO 强化推理质量,在 5 个数据集上超越分类器和 LLM-as-Judge 方法且降低过度公平误判。

Blessing of Multilinguality: A Systematic Analysis of Multilingual In-Context Learning

系统分析多语言 ICL 策略,发现在 prompt 中混合多种高资源语言(HRL)的 demonstrations 一致性优于纯英文 demonstrations,尤其在低资源语言(LRL)上提升显著(Llama3.1 上 LRL 平均准确率提升 8.9~12.6%),甚至仅在 prompt 中加入不相关的非英语句子也能带来可测量的增益,揭示了"多语言暴露本身即有效"的现象。

BMIKE-53: Investigating Cross-Lingual Knowledge Editing with In-Context Learning

提出 BMIKE-53,覆盖 53 种语言的跨语言上下文知识编辑 (IKE) 基准,统一了 zsRE/CounterFact/WikiFactDiff 三个知识编辑数据集,系统评估发现模型规模和示例对齐对跨语言 IKE 效果至关重要,文字系统类型是影响跨语言性能差异的关键因素。

Boosting LLM's Molecular Structure Elucidation with Knowledge Enhanced Tree Search Reasoning

提出 K-MSE,通过构建分子子结构知识库补充 LLM 化学知识 + 设计分子-光谱评分器作为奖励模型 + MCTS 树搜索推理框架,在分子结构解析任务上将 GPT-4o-mini 和 GPT-4o 的性能提升超过 20%。

Brevity is the soul of sustainability: Characterizing LLM response lengths

系统研究 12 个 LLM 在 5 个数据集上的响应长度行为,发现 LLM 普遍生成远超必要的冗长回复(核心答案仅占 42%),并提出多种提示策略将响应长度缩短 25-88%、推理能耗降低 25-60%,同时保持甚至提升 ROUGE-L F1 质量。

Can Large Language Models Understand Internet Buzzwords Through User-Generated Content

研究 LLM 能否通过用户生成内容(UGC)理解中文网络流行语——构建首个中文网络流行语数据集 Cheer(含定义和相关UGC),提出 Ress 方法引导 LLM 模拟人类语言学习过程来生成流行语定义,揭示了 LLM 在流行语理解上的三大共性挑战。

Automated CAD Modeling Sequence Generation from Text Descriptions via Transformer-Based Large Language Models

提出一个语言引导的 CAD 设计自动化框架——通过半自动数据标注流水线、Transformer CAD 生成器(TCADGen)和 LLM 增强模型(CADLLM)三个创新,从文本参数和外观描述自动生成 CAD 建模序列,在精度和效率上超越传统方法。

Can External Validation Tools Improve Annotation Quality for LLM-as-a-Judge?

提出 Evaluation Agent,一个工具增强的 LLM-as-a-Judge 框架,通过集成网络搜索(事实核查)、代码执行和数学验证工具,在长文本事实验证上将与人类一致性从 63% 提升到 81%,在编程评估上从 31% 提升到 71%,且对无关领域几乎无退化。

Can Input Attributions Explain Inductive Reasoning in In-Context Learning?

设计受控的合成归纳推理任务评估 4 种输入归因方法解释 ICL 的能力,发现最简单的梯度范数常常最好,但所有方法在不同任务和模型规模上表现不一致且不稳定——ICL 的可解释性比预期更难。

Can Large Language Models Address Open-Target Stance Detection?

提出开放目标立场检测(OTSD)任务——目标在训练时未见且不作为输入提供,系统评估了 GPT、Gemini、LLaMA、Mistral 四个系列共 8 个 LLM 在目标生成和立场检测两阶段的表现,发现 LLM 整体优于现有 TSE 方法,但在目标未显式出现时表现明显下降。

Can LLMs Help Uncover Insights about LLMs? A Large-Scale, Evolving Literature Analysis of Frontier LLMs

本文提出半自动化文献分析管线,利用LLM从arXiv论文中自动抽取实验结果构建可持续更新的LLMEvalDB数据集(18127条记录/1737篇论文),并通过该数据集复现并扩展了关于CoT和ICL提示策略在不同任务类型上有效性的关键发现。

Can LLMs Interpret and Leverage Structured Linguistic Representations? A Case Study with AMRs

本文系统评估了 LLM 利用抽象语义表示(AMR)进行下游任务的能力,发现 AMR 增强的 prompt 在长上下文任务(如对话摘要)中显著提升 Llama 3.1 零样本性能(余弦相似度从 66% 提升至 76%),但在短上下文任务中通常会降低性能。

Can LLMs Understand Unvoiced Speech? Exploring EMG-to-Text Conversion with LLMs

本文提出了一种基于可训练 EMG 适配器模块的方法,将无声肌电图(EMG)信号映射到大语言模型(LLM)的输入嵌入空间,在闭合词汇无声 EMG 转文本任务中实现了 0.49 的词错误率(WER),仅需 6 分钟训练数据即比专用模型提升约 20%。

CCHall: A Novel Benchmark for Joint Cross-Lingual and Cross-Modal Hallucinations Detection in Large Language Models

提出首个联合跨语言与跨模态幻觉检测基准 CCHall,覆盖 9 种语言和 4 类多模态数据集,系统评估 6 款主流 MLLM 在联合场景下的幻觉表现,揭示当前模型在该联合场景中 F1 比单独跨模态低 10.9、比单独跨语言低 3.4,且提出多语提示和外部工具辅助两条缓解路径。

CER: Confidence Enhanced Reasoning in LLMs

提出置信度增强推理框架 CER——在 CoT 推理的每个中间步骤中量化关键 token(数学任务的数值/开放域的专有名词)的置信度,用步间置信度乘积评估整条推理链的可靠性,用置信度加权聚合替代简单多数投票,在数学和开放域任务上比 self-consistency 分别提升最高 7.4% 和 5.8%。

ChainEdit: Propagating Ripple Effects in LLM Knowledge Editing through Logical Rule-Guided Chains

提出 ChainEdit 框架,通过将知识图谱中挖掘的逻辑规则与 LLM 内在逻辑推理能力对齐,实现知识编辑时的链式更新,将逻辑泛化准确率从约 20% 提升至 58-65%。

Enhancing Character-Level Understanding in LLMs through Token Internal Structure Learning

提出 TIPA(Token Internal Position Awareness)方法,通过在 tokenizer 词汇表上进行逆序字符预测训练,增强 LLM 对 token 内部字符结构和位置的感知能力,显著提升中文拼写纠错等字符级任务的表现。

Chronosense Exploring Temporal Understanding In Large Language Models With Time

提出 ChronoSense 基准,系统评估 LLM 在 Allen 13 种时间区间关系和时间算术任务上的表现,揭示模型在时间理解方面的显著不足及对记忆的依赖。

Circuit Compositions: Exploring Modular Structures in Transformer-Based Language Models

通过在 PCFG SET 数据集上识别 10 个组合性字符串编辑操作的电路(circuits),研究 Transformer 中功能相关电路之间的模块化关系,发现功能相似的电路具有显著的节点重叠和跨任务忠实度,且电路可以通过集合运算(并集)组合以表示超出单个电路能力的更复杂功能。

CKnowEdit: A New Chinese Knowledge Editing Dataset for Linguistics, Facts, and Logic Error Correction in LLMs

提出首个面向中文语言特征的知识编辑数据集 CKnowEdit,涵盖语言学、事实性和逻辑性三大类共10个子类的1,854条样本,揭示了当前知识编辑方法在中文场景下的不足。

Classifying Unreliable Narrators with Large Language Models

借用叙事学理论定义三种不可靠叙事者类型,构建专家标注数据集 TUNa,系统评估 LLM 在零样本、少样本、微调和课程学习设定下的分类能力,发现该任务极具挑战性且课程学习对小模型有显著提升。

CodeMEnv: Benchmarking Large Language Models on Code Migration

提出 CodeMEnv,首个系统评估 LLM 跨环境代码迁移能力的基准,包含 922 个样本、19 个 Python/Java 包、3 个层次化任务(定位不兼容函数→描述变更→迁移代码),9 个 LLM 的平均 Pass@1 仅 26.50%,GPT-4o 最高 43.84%,揭示 LLM 更熟悉新版本函数且存在版本推理逻辑不一致问题。

CodeReviewQA: The Code Review Comprehension Assessment for Large Language Models

提出 CodeReviewQA 基准,将代码审查自动修正(ACR)任务分解为三个中间推理步骤——变更类型识别(CTR)、变更定位(CL)、解决方案识别(SI),各自设计为不同难度的多选题探测,在 900 个人工验证的高质量样例(9 种语言)上评测 72 个 LLM,揭示了模型在代码审查理解中的具体弱点。

CogniBench: A Legal-inspired Framework and Dataset for Assessing Cognitive Faithfulness of Large Language Models

借鉴法律领域间接证据认定标准,提出分层评估框架和 CogniBench 数据集,首次系统性地定义和评估 LLM 在认知性陈述(推理、评价、解释)中的忠实度问题,并训练 CogniDet 检测器实现事实与认知幻觉的同时检测。

CogSteer: Cognition-Inspired Selective Layer Intervention for Efficiently Steering Large Language Models

利用认知科学中的眼动数据分析 LLM 各层行为,发现中间层与人类注视相关性最高且最适合语义干预,提出 CogSteer 框架——仅微调最优单层(约 3% 参数)即可达到或超过全层微调的效果,在 GLUE/毒性控制任务上有效。

Enough Coin Flips Can Make LLMs Act Bayesian

通过受控的有偏硬币抛掷实验,证明 LLM 在获得足够的上下文示例后能以贝叶斯方式更新其先验,但初始先验通常存在系统性偏差(偏向正面),且注意力幅度对贝叶斯推理影响甚微。

Combining The Best Of Both Worlds A Method For Hybrid Nmt And Llm Translation

提出基于源句特征的NMT与LLM混合翻译调度策略(PPLT与JDM),在保持翻译质量最优的同时将LLM调用比例降至约25-30%,大幅减少计算开销。

ComparisonQA: Evaluating Factuality Robustness of LLMs Through Knowledge Frequency Control and Uncertainty

构建 ComparisonQA 基准(283K 配对问题),通过让高频和低频实体共享同一抽象问题实现受控对比,结合正确性和不确定性的两轮评估方法发现 LLM(包括 GPT-4o)对低频知识的鲁棒性极差。

Revisiting Compositional Generalization Capability of Large Language Models Considering Instruction Following Ability

提出 Ordered CommonGen 基准,通过要求 LLM 按指定顺序生成包含所有概念的句子,同时评估组合泛化与指令遵循能力,在 36 个 LLM 上发现即使最强模型也仅能达到约 75% 的有序覆盖率。

Computation Mechanism Behind LLM Position Generalization

揭示 LLM 注意力 logit 学习了位置相关性和语义重要性的近似算术加法解耦(\(W_{i,j} \approx f(\mathbf{q}, i-j) + g(\mathbf{q}, \mathbf{k})\),线性相关 0.959),发现了使这种解耦成立的中间表示模式,并用此解释了 LLM 的位置排列容忍性和长度泛化能力。

How Humans and LLMs Organize Conceptual Knowledge: Exploring Subordinate Categories in Italian

通过构建首个意大利语下位类别心理语言学数据集(187 个基本类别),系统对比了人类和 LLM 在下位概念层级上的类别组织结构,发现两者的对齐度较低但在不同语义领域存在显著差异。

ConsistencyChecker: Tree-based Evaluation of LLM Generalization Capabilities

ConsistencyChecker 提出基于自一致性树(self-consistency tree)的无参考 LLM 评估框架,通过构建可逆变换的树状多步路径(如多语言往返翻译、代码等价重写),量化模型在迭代变换中的语义/功能保持能力,动态生成 benchmark 从根源消除数据泄露,且与 WMT 2024 权威排名的相关性 r > 0.7,证明无需配对数据即可可靠评估 LLM 泛化能力。

Context-Robust Knowledge Editing for Language Models

发现现有知识编辑方法在前缀上下文存在时大幅失败(编辑成功率从 90.9% 降至 69.1%),提出 CHED 基准评估上下文鲁棒性,并设计 CoRE 方法通过多样化前缀上下文 + 跨前缀隐藏状态方差正则化来增强编辑的上下文鲁棒性,在保持模型通用能力的同时显著缩小有/无上下文的性能差距。

Contrastive Perplexity for Controlled Generation: An Application in Detoxifying Large Language Models

提出基于原型对比困惑度(Contrastive Perplexity, CP)的框架,通过构造语义相似但毒性属性不同的正负样本对,在困惑度空间中进行对比学习来微调 LLM,实现显著的毒性降低(Mistral-7b 毒性从 33.1% 降至 4.3%)且几乎不影响下游任务性能。

Contrastive Prompting Enhances Sentence Embeddings in LLMs through Inference-Time Steering

提出对比提示(Contrastive Prompting, CP)方法,通过引入辅助提示(引导编码非核心信息)并在推理时与正常提示的激活值做对比减法,过滤掉停用词等无关语义,使 LLM 的句子嵌入更聚焦核心语义,在 STS 和分类任务上一致提升现有提示方法。

Convert Language Model into a Value-based Strategic Planner

提出 straQ* 框架,将 LLM 转化为基于 Q-learning 的策略规划器,用平均 logit 作为 Q 值实现策略级 MDP,在情感支持对话中基于长期回报选择最优策略,超越直接推理、CoT 和微调等基线。

COSMIC: Generalized Refusal Direction Identification in LLM Activations

提出 COSMIC(Cosine Similarity Metrics for Inversion of Concepts),一种基于余弦相似度的自动化方向选择框架,无需依赖模型输出 token 或预定义的拒绝模板即可在 LLM 激活空间中识别拒绝方向,在对抗场景和弱对齐模型中仍能有效执行拒绝引导。

Cross-Lingual Optimization for Language Transfer in Large Language Models

提出 Cross-Lingual Optimization (CLO),通过修改 DPO 损失函数实现跨语言偏好优化——给目标语言输入时偏好目标语言回复、给英语输入时偏好英语回复——在 5 个模型 × 6 种语言上一致超越 SFT,低资源语言中仅 3,200 样本的 CLO 即超越 6,400 样本的 SFT。

Cross-Lingual Transfer of Debiasing and Detoxification in Multilingual LLMs: An Extensive Investigation

在 7 个 LLM 和 20 种语言上系统研究了英语去偏见/去毒化微调的跨语言迁移效果,发现 SFT 有效去偏见、DPO 有效去毒化,但迁移到非英语语言时普遍伴随语言生成能力下降(语言一致性、流畅度、多样性均受损),迁移效果可由预训练数据中目标语言的数据量预测。

Cross-model Transferability among Large Language Models on the Platonic Representations of Concepts

提出 L-Cross Modulation 方法,通过简单线性变换将一个 LLM 的概念方向向量(steering vectors)迁移到另一个 LLM 中实现行为控制,发现三个关键结论:(1) 跨模型 SV 迁移有效;(2) 不同概念共享同一变换矩阵;(3) 小模型的 SV 可以控制大模型(弱到强迁移)。

Cross-Lingual Pitfalls: Automatic Probing Cross-Lingual Weakness of Multilingual Large Language Models

提出基于束搜索和 LLM 仿真的自动化方法来高效发现多语言 LLM 的跨语言弱点,构建了覆盖 16 种语言的 6000+ 双语问答对数据集,揭示即使 GPT-4o 也存在超过 30% 的跨语言性能下降。

Cultural Learning-Based Culture Adaptation of Language Models

提出 CLCA 框架,借鉴文化学习理论,通过模拟社会交互生成文化适配对话数据,结合意图理解进行多任务训练,在 World Values Survey 上显著提升多种 LLM 的文化价值观对齐。

Culture is Not Trivia: Sociocultural Theory for Cultural NLP

提出基于社会文化理论的文化 NLP 框架,批判现有将文化简化为"常识琐事"的做法,主张文化应被理解为动态的、情境化的社会建构过程,而非静态的知识标签。

Data Caricatures: On the Representation of African American Language in Pretraining Corpora

结合定量实验、人工判断和定性分析,系统评估了 12 个开源预训练语料库中非裔美国人语言(AAL)的数量与质量:发现 AAL 仅占 0.007%–0.18% 的文档(远低于人口比例),C4 中 28.9% 的 AAL 文本被判为不适合 LLM 生成、24.5% 强化有害刻板印象,且 16 种自动过滤器中有 13 种系统性地偏向保留白人主流英语(WME)而非 AAL。

Data Whisperer: Efficient Data Selection for Task-Specific LLM Fine-Tuning via Few-Shot In-Context Learning

Data Whisperer 提出一种无需训练的注意力加权 few-shot ICL 数据选择方法,利用预训练模型自身的 ICL 能力和注意力分数为训练样本打分,仅用 10% 数据即可超越全量微调性能,同时比现有方法快 7-20 倍。

DeAL: Decoding-time Alignment for Large Language Models

DeAL 将 LLM 对齐问题重新形式化为解码时的启发式搜索问题,在推理阶段利用可定制的奖励函数(包括程序化约束和参数化 reward model)引导 token 选择,实现了灵活的多目标对齐且可与 RLHF 互补叠加。

Defense Against Prompt Injection Attack by Leveraging Attack Techniques

本文提出一种"以攻为防"的 prompt injection 防御策略:将已有的攻击技术(ignore、escape、fake completion)反转用于防御,在被注入的数据内容后追加 shield prompt + 原始指令,使 LLM 忽略注入指令而执行原始指令,在多种攻击场景下将 ASR 降至接近零。

When People are Floods: Analyzing Dehumanizing Metaphors in Immigration Discourse with Large Language Models

提出结合 LLM 词级隐喻检测与 SBERT 篇章级语义关联的计算框架,在 40 万条美国移民推文上揭示保守派更多使用去人化隐喻、但生物类隐喻对自由派的用户互动效应更强的复杂图景。

Deontological Keyword Bias: The Impact of Modal Expressions on Normative Judgments of Language Models

本文揭示LLM存在"义务论关键词偏见"(DKB)——当提示中包含"must"、"ought to"等模态义务表达时,模型会将超过90%的常识场景误判为义务,并提出基于少样本示例与推理提示的去偏策略。

Refuse Whenever You Feel Unsafe: Improving Safety in LLMs via Decoupled Refusal Training

发现标准安全微调数据存在"拒绝位置偏差"——模型只学会在回答开头拒绝,中途发现不安全时无法中断。提出 DeRTa(Decoupled Refusal Training),通过"有害前缀+安全拒绝"的 MLE 训练和在每个位置模拟"从有害到安全"转换的 RTO 训练,让 LLM 能在回答的任何位置感知到不安全时拒绝,在六种攻击场景下超越 GPT-4 和 LLaMA3-Instruct。

Detecting Referring Expressions in Visually Grounded Dialogue with Autoregressive Models

提出使用自回归模型在视觉对话中检测指代表达(referring expressions),将 RE 检测建模为序列标注任务的自回归变体,在 PhotoBook 和 MeetUp 数据集上实现 SOTA。

DICE-Bench: Evaluating the Tool-Use Capabilities of Large Language Models in Multi-turn Settings

提出 DICE-Bench 基准评估 LLM 在多轮对话中的工具使用能力,涵盖工具发现、调用、错误恢复和组合使用四个维度,发现即使最强模型在复杂多轮场景下也仅达 ~60% 成功率。

DiffLM: Controllable Synthetic Data Generation via Diffusion Language Models

提出 DiffLM,将扩散模型应用于文本合成数据生成,通过引导函数实现对生成文本属性的精细控制,在多个下游任务上生成的合成数据质量超越 GPT-4 和传统增强方法。

Direct Confidence Alignment: Aligning Verbalized Confidence with Internal Confidence

通过 DPO 将 LLM 的外化置信度(文字表达的概率)与内部置信度(token 概率)对齐,提升模型的透明度和可信度,Gemma-2-9B 上表现最佳。

DiSCo: Device-Server Collaborative LLM-Based Text Streaming Services

提出 DiSCo 设备-服务器协作 LLM 文本流服务框架,端侧小模型快速生成初始 token 减少首 token 延迟(TTFT),服务端大模型并行处理后替换,实现低延迟高质量的文本流式服务。

Disentangling Language and Culture for Evaluating Multilingual Large Language Models

提出 Dual Evaluation Framework,将多语言 LLM 评估沿"语言媒介"和"文化语境"两个维度解耦,发现"文化-语言协同"(Cultural-Linguistic Synergy) 现象——模型在文化语境与提问语言对齐时表现更好,并通过 FFN 神经元激活分析从可解释性角度给出解释。

Disentangling Memory and Reasoning Ability in Large Language Models

提出将 LLM 的推理过程显式分解为"记忆回忆"和"逻辑推理"两个步骤——引入 <memory><reason> 两个可学习特殊 token 标记每步是知识回忆还是逻辑推理,用双 LLM 框架生成训练数据后 LoRA 微调,在 StrategyQA/CommonsenseQA/TruthfulQA 上提升性能并增强可解释性,8B 模型在 TruthfulQA 上超越 GPT-4o。

DIVE into MoE: Diversity-Enhanced Reconstruction of Large Language Models from Dense into Mixture-of-Experts

提出 DIVE,一种将 Dense LLM 重构为 MoE 架构的方法,核心洞察是不同领域的校准数据集会让结构化剪枝产生不同的剪枝结果,利用这种多样性构建领域特异的专家,配合高效的两阶段重训练(router dense训练 + expert LoRA稀疏训练),在仅调不到 1% 参数的情况下实现优于现有剪枝和 MoE 重构方法的效果。

Diversity-oriented Data Augmentation with Large Language Models

提出 DoAug 框架,通过 SFT+DPO 微调 LLM 释义器并结合核心集选择与多样性采样,在保持语义一致性的同时显著提升增强数据集的多样性,在 12 个数据集上平均性能提升 10.52%,超出次优基线 3.76 个百分点。

Diversity Explains Inference Scaling Laws: Through a Case Study of Minimum Bayes Risk Decoding

从 bias-diversity 分解的理论视角重新解释 MBR 解码:质量估计误差 MSE = Bias - Diversity,增加 diversity(伪参考的多样性)是提升 MBR 性能的关键;进一步通过信息论扩展到一般推理方法,揭示 diversity 是推理 scaling law(增加采样提升性能但边际递减)的理论根源,并在机器翻译、摘要、图像描述任务上实证验证。

Do Language Models Mirror Human Confidence?

探索 LLM 的置信度是否呈现与人类类似的心理学模式(如过度自信效应、达克效应),在 MMLU 等基准上发现 LLM 确实存在类人的过度自信偏差,但在某些维度上也有独特模式。

Do Language Models Understand Honorific Systems in Javanese?

首次系统评估 LLM 对爪哇语敬语系统的理解能力,构建专门测试集发现即使是最强模型对复杂敬语层级的掌握也仅约 60% 准确率。

Do Language Models Understand the Cognitive Tasks Given to Them?

用 N-back 任务系统分析 LLM 认知任务理解能力,发现性能低下的主因是任务理解不足而非工作记忆限制,挑战了 LLM 工作记忆容量约 3 的结论。

Do Large Language Models Perform Latent Multi-Hop Reasoning without Exploiting Shortcuts?

构建无快捷方式的评估数据集 SOCRATES,系统评估 41 个 LLM 在潜在多跳推理中的真实能力,发现模型在国家类桥接实体上可达 80% 组合率,但年份类仅约 5%。

Do LLMs Give Psychometrically Plausible Responses in Educational Assessments?

从心理测量学角度评估 18 个 LLM 在教育评估中的表现,发现大模型过度自信且无法预测干扰项选择模式。

Does Time Have Its Place? Temporal Heads Where Language Models Recall Time-specific Information

通过 EAP-IG 电路分析在 Llama-2/Qwen/Phi-3 中发现了专门处理时间条件知识的"时间头"(Temporal Heads),消融这些头只降低时间知识准确率(降 3-9%)而不影响时间无关知识和通用 QA,并展示了通过注入时间头激活值实现选择性时间知识编辑的可能性。

DRAMA: Diverse Augmentation from LLMs to Smaller Dense Retrievers

通过多策略 LLM 数据增强+知识蒸馏创建小型高效检索器 Drama 0.3B,在 BEIR 上达到与 1B 模型相当的性能。

Dynamic Knowledge Integration for Evidence-Driven Counter-Argument Generation

提出动态网络知识检索框架提升反驳论证生成质量,构建新评估数据集并用 LLM-as-Judge 进行评估。

ECLM: Entity Level Language Model for Spoken Language Understanding with Chain of Intent

提出 ECLM 框架,将 LLM 应用于多意图口语理解:通过将 token 级槽填充转化为实体识别任务解决序列对齐问题,引入"意图链"(Chain of Intent)实现逐步多意图识别,在 MixATIS 和 MixSNIPS 上大幅超越 SOTA 基线。

Edit Once, Update Everywhere: Cross-Lingual Knowledge Synchronization

提出 X-KDE 框架通过指令微调+偏好优化实现知识的跨语言同步编辑——在一种语言中编辑知识后自动在其他语言同步生效。

EdiText: Controllable Coarse-to-Fine Text Editing with Diffusion Language Models

提出 EdiText,基于嵌入扩散模型(LD4LG)的可控文本编辑框架,通过将 SDEdit 技术从图像域迁移到文本域实现粗粒度编辑(控制加噪时间步),并创新性地利用自条件化(self-conditioning)机制实现细粒度编辑(将参考文本嵌入注入为去噪条件),两者结合实现从粗到细的多粒度文本属性编辑。

ELABORATION: A Comprehensive Benchmark on Human-LLM Competitive Programming

提出ELABORATION——首个全面评估人类-LLM协作竞赛编程的基准,包含覆盖编程全流程(理解→规划→编码→调试)的人类反馈分类体系和8320题精标注数据集,实验表明LLM在困难题上仅3.4% Pass@1,但人类反馈(特别是在编码阶段)可平均提升9.3%。

ELI-Why: Evaluating the Pedagogical Utility of Language Model Explanations

构建了包含 13.4K "Why" 问题的 ELI-Why 基准,通过两项人类研究发现 GPT-4 生成的面向不同教育水平的解释仅 50% 能匹配目标年级(人工策划达 79%),且对学习者信息需求的满足度比人类答案低 20%。

Emergent Abilities of Large Language Models under Continued Pretraining for Language Adaptation

揭示了持续预训练(CPT)进行语言适应时,混入英文数据对保留模型上下文学习(ICL)能力和下游涌现能力至关重要——尽管不影响验证困惑度;并提出课程学习和 EMA 权重平均作为替代方案。

Enhancing Lexicon-Based Text Embeddings with Large Language Models

用 LLM 增强基于词典的稀疏文本嵌入,在保持可解释性的同时提升检索性能。

Enhancing Transformation from Natural Language to Signal Temporal Logic using LLMs

用 LLM 改进自然语言到信号时序逻辑(STL)的转换,提出两阶段方法(语义解析+逻辑生成)。

Growing Through Experience: Scaling Episodic Grounding in Language Models

提出一个 weak-to-strong episodic grounding 框架,利用 MCTS 收集结构化经验数据,通过行为比率蒸馏将小模型的 episodic grounding 能力迁移到大模型,结合 DPO 优化实现从成功和失败经验中学习,在物理规划任务上超越 GPT-4o 等 SOTA 模型 3.45%。

Efficient and Accurate Prompt Optimization: the Benefit of Memory in Exemplar-Guided Reflection

提出 ERM 方法,通过指导性元提示生成带详细解题过程的 exemplar 来增强 feedback 质量,并引入 Feedback Memory 和 Exemplar Factory 两种长期记忆机制来高效存储和复用历史反馈与示例,在多个任务上以约一半的优化步数超越了 SOTA prompt 优化方法。

EscapeBench: Towards Advancing Creative Intelligence of Language Model Agents

提出EscapeBench密室逃脱游戏基准(36个场景、3种难度)评估LM agent的创造性智能,并设计EscapeAgent通过Foresight(工具使用假设生成)和Reflection(未解任务追踪)模块将提示依赖降低约50%,但仍远落后于人类。

Evaluating Implicit Bias in LLMs by Attacking from a Psychometric Perspective

借鉴心理测量学中的隐式联想测验(IAT)方法评估 LLM 的隐式偏见,发现模型存在系统性偏见且与人类偏见模式部分相似。

Evaluating Language Models as Synthetic Data Generators

提出 AgoraBench 基准,系统评估 6 个 LLM 在 3 个领域×3 种数据生成方式下的数据生成能力,通过训练 99 个学生模型发现:LLM 的数据生成能力与问题求解能力不直接相关,GPT-4o 在实例生成上最强而 Claude-3.5-Sonnet 在质量增强上最强。

Evaluation of Attribution Bias in Generator-Aware Retrieval-Augmented Large Language Models

定义并研究 RAG 中 LLM 对作者身份信息的归因敏感性和偏差,通过反事实评估发现告知 LLM 文档作者身份可显著改变归因质量 3-18%,且 LLM 存在对人类作者身份的归因偏差。

LLMs Can Simulate Standardized Patients via Agent Coevolution

EvoPatient 提出了一个多智能体协同进化框架,通过患者 Agent 和医生 Agent 之间的自主模拟对话,让 LLM 无需人工监督即可学会模拟标准化病人(SP),在需求对齐度上超过现有推理方法 10%+。

EXECUTE: A Multilingual Benchmark for LLM Token Understanding

扩展字符理解基准 CUTE 到 8 种语言和多种文字系统,提出 EXECUTE 框架,发现 LLM 在不同语言的字符/词/子字符级别表现差异巨大,且意外发现 LLM 对越不熟悉的语言反而在 token 理解任务上表现越好。

Explain-then-Process: Using Grammar Prompting to Enhance Grammatical Acceptability

提出先解释语法规则再判断可接受性的 Explain-then-Process 策略,在语法可接受性判断任务上超越直接 prompting 和 CoT。

ExpliCa: Evaluating Explicit Causal Reasoning in Large Language Models

提出 ExpliCa 数据集(4800 条问题,含因果和时间连接词),首次整合因果和时间关系评估并配以众包人类评分,发现即使顶级模型准确率也难超 0.80,且模型系统性地将时间关系误判为因果关系。

Explicit vs. Implicit: Investigating Social Bias in Large Language Models through Self-Reflection

借鉴社会心理学中隐式联想测验(IAT)和自我报告评估(SRA),提出自反思评估框架系统研究 LLM 的显式和隐式偏见,发现 LLM 与人类一样存在显式-隐式偏见不一致——显式偏见轻微但隐式偏见强烈,且模型越大/对齐训练越多,这种不一致越严重。

Exploring Explanations Improves the Robustness of In-Context Learning

提出 X²-ICL 框架,通过在上下文学习的示例中为所有可能的标签(而非仅观测标签)生成解释推理路径,系统性地探索隐变量推理空间,从而显著提升 ICL 在分布外(OOD)数据上的鲁棒性——在 5 个 LLM 上的 8 个 OOD 数据集中,X²-ICL 在 6-8 个上超越 ICL 和 X-ICL。

Exploring Graph Representations of Logical Forms for Language Modeling

提出 GFoLDS,一种在 DMRS 逻辑形式图表示上预训练的图 Transformer 语言模型,并提出"语言知识催化假说"(LKCH):逻辑形式语言模型几乎立刻学会基础语言现象,进而加速复杂模式学习,在相同数据量下大幅超越 BERT。

Exploring the Impact of Instruction-Tuning on LLMs' Susceptibility to Misinformation

首次系统研究指令微调如何影响 LLM 对虚假信息的易感性,发现指令微调使模型从偏信 assistant-role 转变为偏信 user-role,当虚假信息以独立 user-turn 呈现时易感性最高,揭示了指令微调的"副作用"。

HiCUPID: Exploring the Potential of LLMs as Personalized Assistants

提出 HiCUPID,首个全面满足个性化 AI 助手五大需求(用户信息遵循、隐含信息理解、多信息推理、长上下文建模、主动性回复)的基准,含 1,250 用户 × 25 人格 × 10 日程 + Llama-3.2 自动评估模型。

Exposing Numeracy Gaps: A Benchmark to Evaluate Fundamental Numerical Abilities in Large Language Models

提出 NumericBench 综合基准,通过 6 类数据集评估 LLM 的 6 种基本数值能力(数字识别、算术运算、上下文检索、比较、汇总、逻辑推理),发现包括 GPT-4o、DeepSeek-V3 在内的 SOTA 模型在简单数值任务上仍表现极差,并深入分析了 5 种根因。

Factual Knowledge in Language Models: Robustness and Anomalies under Simple Temporal Context Variations

发布 TimeStress 数据集(521K 陈述,2003 条时间事实),评估 18 个 LLM 在时间上下文变化下的事实知识鲁棒性,发现最好的模型仅对 11% 的事实实现完美鲁棒,且存在人类不会犯的关键错误。

Fairsteer Inference Time Debiasing For Llms With Dynamic Activation Steering

提出 FairSteer,一种推理时去偏框架,通过轻量线性分类器检测激活中的偏见信号,再用对比 prompt 对计算的去偏转向向量(DSV)动态调整隐藏层激活,无需重训即可在多任务上有效缓解 LLM 的社会偏见。

FlashBack: Efficient Retrieval-Augmented Language Modeling for Fast Inference

针对检索增强语言模型(RALM)中因检索内容前置(prepending)导致 KV cache 反复重算的推理效率问题,提出 FlashBack,将检索内容后置(appending)以保留输入的 KV cache,并用 Marking Token + LoRA 微调适配新的上下文模式,在 Llama 2-7B 上实现最高 4 倍推理加速且 perplexity 持平。

FoodTaxo: Generating Food Taxonomies with Large Language Models

提出 FoodTaxo,基于 Llama-3 的迭代自底向上分类法生成与补全算法,利用 CoT 提示 + RAG 检索 + NLI 验证三阶段流程,从已知叶节点概念出发逐步构建层次化 taxonomy;在五个基准数据集上与 TacoPrompt 等 SOTA 方法竞争,同时通过 reference-free 指标和消融实验揭示了非叶节点放置这一根本性瓶颈。

A Survey on Foundation Language Models for Single-cell Biology

首篇从语言建模视角系统综述单细胞生物学基础语言模型的工作,将现有模型划分为 PLM(从头预训练)和 LLM(利用已有大模型)两大类,全面分析了数据 tokenization 策略、预训练/微调范式以及下游任务。

FR-Spec: Accelerating Large-Vocabulary Language Models via Frequency-Ranked Speculative Sampling

发现大词表LLM(如LLaMA-3的128k词表)中投机采样的瓶颈从Transformer层转移到LM Head,提出FR-Spec通过频率排序将草稿模型的词表压缩75%(128k→32k),在EAGLE-2基础上额外获得1.12×加速,且保证最终输出分布数学等价。

From Data to Knowledge: Evaluating How Efficiently Language Models Learn Facts

首次直接研究事实在预训练数据中出现频次与 LLM 能否回忆该事实之间的关系,提出两种样本效率指标,发现不同架构/规模的模型在高频事实上表现相似但在低频事实上差异显著——低频事实的学习能力是区分模型样本效率的关键。

From Misleading Queries to Accurate Answers: A Three-Stage Fine-Tuning Method for LLMs

提出三阶段微调方法(误导检测->查询纠正->准确回答)增强 LLM 处理含误导信息输入的能力,在误导检测和 QA 任务上显著提升准确率,同时减少幻觉生成。

From Selection to Generation: A Survey of LLM-based Active Learning

首篇系统综述 LLM 时代的主动学习(Active Learning),提出以 Querying(选择/生成)和 Annotation(标注)为核心的分类体系,全面梳理 LLM 如何变革传统主动学习的选择-标注流程。

From Selection To Generation A Survey Of Llm-Based Active Learning

首篇系统梳理 LLM 时代主动学习的综述,提出以 Querying(从传统选择到 LLM 生成)和 Annotation(从人工标注到 LLM 标注)为双轴的统一分类体系,覆盖查询策略、标注方案、停止准则、AL 范式和应用领域。

From Tools to Teammates: Evaluating LLMs in Multi-Session Coding Interactions

提出 MemoryCode 合成多会话数据集评估 LLM 在长期交互中追踪和执行编码指令的能力,发现即使 GPT-4o 在提供完整对话历史时准确率也下降 67%,揭示了当前 LLM 在前瞻性记忆和信息整合上的根本局限。

GALLa: Graph Aligned Large Language Models for Improved Source Code Understanding

提出 GALLa,通过 GNN 编码代码的 AST/DFG 结构图并用跨模态适配器对齐到 LLM 嵌入空间,在微调时作为辅助任务注入代码结构信息,推理时丢弃 GNN 和 adapter 实现零额外开销,在 5 个代码任务 × 7 个基线 LLM(350M-14B)上持续提升。

Gradient-Adaptive Policy Optimization: Towards Multi-Objective Alignment of Large Language Models

提出GAPO,一种基于梯度自适应缩放的多目标策略优化方法,利用多梯度下降算法(MGDA)结合梯度归一化,平衡LLM在帮助性和无害性等冲突目标间的权衡,并通过P-GAPO支持用户偏好驱动的Pareto前沿生成。

GAPO: Learning Preferential Prompt through Generative Adversarial Policy Optimization

提出 GAPO(Generative Adversarial Policy Optimization)框架,将 GAN 的对抗训练机制与 PPO 结合,使用 encoder-only 奖励模型替代传统 decoder-only 架构,通过"Preferential Prompt"(修改 prompt 中的约束而非 response)的新范式来增强 LLM 对细粒度约束的理解和遵循能力,在 IFEval 和产品描述生成任务上大幅超越 DPO/KTO/SimPO 等基线。

Generative Psycho-Lexical Approach for Constructing Value Systems in Large Language Models

提出生成式心理词汇方法(GPLA),自动化构建面向LLM的五因素价值体系(社会责任、冒险性、规则遵循、自我效能、理性),在结构效度、安全预测和价值对齐上优于经典Schwartz人类价值体系。

Genetic Instruct: Scaling up Synthetic Generation of Coding Instructions for Large Language Models

提出 Genetic-Instruct 算法,借鉴进化算法的交叉和变异操作,从 512 个种子指令扩展生成 750 万+高质量编码指令,使用 Instructor-LLM/Coder-LLM/Judge-LLM 三角色流水线,训练后的模型在代码生成基准上超越 Self-Instruct 和 Evol-Instruct。

GenKnowSub: Improving Modularity and Reusability of LLMs through General Knowledge Substitution

提出 GenKnowSub 框架通过通用知识替换改善 LLM 的模块化和可重用性,实现知识组件的即插即用。

Towards Geo-Culturally Grounded LLM Generations

研究 RAG/搜索增强技术对 LLM 文化意识的影响——搜索增强显著提升了文化命题知识的选择题表现,但也增加了刻板印象风险,且在开放式文化流畅性的人工评估中改进不显著,揭示了"文化知识"和"文化流畅性"的本质区别。

Geometric Signatures of Compositionality Across a Language Model's Lifetime

通过将数据集的组合性程度与语言模型表示的非线性内在维度(I_d)和线性有效维度(d)联系起来,揭示了一个形式-意义二分:非线性 I_d 编码有意义的组合语义复杂度,而线性 d 编码表面词形复杂度;该对应关系在训练过程中随语言能力涌现而建立。

Efficient Universal Goal Hijacking with Semantics-guided Prompt Organization

本文提出POUGH方法,通过高效的渐进式优化算法和两种语义引导的提示组织策略(采样策略+排序策略),实现了对LLM的高效通用目标劫持攻击,在四个开源LLM和十种恶意目标响应上平均攻击成功率达93.41%。

What Makes a Good Natural Language Prompt?

通过元分析150+篇prompting相关论文和博客,提出一个以属性为中心、以人为中心的prompt质量评估框架,涵盖6个维度21个属性,并发现单属性增强往往比多属性组合更有效。

GORP: Continual Gradient Low-Rank Projection Fine-Tuning for LLMs

GORP 提出将全秩参数和 LoRA 低秩参数的梯度统一投影到低秩梯度子空间中联合更新,利用 Adam 一阶矩隐式构建跨任务共享梯度空间来缓解灾难性遗忘,在 T5 和 LLaMA2 上持续学习性能接近多任务联合训练上界。

Can Graph Descriptive Order Affect Solving Graph Problems with LLMs?

首次系统研究了图描述顺序(BFS、DFS、PageRank、PPR)对LLM解决图推理问题的影响,发现有序描述显著优于随机描述,且不同任务偏好不同的排列策略。

Group then Scale: Dynamic Mixture-of-Experts Multilingual Language Model

提出 DMoE——基于参数偏差的动态语言分组 + 选择性 MoE 层扩展方法,通过仅 10 步微调量化语言间相似性,将相似语言分组共享同一 expert,只在参数偏差大的层(语言特定层)扩展为 MoE 层,在 18~128 种语言上 PPL 比持续预训练降低 11.4%,用 3.6 倍少的参数超越 X-ELM 9.6%。

GuessArena: Guess Who I Am? A Self-Adaptive Framework for Evaluating LLMs in Domain-Specific Knowledge and Reasoning

提出 GuessArena,一种基于"猜猜我是谁"博弈游戏的自适应 LLM 评估框架,通过领域知识建模和多轮交互推理,在五个垂直行业中有效区分模型的领域知识和推理能力。

Hallucination Detox: Sensitivity Dropout (SenD) for Large Language Model Training

本文揭示了 LLM 训练过程中幻觉行为的振荡现象,提出 Sensitivity Dropout(SenD)训练协议——通过识别并确定性丢弃高变异敏感嵌入索引来降低训练中的幻觉方差,同时提出计算高效的 Efficient EigenScore(EES)近似方法,在 Pythia 和 Llama 模型上实现高达 17% 的测试时可靠性提升。

HALoGEN: Fantastic LLM Hallucinations and Where to Find Them

提出 HALoGEN——覆盖 9 个领域(含编程、科学引用、摘要等)的 10,923 条 prompt 的大规模幻觉评测框架,配套原子级自动验证器,在 14 个 LLM 的约 150,000 条生成上系统性评估幻觉,发现即使最佳模型也可能有高达 86% 的原子事实存在幻觉,并提出 Type A/B/C 三类错误分类法。

Health-LLM: Personalized Retrieval-Augmented Disease Prediction System

提出 Health-LLM 个性化 RAG 疾病预测系统,结合可穿戴设备数据和医学知识库进行健康风险评估。

HELIOS: Harmonizing Early Fusion, Late Fusion, and LLM Reasoning for Multi-Granular Table-Text Retrieval

提出 HELIOS 框架,结合早期融合(边级别二部子图检索)、晚期融合(查询相关节点扩展)和 LLM 推理(星图级逻辑推断),在 OTT-QA 上 recall 和 nDCG 分别提升达 42.6% 和 39.9%。

HellaSwag-Pro: A Large-Scale Bilingual Benchmark for Evaluating the Robustness of LLMs

构建首个大规模双语(中英)LLM 常识推理鲁棒性评估基准 HellaSwag-Pro,包含 7 种问题变体共 11,200 道题,系统评估 41 个 LLM 发现所有模型在常识推理上远未达到鲁棒。

Help Me Write a Story: Evaluating LLMs' Ability to Generate Writing Feedback

探索 LLM 能否为创意写作者提供有意义的写作反馈——构建包含 1300 个故意引入写作问题的故事测试集,评估常用 LLM 的写作反馈生成能力,发现模型虽能提供具体且多数准确的反馈,但常错过最重要的写作问题且不会恰当地在批评和鼓励之间切换。

How Do LLMs Acquire New Knowledge? A Knowledge Circuits Perspective on Continual Pre-Training

从知识电路(knowledge circuits)角度研究 LLM 在持续预训练中如何获取新知识:新知识的获取依赖于与已有知识的关联性,电路经历"形成→优化"的阶段转变,且呈现从深层到浅层的演化模式。

How does Misinformation Affect Large Language Model Behaviors and Preferences?

构建了目前最大的误信息评估基准 MisBench(1034 万条误信息),从知识冲突类型和文本风格两个维度系统分析 LLM 对误信息的行为和偏好,并提出 RtD 方法结合外部知识源提升误信息检测能力。

How Numerical Precision Affects Arithmetical Reasoning Capabilities of LLMs

从电路复杂度理论出发,严格证明低精度(如 int4/int8)Transformer 在迭代加法和整数乘法上需要超多项式规模才能求解,而标准精度(float32)Transformer 仅需常数深度+多项式宽度即可高效求解三类算术任务,并在 LLaMA-3.1-8B 上实验验证了精度对算术能力的关键影响。

HPSS: Heuristic Prompting Strategy Search for LLM Evaluators

整合 8 个影响 LLM 评估提示效果的关键因子(评分尺度、ICL 示例、评估标准、参考答案、CoT、AutoCoT、度量指标、组件顺序),提出基于遗传算法的启发式提示策略搜索方法 HPSS,在 12,960 种组合空间中高效找到最优提示策略,仅用基线 5% 的生成成本即超越 G-Eval 和 CloserLook。

How to Enable Effective Cooperation Between Humans and NLP Models: A Survey of Principles, Formalizations, and Beyond

首次系统性地综述了人与NLP模型之间的合作范式,提出基于"谁为最终决策负责"的三类合作形式化分类体系(顺序合作、分诊合作、联合合作),并借鉴Grice合作原则定义了人机合作的基本原则,为后续研究提供了统一视角。

HumT DumT: Measuring and Controlling Human-like Language in LLMs

提出基于 GPT-2 对数概率比的文本人类化语气度量 HumT 及其社会感知泛化版 SocioT,在 40 万+偏好样本上发现用户普遍偏好更低人类化的 LLM 输出且人类化语气与社交亲近(r=0.87)、低地位(r=-0.80)、女性化(r=0.47)强相关,进而通过仅 500 对偏好数据的 DPO 微调(DumT)有效降低人类化程度而不损模型性能。

HyGenar: An LLM-Driven Hybrid Genetic Algorithm for Few-Shot Grammar Generation

构建 540 个挑战的文法生成数据集,设计 6 种评测指标,提出基于 LLM 驱动的混合遗传算法 HyGenar,显著提升 LLM 从少量示例生成 BNF 文法的能力。

Hypothetical Documents or Knowledge Leakage? Rethinking LLM-based Query Expansion

质疑 LLM-based 查询扩展(HyDE/Query2doc)的性能提升是否来自"假设性文档生成",发现性能增益仅在 LLM 生成的文档包含与 gold evidence 语义一致的句子时才一致出现,揭示了 benchmark 中可能存在的知识泄露问题。

Enhancing the Rule Learning Ability of Large Language Model Agent through Induction, Deduction, and Abduction

提出 RULEARN benchmark(300 个手工交互式文字环境谜题,涵盖三类场景)和 IDEA 框架(溯因假设生成→演绎计划验证→归纳反馈修正的迭代循环),在 GPT-4o 上达到 50.33% 成功率(+7% vs ReAct baseline),但仍远低于人类 63.33%,细粒度人类评估揭示了 LLM 在假设修正阶段的根本瓶颈。

If Eleanor Rigby Had Met ChatGPT: A Study on Loneliness in a Post-LLM World

研究 LLM 聊天伴侣对孤独感的影响,发现 ChatGPT 交互可短期缓解孤独但长期效果有限,且可能减少人际互动动力。

The Impossibility of Fair LLMs

系统分析了多种技术公平性框架(fairness through unawareness、group fairness、fair representations、multi-sided fairness等)在通用LLM上的适用性,论证了每种框架要么在逻辑上无法扩展到通用AI场景、要么在实践中不可行——主要源于非结构化训练数据的敏感属性不可剥离、用例/人群组合的组合爆炸、以及公平性不具备可组合性。

Improve Language Model and Brain Alignment via Associative Memory

通过模拟人类联想记忆(用相关概念扩展输入文本)提升语言模型与大脑 fMRI 活动的对齐度,发现联想记忆增强在内侧颞叶等记忆相关脑区效果最显著,并构建 Association 数据集通过 SFT 让 LLM 学会生成联想内容。

Can Indirect Prompt Injection Attacks Be Detected and Removed?

本文系统研究间接 prompt injection 攻击的检测与移除:构建评估基准,发现现有检测模型对间接攻击表现不佳但专门训练的模型可达 99% 准确率,提出分割移除和抽取移除两种方法,并将检测+移除组合为过滤管道,有效降低间接 prompt injection 的攻击成功率。

InfiniSST: Simultaneous Translation of Unbounded Speech with Large Language Models

提出 InfiniSST,将流式同声翻译建模为多轮对话任务,结合流式语音编码器和 KV cache 管理策略实现无限长语音输入的实时翻译,在 MuST-C 上减少 0.5-1s 计算感知延迟且不损失翻译质量。

Leveraging Self-Attention for Input-Dependent Soft Prompting in LLMs

提出 ID-SPAM,通过在输入 token 嵌入上施加可学习自注意力层并经瓶颈 MLP 生成输入依赖的软提示,仅在单层 Transformer 输入端拼接即可超越多种 Soft Prompt 基线,且具备优秀的零样本跨任务/跨领域迁移能力。

Beyond Facts: Evaluating Intent Hallucination in Large Language Models

本文提出"意图幻觉"(Intent Hallucination)概念——LLM 在处理复杂多条件查询时遗漏或误解部分意图约束导致的偏离用户意图的生成,构建 FaithQA 基准(20,068 题)和 Constraint Score 评估指标,实验表明意图幻觉在 SOTA 模型中普遍存在且随查询复杂度增加而加剧。

Internal and External Impacts of Natural Language Processing Papers

从内部(NLP 社区)和外部(其他领域)两个维度衡量 NLP 论文影响力,构建影响力预测模型。

Investigating Context-Faithfulness in Large Language Models: The Roles of Memory Strength and Evidence Style

通过测量 LLM 对同一问题不同释义的回答一致性来量化"记忆强度",发现 LLM 对外部证据的接受度与记忆强度高度负相关,且改写式证据比重复或详细证据更有效。

IRT-Router: Effective and Interpretable Multi-LLM Routing via Item Response Theory

IRT-Router 借鉴心理测量学的项目反应理论(IRT),将 LLM 视为"考生"、query 视为"考题",学习多维能力向量和难度/区分度参数实现可解释的多 LLM 路由,在 OOD 场景下达 87%+ 准确率且成本仅为 GPT-4o 的 1/30。

Is It Just Semantics? A Case Study of Discourse Particle Understanding in LLMs

以德语语气词为案例研究 LLM 的语用理解能力,发现模型对语义细微差异(如 'doch''halt''ja')的掌握远不如语法和词汇。

Is LLM an Overconfident Judge? Unveiling the Capabilities of LLMs in Detecting Offensive Language with Annotation Disagreement

系统评估了多个 LLM 在攻击性语言检测中面对标注分歧时的表现,发现 LLM 在标注者高度一致的样本上表现优异(GPT-4o F1 85.24%)但在低一致度样本上骤降至 57.06%,且模型对不确定样本表现出严重的过度自信;进一步通过 few-shot 和指令微调实验证明,在训练中引入分歧样本可同时提升检测准确率和人-AI 对齐度。

JoPA: Explaining Large Language Model's Generation via Joint Prompt Attribution

提出 JoPA(Joint Prompt Attribution)框架,将 LLM 生成任务的 prompt 归因建模为组合优化问题,用概率搜索算法高效寻找对输出有因果影响的输入 token 组合,解决了现有方法忽略 token 间协同效应的问题。

Just a Scratch: Enhancing LLM Capabilities for Self-Harm Detection through Intent Refinement

通过意图精炼增强 LLM 自伤检测能力,将帖子按意图分类(求助/记录/警示等)再进行风险评估,准确率显著提升。

Just Go Parallel: Improving the Multilingual Capabilities of Large Language Models

系统研究在 decoder-only LLM 训练中加入平行数据对多语言能力的影响,发现将平行数据放在训练末期效果最好,且平行数据显著优于等量的单语数据;LLM 无法自动泛化到训练方向的反向翻译。

JuStRank: Benchmarking LLM Judges for System Ranking

首次大规模研究LLM判官在系统排名任务中的表现,提出JuStRank基准,揭示实例级判断能力与系统级排名能力之间的差距,并发现判官的"果断性"和"偏见"两个新兴特征。

Knockout: LLM Assessment Using Large Language Models for Evaluations through Iterative Elimination

提出 Knockout 淘汰赛式 LLM 评估方法,通过迭代配对比较逐步淘汰弱模型,比全配对比较效率高 O(n log n) vs O(n^2)。

Analyzing LLMs' Knowledge Boundary Cognition Across Languages Through the Lens of Internal Representations

通过探测 LLM 内部表示,揭示知识边界认知在多语言间呈线性结构,提出 training-free 对齐方法实现跨语言知识边界感知迁移,并发现"弱到强泛化"现象。

Knowledge Boundary of Large Language Models: A Survey

本文提出了 LLM 知识边界的形式化定义框架,将知识分为四种类型(PAK/PSK/MSU/MAU),并围绕"为什么研究知识边界""如何识别知识边界""如何缓解知识边界问题"三个核心问题系统综述了相关研究。

La Leaderboard: A Large Language Model Leaderboard for Spanish Varieties and Languages of Spain and Latin America

构建首个面向西班牙和拉丁美洲语言的开源LLM排行榜,整合66个数据集覆盖西班牙语、加泰罗尼亚语、巴斯克语、加利西亚语,评估50个模型并分析训练策略、算力与性能的关系。

LangSAMP: Language-Script Aware Multilingual Pretraining

提出 LangSAMP 方法,在多语言预训练中将语言和文字系统 (script) embedding 添加到 Transformer 输出端(而非输入端),使模型主干学到更语言中立的表示,在 500+ 语言的零样本跨语言迁移中一致优于基线。

Language-Codec: Bridging Discrete Codec Representations and Speech Language Models

提出 Language-Codec,通过掩码通道残差向量量化(MCRVQ)机制和改进的傅里叶变换解码器,弥合离散编解码器表示与下游语音语言模型之间的鸿沟,仅用4个码本通道即实现高质量音频重建。

Language Complexity Measurement as a Noisy Zero-Shot Proxy for Evaluating LLM Performance

探索语言复杂度指标作为 LLM 性能的零样本代理评估,发现文本复杂度与 LLM 表现负相关但噪声大,仅可作为粗略参考。

Language Models Can Subtly Deceive Without Lying: A Case Study on Strategic Phrasing

构建了一个立法环境测试平台(LobbyLens),研究 LLM 是否能通过策略性措辞(strategic phrasing)——即不说谎但有意操纵表达方式——来隐藏修正案中对特定公司的利益导向,发现 LLM 经过 re-planning 可使欺骗率提升最多 40 个百分点。

Large Language Models for Predictive Analysis: How Far Are They?

提出 PredictiQ 基准(1130 查询×44 真实数据集×8 领域),从文本分析、代码生成和文本-代码对齐三个维度评估 12 个 LLM 的预测分析能力,发现现有 LLM 在此领域仍面临巨大挑战。

Large Language Models in Bioinformatics: A Survey

系统综述 LLM 在生物信息学中的应用,覆盖基因组序列建模、RNA 结构预测、蛋白质功能推断、单细胞转录组学四大方向,讨论数据稀缺、计算复杂度、跨组学整合等挑战。

Large Vocabulary Size Improves Large Language Models

实证研究词表大小与 LLM 性能的关系,在英语和日语上证明更大的词表(从 5K 到 500K)一致带来更好的下游性能,并提出在继续训练场景中替换词表的方法。

LazyReview: A Dataset for Uncovering Lazy Thinking in NLP Peer Reviews

构建首个标注"懒惰思维"细粒度类别的同行评审数据集 LazyReview——发现 LLM 在零样本下难以检测评审中的懒惰思维启发式,但在 LazyReview 上指令微调后性能提升 10-20 个点,且经懒惰思维反馈修改的评审显著更全面和可操作。

Less, but Better: Efficient Multilingual Expansion for LLMs via Layer-wise Mixture-of-Experts

分析 LLM 不同层间的跨语言表征相似度,提出 LayerMoE 按层分配不同数量的新语言专家(高相似层少分配、低相似层多分配),用 60% 更少的专家参数超越 SOTA,并通过在高相似层添加路由分类器进一步缓解灾难性遗忘。

Leveraging Large Language Models to Measure Gender Representation Bias in Gendered Language Corpora

提出基于 LLM 的方法量化有语法性别语言(西班牙语、巴伦西亚语)语料中的性别表示偏差,发现 4:1 到 6:1 的男性主导失衡,并证明少量反向偏差数据(5000句)可有效缓解模型输出中的性别不平衡。

On the Limit of Language Models as Planning Formalizers

系统评估"LLM-as-Formalizer"方法论的极限——首次要求 LLM 生成完整 PDDL 表示(而非部分),从不同自然度的文本描述中形式化规划领域,发现最强模型(GPT-4o/o3-mini/DeepSeek-R1)可有效形式化超越直接规划,但描述越自然性能越低,弱模型卡在语法错误而强模型面临语义错误。

Llama See, Llama Do: A Mechanistic Perspective on Contextual Entrainment and Distraction in LLMs

本文发现并定义了"上下文夹带"(contextual entrainment)现象——LLM会对上下文中出现过的任意token赋予更高概率,并通过可微掩码方法定位了负责该现象的entrainment heads,关闭这些头后可显著抑制干扰效应。

LlamaDuo: LLMOps Pipeline for Seamless Migration from Service LLMs to Small-Scale Local LLMs

提出 LlamaDuo 自动化 LLMOps 流水线,通过服务 LLM 生成合成数据迭代微调小模型,使 2B-8B 本地模型在特定下游任务上逼近甚至匹敌 GPT-4o 等大模型性能,且长期部署成本显著降低。

LLM as Effective Streaming Processor: Bridging Streaming-Batch Mismatches with Group Position Encoding

系统性地识别并量化了 batch-trained LLM 适配流式场景的三种不匹配(输入注意力 / 输出注意力 / 位置 ID),发现仅输入注意力不匹配才是关键瓶颈(+2.20 BLEU),据此提出组位置编码(Group Position Encoding)——源/目标各自维护连续位置 ID 即可,无需昂贵的 KV cache 重编码,在机器翻译和 ASR 两种跨模态任务上均超越专用流式架构。

LLM Braces: Straightening Out LLM Predictions with Relevant Sub-Updates

LLMBraces 通过计算 FFN 层中各 value 向量与输入的相关性得分,动态调节子更新(sub-update)的贡献权重,用极少参数(比 LoRA 少 75%)同时提升模型预测精度和实现可控文本生成。

LLM as a Broken Telephone: Iterative Generation Distorts Information

类比"传话游戏"研究 LLM 在迭代生成中的信息失真现象,通过多语言翻译链实验发现:信息失真随迭代累积,受中间语言选择和链复杂度影响,可通过温度控制和受限提示缓解但无法消除。

LLM Meets Scene Graph: Can Large Language Models Understand and Generate Scene Graphs?

构建 TSG Bench(120 场景、2041 描述、4289 文本场景图),系统评估 11 个 LLM 在场景图理解(SGDS/SGQA)和生成(SA-SGG/MA-SGG)四类任务上的能力,发现最强模型在理解上接近人类但生成任务仍有 15-17% 的差距。

Evaluation of LLM Vulnerabilities to Being Misused for Personalized Disinformation Generation

系统评估了 6 个主流 LLM 生成个性化虚假信息的能力,发现大多数 LLM 能生成高质量个性化虚假新闻,且个性化请求反而降低了安全过滤器的触发率(相当于一种 jailbreak),同时轻微降低了机器生成文本的可检测性。

Re-ranking Using Large Language Models for Mitigating Exposure to Harmful Content on Social Media Platforms

提出基于 LLM 的成对偏好重排序方法,在零样本和少样本设置下对社交媒体推荐序列中的有害内容进行降级排序,显著优于 Perspective API 和 OpenAI Moderation API 等工业级分类器,同时引入 PP-k 和 EWN 两个新评估指标。

Wait, that's not an option: LLMs Robustness with Incorrect Multiple-Choice Options

提出"反思判断力"(Reflective Judgment)概念来衡量 LLM 在所有选项都错误的选择题中拒绝选择的能力,发现对齐后的模型(GPT-4o 等)往往盲目服从指令选择错误选项,而基座模型反而表现更好,且该能力随模型规模增大而涌现。

LLM-Powered Test Case Generation for Detecting Bugs in Plausible Programs

提出TrickCatcher——一种LLM驱动的测试用例生成方法,通过PUT引导的程序变体生成、基于生成器的输入生成和多样性驱动的差异测试三阶段流程,专门检测"plausible programs"(能通过现有测试套件但仍含隐蔽bug的程序)中的tricky bugs,F1分数达到SOTA基线的1.66倍。

LLMs instead of Human Judges? A Large Scale Empirical Study across 20 NLP Evaluation Tasks

构建包含20个NLP数据集(7万+实例)的 Judge-Bench 基准,系统评估11个LLM作为评判者与人类标注的一致性,发现模型在不同任务/属性/标注者专业水平上表现差异巨大,建议部署前必须针对特定任务做人类标注验证。

LLMs can Perform Multi-Dimensional Analytic Writing Assessments

利用 L2 研究生文献综述语料库,系统评估了 LLM 在多维分析写作评估(评分+评论)上的能力,并提出可解释的反馈质量评估框架 ProEval。

LLMs Know Their Vulnerabilities: Uncover Safety Gaps through Natural Distribution Shifts

提出 ActorBreaker 多轮攻击方法,基于 Latour 的行动者网络理论,利用与有害内容语义相关的良性 prompt(自然分布偏移)绕过安全机制,在 HarmBench 上达到 SOTA 攻击成功率,揭示了预训练数据与安全训练数据之间的语义覆盖差距。

Language Models, Graph Searching, and Supervision Adulteration: When More Supervision is Less and How to Make More More

本文证明了 path-star 图搜索任务在 decoder-only LM 上的失败并非 next-token prediction 范式的根本缺陷,而是由"监督污染"(supervision adulteration)导致的——过量的 teacher-forcing 监督信号诱导模型学到 Clever Hans Cheat 捷径,阻碍了子任务分解;通过 token masking、ranking-into-the-future、scratchpad、树形拓扑等六种正交方法均可使任务可学。

Locate-and-Focus: Enhancing Terminology Translation in Speech Language Models

提出Locate-and-Focus方法用于语音LLM的术语翻译:先用滑动窗口检索定位语音中包含术语的片段,再通过音频替换和Tag Cue引导模型聚焦翻译知识,在英中/英德方向上术语翻译成功率大幅提升。

LongDPO: Unlock Better Long-form Generation Abilities for LLMs via Critique-augmented Stepwise Information

提出 LongDPO,通过 MCTS 收集步级偏好对、全局记忆池维护事实一致性、critique 增强低质量候选,再用步级 DPO 进行细粒度优化,在 LongBench-Write 上显著提升长文本生成质量,同时保持通用能力。

Lost in Multilinguality: Dissecting Cross-lingual Factual Inconsistency in Transformer Language Models

用机制可解释性方法解剖多语言 LLM 的跨语言事实不一致问题,发现模型在大多数层中以语言无关的概念空间处理知识,但在最后几层的"语言转换"过程中失败导致不一致,提出线性快捷方法绕过最后层以提升一致性和准确率。

Making LLMs Better Many-to-Many Speech-to-Text Translators with Curriculum Learning

提出课程学习策略改进 LLM 的多对多语音到文本翻译,从简单语言对逐步过渡到困难语言对。

Mapping 1,000+ Language Models via the Log-Likelihood Vector

提出用对数似然向量(log-likelihood vector)将 1000+ 语言模型映射到一个统一空间,证明向量间欧氏距离近似 KL 散度,可实现模型聚类可视化、基准性能预测(r=0.96)和数据泄漏检测。

MAPS: Motivation-Aware Personalized Search via LLM-Driven Consultation Alignment

首次建模电商搜索中的"搜索动机"——用户在搜索前的咨询行为蕴含的真实需求,提出MAPS框架融合LLM语义、MoAE池化和双重对齐机制,在真实商业数据上HR@10提升24.4%(从0.5685到0.7071)。

Marco-Bench-MIF: On Multilingual Instruction-Following Capability of Large Language Models

将英文IFEval基准扩展到30种语言并进行文化本地化,揭示LLM在多语言指令遵循中高/低资源语言间25-35%的准确率差距,以及机器翻译数据低估模型性能7-22%。

Masking in Multi-hop QA: How LMs Perform with Context Permutation

系统分析因果掩码对 LLM 多跳 QA 的影响,发现 encoder-decoder(Flan-T5 770M)零样本多跳性能优于 decoder-only(Qwen 7B),且 prefix mask 可提升 decoder-only 的多跳推理能力 5.1%。

MathFusion: Enhancing Mathematical Problem-solving of LLM through Instruction Fusion

MathFusion 提出了跨问题指令融合的数学数据增强框架,通过顺序融合、并行融合和条件融合三种策略将两个数学问题合成新问题,仅用 45K 额外合成指令就在 6 个 benchmark 上平均提升 18 分准确率。

Math Neurosurgery: Isolating Language Models' Math Reasoning Abilities Using Only Forward Passes

MathNeuro 提出了一种仅用前向传播就能隔离 LLM 中数学推理特定参数的方法,通过计算权重×激活的重要性分数并过滤掉通用语言任务也需要的参数,实现了精准的数学能力"手术"——剪除这些参数删除数学能力,缩放它们则提升 4-35% 数学性能。

McBE: A Multi-task Chinese Bias Evaluation Benchmark for Large Language Models

提出首个多任务中文偏见评估基准 McBE,包含 4,077 条偏见评估实例(BEI),覆盖 12 种偏见类别和 82 个子类别,通过 5 种评估任务(偏好计算/子类别分类/场景选择/偏见分析/偏见评分)多角度量化 LLM 中的中文偏见,并揭示"参数越大偏见越强"的传统结论可能源于单任务评估的局限性。

Mechanistic Interpretability of Emotion Inference in Large Language Models

通过 probing、activation patching 和 generation steering 三种机制可解释性技术,发现 LLM 的情感表征功能性地定位于中间层的 MHSA 单元,并基于认知评估理论(appraisal theory)证明这些表征具有心理学合理性,成功通过干预评估概念(如 self-agency、pleasantness)引导情感输出。

MemBench: Towards More Comprehensive Evaluation on the Memory of LLM-based Agents

提出 MemBench,从多场景(参与/观察)、多层级(事实记忆/反思记忆)和多指标(准确率/召回率/容量/效率)三个维度全面评估 LLM Agent 的记忆能力,弥补了现有评估在记忆层级和交互场景上的不足。

MEraser: An Effective Fingerprint Erasure Approach for Large Language Models

提出 MEraser(Mismatched Eraser),通过两阶段微调策略(错配数据擦除 + 干净数据恢复)以不到 1000 条样本完全移除 LLM 中基于后门的指纹水印,同时保持模型性能,并首创可迁移的 LoRA 擦除适配器。

MergePrint: Merge-Resistant Fingerprints for Robust Black-box Ownership Verification of Large Language Models

提出 MergePrint,首个针对模型合并(model merging)场景的 LLM 黑盒指纹验证方法,通过伪合并模型模拟合并行为并两阶段优化(输入优化 + 参数优化),使嵌入的指纹在合并后仍可被检测,实现高效、无害、抗篡改的所有权验证。

Meta-rater: A Multi-dimensional Data Selection Method for Pre-training Language Models

提出Meta-rater多维数据选择框架,定义PRRC四个质量维度(专业性/可读性/推理性/清洁度),通过proxy模型回归学习多个质量分数的最优加权组合,使1.3B模型训练收敛速度翻倍、下游任务提升3.23%。

Multi-Level Explanations for Generative Language Models

提出 MExGen(Multi-Level Explanations for Generative Language Models),将 LIME/SHAP 等扰动式归因方法扩展到 LLM 的上下文生成任务上——为摘要/问答等任务中 LLM 输出的每个部分量化上下文各段落的影响程度,比 LLM 自解释更忠实。

MHA2MLA: Towards Economical Inference by Enabling DeepSeek's Multi-Head Latent Attention in Any Transformer-based LLMs

MHA2MLA 首次提出将已训练好的 MHA 模型高效迁移到 DeepSeek 的 MLA 架构的方法,通过贡献度感知的 partial-RoPE 移除和联合 SVD 低秩近似,仅用 0.6%-1% 的训练数据即可恢复性能,将 Llama2-7B 的 KV cache 压缩 92.19% 且 LongBench 性能仅下降 1%。

Middle-Layer Representation Alignment for Cross-Lingual Transfer in Fine-Tuned LLMs

通过分析 1000+ 语言对发现 LLM 中间层具有最强的跨语言对齐潜力,提出在任务训练中集成中间层对齐目标(对比损失),在槽填充(F1 61.7%)、机器翻译(BLEU 32.3)和结构化文本生成上显著提升跨语言迁移,对未见语言也有效。

MiLiC-Eval: Benchmarking Multilingual LLMs for China's Minority Languages

构建首个中国少数民族语言 LLM 评估基准 MiLiC-Eval,包含 24K 实例覆盖 9 个任务、聚焦藏语/维吴尔语/哈萨克语/蒙古语 4 种语言,发现开源 LLM 在语法密集型任务和多文字语言上表现极差。

Mind the Belief Gap: Group Identity in the World of LLMs

构建多智能体信念一致性模拟框架,发现 LLM 比人类表现出更强的信念一致性偏见(gpt-3.5: 0.93 vs 人类: 0.2-0.62),导致虚假信息传播加剧、跨群体学习受阻,并探索接触假说等缓解策略(最优可改善 37%)。

Mitigate Position Bias in LLMs via Scaling a Single Hidden States Channel

发现 LLM 隐状态中存在编码绝对位置信息的特定通道(positional hidden states),通过缩放这单一通道即可缓解"lost in the middle"位置偏差,在多文档 QA 基准上提升高达 15.2%,且不影响模型其他能力。

Model Performance-Guided Evaluation Data Selection for Effective Prompt Optimization

提出基于模型性能引导的评估数据选择策略,用少量但信息量高的评估样本来加速 prompt 优化过程,同时保持优化质量。

Comparing Moral Values in Western English-speaking Societies and LLMs with Word Associations

提出通过词语联想(word association)而非直接提问来比较 LLM 与西方英语社会的道德价值观,发现 LLM 在正面道德维度上与人类更一致,但在情感多样性和具体性上存在系统性差异。

Delving into Multilingual Ethical Bias: The MSQAD with Statistical Hypothesis Tests for Large Language Models

提出多语言敏感问答数据集MSQAD(基于Human Rights Watch 17个人权话题),通过McNemar检验和PERMANOVA检验两种统计假设检验方法,系统验证了LLM在不同语言下对相同敏感问题的回答存在显著伦理偏差——中文和印地语拒绝率最高,西班牙语和德语最容易生成不当回答,且该偏差在7个不同LLM中普遍存在。

Multi-Prompting Decoder Helps Better Language Understanding

提出 Multi-Prompting Decoder(MPD)框架,通过多提示查询 PLM 获取多组隐状态和类别分数,结合最优传输匹配和校准解码策略,在 MaaS(模型即服务)场景下的 few-shot 分类任务上显著超越现有方法。

Multi-Attribute Steering of Language Models via Targeted Intervention

提出 MAT-Steer,通过属性感知的 token 级 gating 机制和正交性约束,实现推理时对 LLM 多属性(如真实性、毒性、偏见)的同时精准干预,在 QA 和生成任务上全面超越现有 ITI 和微调方法。

Multilingual Encoder Knows More Than You Realize: Shared Weights Pretraining for Extremely Low-Resource Languages

提出 XLM-SWCM 框架,通过将多语言编码器权重复用到解码器中(CustomDecoderLayer 共享 + NormalDecoderLayer 随机初始化交替插入),以 457M 参数在极低资源语言(藏语)上超越 13B 参数的 MC2-LLaMA,藏语摘要 ROUGE-L 达 25.7 vs 16.1。

Do Large Language Models Have an English Accent? Evaluating and Improving the Naturalness of Multilingual LLMs

本文揭示多语言 LLM 在非英语语言生成中存在"英语口音"——词汇和句法上偏向英语模式,提出了基于 JSD(词汇分布)和 WL 图核+MMD(句法依赖树)的语料级自然度指标,并通过 DPO 对齐方法有效提升目标语言的自然度。

Which of These Best Describes Multiple Choice Evaluation with LLMs? A) Forced B) Flawed C) Fixable D) All of the Above

系统性论证了 MCQA(多选题问答)作为 LLM 评测标准格式的三大缺陷——格式本身的局限性、数据集构建质量问题、以及 LLM 在 MCQA 上的特有错误——并从教育测试学中引入改进方案。

Natural Language Processing in Support of Evidence-based Medicine: A Scoping Review

对 129 篇研究进行范围综述,系统梳理了 NLP 技术在循证医学(EBM)五步流程(Ask-Acquire-Appraise-Apply-Assess)中的应用,覆盖证据检索、PICO 提取、质量评估、证据合成、摘要生成、临床试验匹配等任务,指出了 LLM 时代的新机遇与挑战。

Navigating Rifts in Human-LLM Grounding: Study and Benchmark

系统研究人与 LLM 对话中的 grounding(建立共识)失败问题,发现 LLM 主动澄清的频率仅为人类的 1/3、主动追问的频率仅为 1/16,提出 Rifts 基准(约 1.8K 任务)评测 LLM 的 grounding 能力,并通过 grounding forecaster 实现初步干预。

Nemotron-CC: Transforming Common Crawl into a Refined Long-Horizon Pretraining Dataset

Nemotron-CC 通过分类器集成、合成数据改写和减少启发式过滤三种策略,从 Common Crawl 构建了 6.3T token 的长期预训练数据集,在 15T token 训练中超越 Llama 3.1 8B。

NewsInterview: a Dataset and a Playground to Evaluate LLMs' Grounding Gap via Informational Interviews

构建了 4 万条新闻采访对话数据集,发现 LLM 在采访场景中缺乏 acknowledgement(少 50%)和话题转换能力(少 30%),并设计了含说服机制的模拟博弈环境(NewsInterview),证明最优 LLM(gpt-4o)也仅能提取 50.4% 的信息项。

Nudging: Inference-time Alignment of LLMs via Guided Decoding

提出 Nudging,一种免训练的推理时对齐算法,利用小型对齐模型在基础模型不确定时注入少量"nudging tokens"来引导输出,用 7-14 倍小的模型就能达到甚至超过大型对齐模型的性能。

OLMoTrace: Tracing Language Model Outputs Back to Trillions of Training Tokens

推出 OLMoTrace,首个能实时将语言模型输出追溯到万亿 token 训练数据的系统,基于扩展的 infini-gram 后缀数组索引,在 4.5 秒内完成逐字匹配追溯,支持事实核查、幻觉检测和创造力分析。

On Entity Identification in Language Models

提出基于聚类的评估框架(Purity/Inverse Purity)分析 LLM 内部表示中的实体区分能力,发现实体信息在早期层(~归一化位置 0.2)的 20 维子空间中达到线性可分(F1~0.9),且不同大模型收敛到结构同构的实体编码——为"LLM 从纯文本训练中涌现离散知识结构"提供了系统性证据。

Open-Set Living Need Prediction with Large Language Models

提出开放集生活需求预测任务,利用 LLM 从用户描述中预测生活需求,不限于预定义类别,应用于养老服务、社区管理等场景。

Opt-Out: Investigating Entity-Level Unlearning for Large Language Models via Optimal Transport

提出 Opt-Out,一种基于最优传输理论的实体级 LLM 遗忘方法,利用 Sliced Wasserstein Distance 正则化参数偏移实现精细遗忘;同时构建首个实体级遗忘数据集 ELUDe(20 目标实体 + 144 邻居实体,15K+ forget / 90K+ retain QA 对),在 Llama-3.1-8B 和 Phi-3.5 上全面超越现有方法。

Pandora's Box or Aladdin's Lamp: A Comprehensive Analysis Revealing the Role of RAG Noise in Large Language Models

本文从语言学视角定义了 RAG 系统中的 7 种噪声类型,构建了 NoiserBench 综合评测框架,通过 8 个 LLM 的大规模实验发现噪声可分为有害噪声(反事实、支持性、拼写)和有益噪声(语义、数据类型、非法句子),其中有益噪声反而能提升模型准确率 1-3%。

Enhancing Open-Domain Task-Solving Capability of LLMs via Autonomous Tool Integration from GitHub

提出 OpenAgent 系统,通过自主从 GitHub 发现和集成专业工具来解决开放域任务,并构建 OpenAct 基准评测 LLM 在需要领域特定工具的开放域问题上的能力。

PapersPlease: A Benchmark for Evaluating Motivational Values of Large Language Models Based on ERG Theory

基于 Alderfer ERG 需求理论构建 3700 个道德困境场景(移民检查官角色扮演),评估 6 个 LLM 的动机价值偏好,发现 Claude 拒绝所有场景、GPT-4o-mini 对生存需求 99% 满足但对关系需求仅 47%,且模型对穆斯林/边缘化群体存在显著的隐性社会偏见。

Parenting: Optimizing Knowledge Selection of Retrieval-Augmented Language Models with Parameter Decoupling and Tailored Tuning

受人脑功能分区启发,提出 Parenting 框架,通过解耦并定位 LLM 参数空间中与"上下文遵循"(adherence)和"噪声鲁棒"(robustness)相关的子空间,并为不同子空间设计定制化微调策略,实现两种能力的平衡提升。

PATCH: Psychometrics-Assisted Benchmarking of LLMs Against Human Populations

提出 PATCH 框架,将心理测量学中的项目反应理论(IRT 3PL/2PL 模型)引入 LLM 基准测试,在 TIMSS 2011 八年级数学测试(88 道题、56 个国家/地区)上对比 GPT-4V、Gemini-Pro-Vision、Qwen-VL 与人类群体的能力值,发现 IRT 能力估计与简单准确率排名显著不同,GPT-4V 与韩国/新加坡/中国台北学生处于同一排名区间;同时发布 4 个高质量数据集(TIMSS 2011 & 2008 数学/科学/物理)。

Perspective Transition of Large Language Models for Solving Subjective Tasks

提出 RPT(Reasoning through Perspective Transition),通过在同一 prompt 中让 LLM 依次探索直接/角色扮演/第三人称三种视角、按置信度排序、选最优视角推理,在 12 个主观任务、4 个模型(GPT-4/GPT-3.5/Llama-3/Qwen-2)上均超越固定视角与集成基线,GPT-3.5 上平均提升 +4.56 点。

Pitfalls of Scale: Investigating the Inverse Task of Redefinition in Large Language Models

通过重定义任务(给著名物理常数或度量单位赋予新值并要求 LLM 据此推理),揭示大模型比小模型更容易锚定于先验知识,展现规模增长带来推理灵活性下降的逆向缩放现象。

PlanGenLLMs: A Modern Survey of LLM Planning Capabilities

PlanGenLLMs 是一篇系统性综述,基于经典 AI 规划评估框架提出完整性、可执行性、最优性、表示、泛化性和效率六大评估准则,全面梳理了 LLM 作为规划器的方法、评估和未来方向。

Plug-in and Fine-tuning: Bridging the Gap between Small Language Models and Large Language Models

提出 PiFi 框架,将 LLM 的单个冻结层"插入"到 SLM 中再进行微调,以极低的额外计算成本将 LLM 的语言知识和泛化能力迁移到小模型,在 NLU 和 NLG 任务上均获得一致提升。

KoGEM: Polishing Every Facet of the GEM: Testing Linguistic Competence of LLMs and Humans in Korean

提出 KoGEM(韩语语法评估基准),包含 1,524 道基于理论语言学分类的多选题,覆盖音韵/形态/句法/语义/规范 5 大类 16 子类,零样本评估 27 个 LLM 并与人类对比,揭示 LLM 在需要经验知识的语言子类(如发音规则、音韵变化)上远逊人类,而显式补充经验知识(发音文本、语素分解)后可大幅提升。

Only a Little to the Left: A Theory-grounded Measure of Political Bias in LLMs

本文用政治科学中经过验证的 World Values Survey (WVS) 替代缺乏科学基础的 Political Compass Test (PCT),设计 30 种提示变体在 11 个开源/商业 LLM 上收集 88,110 条开放式回复并训练立场分类器自动标注,发现指令微调模型普遍偏左但偏见度量对提示高度敏感,PCT 会夸大特定模型(如 GPT-3.5)的政治偏见。

Pragmatics in the Era of Large Language Models: A Survey on Datasets, Evaluation, Opportunities and Challenges

全面梳理用于评估 NLP 系统语用能力的资源——按语用现象(隐含义、指称、言语行为、会话含义、预设等)分类数据集,分析任务设计、数据收集方法和评估方式,揭示了现代 LLM 在处理语境相关语言使用上的趋势、挑战和空白。

PRAISE: Enhancing Product Descriptions with LLM-Driven Structured Insights

提出 PRAISE,一个 4 步 LLM pipeline(属性提取 → 跨产品对比 → 语义分组 → 结构化呈现),使用 Gemini 2.0 Flash 从 Amazon 产品描述中自动生成结构化洞察。在 90 个产品 × 9 个类别上验证,多步 pipeline 显著优于单次生成;效果与产品主观性高度相关(Arts&Crafts F1=0.82 vs Books F1=0.36),每产品仅需 \(2R+1\) 次 API 调用。

Pre-Training Curriculum for Multi-Token Prediction in Language Models

针对小语言模型(SLM)难以直接受益于多 token 预测(MTP)目标的问题,提出前向/反向课程学习策略——前向课程(NTP→MTP)使 SLM 在保持自推测解码加速的同时提升生成质量,反向课程(MTP→NTP)在 NTP 性能上更优但失去推理加速优势。

Pre³: Enabling Deterministic Pushdown Automata for Faster Structured LLM Generation

提出 Pre³,将 LR(1) 文法转化为确定性下推自动机(DPDA),通过预计算前缀条件边消除运行时非确定性探索,实现结构化 LLM 生成的显著加速——每 token 耗时降低最高 40%,吞吐提升最高 36%。

Probing LLMs for Multilingual Discourse Generalization Through a Unified Label Set

本文提出首个跨框架、跨语言的统一篇章关系标签集(17类),并通过对23个LLM的注意力探针实验,证明多语言LLM能够在中间层编码跨语言可迁移的篇章级表征,且多语言训练和模型规模共同提升泛化能力。

Problem-Solving Logic Guided Curriculum ICL for LLMs Complex Reasoning

提出问题解决逻辑引导的课程式 ICL,基于 QDMR 分析解题步骤结构来选择和排序 few-shot 示例(按步骤数从易到难),在多个复杂推理基准上超越现有 ICL 方法。

Aligning Large Language Models with Implicit Preferences from User-Generated Content

提出 PUGC 框架,利用非标注用户生成内容(UGC)中的隐式人类偏好来生成偏好数据——将 UGC 转化为查询+参考文本,以此评分模型生成的响应,用 DPO 实现可扩展的领域特定对齐,在 Alpaca Eval 2 上基于 Mistral-7B 达到 35.93% 长度控制胜率 SOTA。

RAEmoLLM: Retrieval Augmented LLMs for Cross-Domain Misinformation Detection Using In-Context Learning Based on Emotional Information

提出 RAEmoLLM,首个基于情感信息检索的 RAG 框架,利用情感 LLM 的隐式嵌入构建检索数据库,为跨域虚假信息检测提供情感相关的 few-shot 示例,在三个基准上最高分别提升 15.64%、31.18% 和 15.73%(对比其他 few-shot 方法),无需微调。

RARE: Retrieval-Augmented Reasoning Enhancement for Large Language Models

提出 RARE,在 rStar 的 MCTS 推理框架中引入两个检索增强动作(A6: 基于原始问题生成搜索查询并检索,A7: 对子问题进行检索并重新回答),并用检索增强的事实性评分器(RAFS)替代原始判别器,使 LLaMA 3.1 在医学和常识推理任务上达到甚至超越 GPT-4o 的水平。

RealHiTBench: A Comprehensive Realistic Hierarchical Table Benchmark for Evaluating LLM-Based Table Analysis

提出 RealHiTBench——首个全面评估 LLM 对复杂层次化表格理解能力的基准,包含 708 张来自 13 个平台、24 个领域的真实复杂表格和 3,752 道题目,定义了 5 种复杂结构类型和 5 大任务类型,并提出基于树结构的 TreeThinker 推理管线显著提升模型对层次化表头的理解能力。

Reasoning Circuits in Language Models: A Mechanistic Interpretation of Syllogistic Inference

用机械可解释性技术(激活补丁 + Logit Lens + 电路消融)发现语言模型中实现三段论推理的完整电路:三阶段机制——长归纳偏差→中间项抑制(h11.10)→传递项移动,该电路在符号输入上既充分又必要,可迁移到自然语言输入,且跨 GPT-2/Pythia/LLaMA/Qwen 四种架构存在兼容模式。

Recent Advances in Speech Language Models: A Survey

首篇 Speech Language Models (SpeechLMs) 综合综述,系统梳理从"ASR+LLM+TTS"级联架构到端到端语音语言模型的演进,提出按三大组件(speech tokenizer / language model / vocoder)和训练方案分类的分类体系,覆盖下游能力、评估指标、挑战与未来方向。

Recurrent Knowledge Identification and Fusion for Language Model Continual Learning

提出Recurrent-KIF持续学习框架,通过内外循环迭代机制动态估计参数重要性分布,利用基于重要性的二值掩码进行知识融合,有效缓解灾难性遗忘并促进知识迁移。

Red-Teaming Llm Multi-Agent Systems Via Communication Attacks

提出 Agent-in-the-Middle (AiTM) 攻击,通过拦截和篡改 LLM 多智能体系统中的 agent 间通信消息(而非直接修改 agent 本身),利用一个带反思机制的对抗性 agent 生成上下文感知的恶意指令,在多种框架/通信结构/真实应用上均取得 40%~100% 的攻击成功率。

Refining Salience-Aware Sparse Fine-Tuning Strategies for Language Models

首次系统评估了 8 种显著性度量在稀疏参数高效微调(SPEFT)中的效果,发现简单的梯度基方法配合静态掩码即可一致性地超越 LoRA,挑战了"PEFT 需要复杂设计"的常见认知。

Representation Bending for Large Language Model Safety

提出 RepBend,将 activation steering 的核心思想(安全/不安全表示的向量差异)引入 LoRA 微调的损失函数设计,通过"弯曲"模型的表示空间使安全和不安全状态在潜在空间中远离彼此,在多种越狱攻击基准上实现高达 95% 的攻击成功率降低,且对模型通用能力影响极小。

Representations of Fact, Fiction and Forecast in Large Language Models: Epistemics and Attitudes

通过受控故事任务评估 8 个开源 LLM 对认识情态(may/must、know/believe/doubt)的语义知识,发现 LLM 在生成恰当认知表达方面表现有限且不鲁棒——必然性(must)优于可能性(may),事实陈述优于信念陈述。

Reversal of Thought: Enhancing Large Language Models with Preference-Guided Reverse Reasoning Warm-up

提出 Reversal of Thought (RoT),一个即插即用的推理框架,通过偏好引导的逆向推理预热策略,让 LLM 从示例中反向生成"LLM 口味"的最优 prompt,再通过认知偏好管理器自动区分已知/未知任务,在多种推理任务上超越 CoT/ToT/GoT 等基线。

REVS: Unlearning Sensitive Information in Language Models via Rank Editing in the Vocabulary Space

提出 REVS,一种无梯度的模型编辑方法,通过在 FF2 层中定位与敏感 token 关联最强的神经元,将其投影到词汇空间后迭代降低目标 token 排名,在 SSN/Email/URL 三类敏感数据上 Unlearning Score 显著超越 6 种基线(89.58 vs 36.98),同时通用能力几乎零损(MMLU 61.05→60.87),且对 Logit-Lens 和 Delta 提取攻击高度鲁棒。

RuleArena: A Benchmark for Rule-Guided Reasoning with LLMs in Real-World Scenarios

提出 RuleArena——一个基于航空行李费、NBA交易规则、税务法规三个真实场景的benchmark,用于评估LLM遵循复杂自然语言规则进行推理的能力;实验发现即使最强模型(o1-preview)在最难任务上准确率也不足50%,暴露了LLM在规则召回、规则区分和数学计算三方面的系统性缺陷。

Safer Or Luckier Llms As Safety Evaluators Are Not Robust To Artifacts

系统评估了11个LLM裁判在安全领域的鲁棒性,发现道歉前缀等表面文本特征(artifact)可将评估偏好扭曲高达98%,提出基于jury的多模型聚合方案但仍未完全解决该问题。

SafeRoute: Adaptive Model Selection for Efficient and Accurate Safety Guardrails in Large Language Models

提出 SafeRoute,一个二分类路由器,根据输入难度自适应地在小型和大型安全护栏模型之间选择,仅对约5%的"困难"样本使用大模型,在保持安全检测精度的同时大幅降低计算开销。

Refining Salience-Aware Sparse Fine-Tuning Strategies for Language Models

首次系统评估 8 种 salience 指标用于稀疏微调(SPEFT)的效果,发现简单的梯度指标 + 静态掩码即可提供最佳性价比,在 GSM8k 上比 LoRA 高出 22.6%,质疑了"复杂方法才能做好 PEFT"的假设。

Beware of Your Po! Measuring and Mitigating AI Safety Risks in Role-Play Fine-Tuning of LLMs

首次系统评估了角色扮演微调(role-play fine-tuning)对 LLM 安全性的影响,发现安全退化程度与角色特质(特别是反派角色)正相关,并提出 SaRFT 框架,通过隐式奖励函数自适应识别对不同角色有害的训练数据子集,配合 KL 散度正则化实现角色表现力与安全性的 Pareto 最优平衡。

SConU: Selective Conformal Uncertainty in Large Language Models

提出选择性保形不确定性框架 SConU,通过构建保形 p-value 进行显著性检验,首次实现对违反可交换性假设的不确定性数据异常点的自动过滤,从而在单域和跨域 QA 场景中严格管理 LLM 的错误覆盖率。

Second Language (Arabic) Acquisition of LLMs via Progressive Vocabulary Expansion

受人类第二语言习得启发,提出渐进式词表扩展(Progressive Vocabulary Expansion)方法,通过分阶段指数增长地扩展阿拉伯语子词到 LLaMA2 词表中,在保留原模型英语知识的同时高效适配阿拉伯语,构建出 AraLLaMA 7B/13B 模型。

Stepwise Reasoning Disruption Attack of LLMs

提出 SEED(Stepwise rEasoning Error Disruption)攻击方法,通过在 LLM 的推理链前几步中巧妙注入细微错误(如微调计算数字),让模型在后续推理中自然传播错误得出错误答案,兼容零样本/少样本设置,GPT-4o 检测率低至 0.8%,揭示了 LLM 逐步推理过程的严重安全漏洞。

SeedBench: A Multi-task Benchmark for Evaluating Large Language Models in Seed Science

提出 SeedBench——首个面向种子科学(种子育种)的多任务 LLM 评测基准,包含 2,264 道专家验证题目,覆盖基因信息检索、基因功能调控和品种选育三大育种流程,对 26 个 LLM 进行系统评估,揭示了当前 LLM 与真实育种需求之间的显著差距。

Segment-Level Diffusion: A Framework for Controllable Long-Form Generation with Diffusion Language Models

提出段落级扩散(Segment-Level Diffusion, SLD),将长文本输出切分为多个段落(如句子/对话轮次),对每个段落的潜在表示进行扩散建模,结合对比学习和对抗训练增强表示鲁棒性,在摘要、故事生成、对话生成等任务上实现了比现有扩散模型更好的长文本生成质量。

Self-Training Elicits Concise Reasoning in Large Language Models

发现 LLM 输出分布中天然包含简洁推理路径,提出 FS-BoN(Few-shot 条件化 + Best-of-N 采样)自训练框架,从模型自身分布中筛选短且正确的推理样本进行微调,在 GSM8K 和 MATH 上跨 5 个模型族实现平均 30% token 缩减且不损准确率,效率为先前方法 Rational Metareasoning 的 2.4 倍。

Self-Tuning: Instructing LLMs to Effectively Acquire New Knowledge through Self-Teaching

受费曼学习法启发,提出 Self-Tuning 框架,通过记忆-理解-自省三层自教学策略,显著提升 LLM 从新文档中有效获取和回忆知识的能力。

SelfElicit: Your Language Model Secretly Knows Where is the Relevant Evidence

SelfElicit 发现 LLM 深层注意力分数天然能识别上下文中的关键证据(即使回答错误时也是),据此提出推理时自动高亮关键证据句的上下文增强方法,无需训练即可显著提升基于证据的 QA 任务性能。

Semantic Aware Linear Transfer by Recycling Pre-trained Language Models for Cross-Lingual Transfer

提出 SALT(Semantic Aware Linear Transfer),通过为每个非共享词表 token 基于语义相似的共享 token 对构建独立的最小二乘变换矩阵,将目标语言 PLM 的丰富嵌入表示迁移到英语中心 LLM 的嵌入空间,在下游任务、持续预训练收敛速度和跨语言理解上均优于现有方法。

Establishing Trustworthy LLM Evaluation via Shortcut Neuron Analysis

提出通过对比分析和因果分析定位污染模型中的"捷径神经元"(shortcut neurons),并通过 activation patching 抑制这些神经元,实现更可信的 LLM 评估,与 MixEval 的 Spearman 相关系数超过 0.95。

Embracing Imperfection: Simulating Students with Diverse Cognitive Levels Using LLM-based Agents

提出一种基于知识图谱认知原型的免训练框架,使LLM Agent能够模拟不同认知水平学生的学习行为(包括错误),在GPT-4o上实现94%的行为预测准确率,相比基线提升100%。

SkillVerse: Assessing and Enhancing LLMs with Tree Evaluation

提出 SkillVerse,一种无监督的树结构 LLM 诊断框架——用 LLM-as-Judge 批评模型回答后组织为层次化技能树(dendrogram),可在任意粒度上分析模型能力,并用于改善 ICL(提升 25%)和预测新模型弱点(55% 成功率,高于基线 22pp)。

SocialEval: Evaluating Social Intelligence of Large Language Models

提出基于叙事脚本的双语社会智能基准 SocialEval,通过"世界树"结构整合结果导向的目标达成评估和过程导向的人际能力评估,全面评测 LLM 的社会智能。

SongComposer: A Large Language Model for Lyric and Melody Generation in Song Composition

提出 SongComposer,首个能同时生成歌词和旋律的大语言模型,通过元组格式对齐歌词与旋律、标量音高初始化和渐进式结构感知训练,在多个歌曲生成任务上超越 GPT-4。

Splintering Nonconcatenative Languages for Better Tokenization

提出 Splinter,一种预分词步骤,通过迭代剪除模板字符将非拼接性语言(希伯来语、阿拉伯语、马来语)的词重排为线性形式,使标准 BPE/UnigramLM 能发现形态学上有意义的连续片段,在内在指标和希伯来语下游任务上均优于原始分词。

Sqlong Enhanced Nl2Sql For Longer Contexts With Llms

提出 SQLong,一种面向长上下文场景的 NL2SQL 数据增强框架,通过向训练数据中注入采样自其他数据库的合成 CREATE TABLE 语句来扩展上下文长度,使微调后的 LLM 在大规模 Schema 场景下显著提升 SQL 生成准确率。

Stem-Pom Evaluating Language Models Math-Symbol Reasoning In Document Parsing

提出 STEM-PoM 基准数据集(2K+ 数学符号实例),将 Part-of-Math Tagging 与文档解析结合,系统评估 LLM 对数学符号上下文多义性的分类能力,并证明符号分类能力的提升可迁移增强下游数学推理表现。

Stochastic Chameleons: Irrelevant Context Hallucinations Reveal Class-Based (Mis)Generalization in LLMs

通过行为分析和机械可解释性实验揭示 LLM 无关上下文幻觉的内部机制:模型在底层构建抽象类别表示(如"语言"),然后两条竞争电路(query-based vs context-based)争夺特征选择权,相对激活强度决定正确泛化还是产生幻觉。

Stress-testing Machine Generated Text Detection: Shifting Language Models Writing Style to Fool Detectors

通过 DPO 微调将 LLM 的写作风格对齐到人类文本的语言特征分布,生成更难被检测的机器文本,揭示了现有 MGT 检测器对浅层语言线索的过度依赖。

StrucText-Eval: Evaluating Large Language Model's Reasoning Ability in Structure-Rich Text

提出StrucText-Eval——一个覆盖8种结构化语言(JSON/YAML/XML/Markdown/LaTeX/Org/CSV/Tree)和29个任务的自动生成评测基准,共5,800个样本,通过可控的嵌套深度和结构宽度调节难度。实验揭示开源LLM在标准集最高仅74.9%准确率,困难集降至45.8%,而人类在困难集达92.6%,暴露了LLM在复杂结构推理上的严重不足。

SynapticRAG: Enhancing Temporal Memory Retrieval in Large Language Models through Synaptic Mechanisms

提出 SynapticRAG,借鉴神经科学中突触传播和漏积分发放(LIF)模型,将时序关联触发与语义相似度融合,在对话记忆检索任务上较 SOTA 提升最高 14.66%。

Synergizing Unsupervised Episode Detection with LLMs for Large-Scale News Events

本文提出 EpiMine,一种无监督的 episode 检测框架,通过判别性词项共现驱动的文章分割与 LLM 协同,从新闻语料中检测关键事件下的 episode(子事件片段),在三个真实数据集上平均提升 59.2%。

Systematic Generalization in Language Models Scales with Information Entropy

证明语言模型的系统泛化能力与训练数据中成分分布的信息熵正相关——高熵训练分布下即使没有内置组合先验的标准 seq2seq 模型也能实现强系统泛化。

T5Score: A Methodology for Automatically Assessing the Quality of LLM Generated Multi-Document Topic Sets

提出 T5Score 方法论,将 LLM 生成的自由文本主题集(FT-topics)的质量分解为五个可量化维度(可解释性、主题覆盖、文档覆盖、非重叠性、内部排序),通过简单标注任务实现高标注者一致性,并验证 LLM 可作为自动评估器替代人工。

TaxoAdapt: Aligning LLM-Based Multidimensional Taxonomy Construction to Evolving Research Corpora

提出 TaxoAdapt 框架,通过层次分类驱动的深度/宽度扩展和分类感知聚类,将 LLM 生成的多维度分类体系动态对齐到特定科学语料库,在粒度保持和兄弟节点一致性上分别超越最优基线 26.51% 和 50.41%。

Team Anotheroption at SemEval-2025 Task 8: Bridging the Gap Between Open-Source and Proprietary LLMs in Table QA

提出一种混合 LLM 管道系统,通过 Text-to-SQL/Code 生成、RAG 检索、自纠错机制和 LLM Orchestrator 协调多个开源模型,在 SemEval-2025 Task 8(表格问答)中达到 80% 准确率(Top-13/38),开源模型组合(88%)超越 GPT-4o 单模型(74%)。

Tess 2 A Large-Scale Generalist Diffusion Language Model

提出 TESS 2,首个从已有自回归模型适配而来的大规模通用指令遵循扩散语言模型,通过 UL2 masking + label shifting + 双向注意力的适配训练方案 + reward guidance 推理引导,在 QA 和指令遵循任务上匹配甚至超越同等 AR 模型。

Can LLMs Generate High-Quality Test Cases for Algorithm Problems? TestCase-Eval

提出 TestCase-Eval 基准评估 LLM 生成算法题测试用例的能力,包含 500 道 Codeforces 算法题和 10 万条人工解答,聚焦两个任务——故障覆盖(测试集能覆盖多少潜在错误)和故障暴露(能否为特定错误代码生成暴露性测试),对 19 个 SOTA LLM 的评估揭示了当前模型在测试生成上的能力和局限。

The Hidden Space Of Safety Understanding Preference-Tuned Llms In Multilingual C

本文系统分析了偏好调优(RLHF/DPO 等)对 LLM 内部表示空间在多语言场景下的影响,发现对齐机制在英语上能有效分离有害/无害内容的隐空间表示,但在印地语、中文、德语等非英语语言上效果显著退化,揭示了当前对齐方法存在严重的单语偏差问题。

The Nature of NLP: Analyzing Contributions in NLP Papers

提出 NLP 论文贡献的分类体系(知识/工件 × 8 子类),构建 ~2k 人工标注数据集 NLPContributions,训练 SciBERT 自动识别贡献声明,并对 ~29k 篇 ACL Anthology 论文做 50 年纵向趋势分析,揭示 NLP 研究从语言学导向转向方法/模型主导、近年又重拾人文与语言关注的演化轨迹。

A Theory of Response Sampling in LLMs: Part Descriptive and Part Prescriptive

本文从认知科学视角揭示了LLM的采样启发式机制与人类决策类似:采样不仅反映概念的统计规范(描述性成分),还系统性地偏向隐含的理想值(规范性成分),这种偏移在500个概念、15个模型上均显著,并可能导致医疗等应用中的有偏决策。

Theory of Mind in Large Language Models: Assessment and Enhancement

系统综述了 LLM 的心智理论(ToM)能力的评估基准(10+ story-based benchmarks)和增强策略(prompt-only 和 fine-tuning 两类方法),指出当前 LLM 在 ToM 推理上仍有显著不足,并提出未来方向。

To Code Or Not To Code Adaptive Tool Integration For Math Language Models Via Ex

提出基于EM框架的AutoCode方法,让数学LLM自主决定何时使用代码工具辅助推理,通过E-step引导探索高潜力代码触发决策+M-step离线RL优化,7B模型在MATH500上提升11%+。

The Impact of Token Granularity on the Predictive Power of Language Model Surprisal

本文系统研究了子词 token 粒度(词表大小 256~128K)对语言模型 surprisal 预测人类阅读时间能力的影响,发现约 8K 词表大小的中等粒度 token 在自然阅读时间预测上最优,而更粗粒度(更接近词级)的 token 在花园路径句法效应上表现更敏感。

Token Prepending: A Training-Free Approach for Eliciting Better Sentence Embeddings from LLMs

提出 Token Prepending (TP) 技术,通过在每层将解码得到的句子嵌入前置到句子开头,使因果注意力机制下的早期 token 也能感知完整句子信息,无需训练即可显著提升 LLM 的句子嵌入质量。

Turning Trash into Treasure: Accelerating Inference of Large Language Models with Token Recycling

提出Token Recycling——一种无需额外训练的投机解码方法,将解码过程中产生的候选token存入邻接矩阵,通过BFS算法构建draft tree并用tree attention验证,仅需<2MB额外存储即在所有规模LLM上实现约2倍加速,超越现有无训练方法30%和有训练方法25%。

Tokenization is Sensitive to Language Variation

系统研究了 BPE tokenizer 的三个关键设计选择(拟合语料、pre-tokenizer、词表大小)对语言变体鲁棒性任务和敏感性任务下游性能的差异化影响,并提出基于 logistic regression 的 task-aware tokenizer 评估指标,显著优于 Rényi efficiency 等 task-agnostic 指标。

Toolcoder A Systematic Code-Empowered Tool Learning Framework For Large Language

ToolCoder 将工具学习重新建模为代码生成任务,借鉴软件工程的需求分析、模块化设计、代码复用和错误诊断原则,让 LLM 通过生成并执行结构化 Python 代码来调用外部工具,在 RestBench 和 API-Bank 基准上显著超越 ReAct、CodeAct 等现有方法。

ToolCoder: A Systematic Code-Empowered Tool Learning Framework for Large Language Models

提出 ToolCoder 框架,将工具学习重新定义为代码生成任务,借鉴软件工程原则(需求分析→模块化设计→实现执行→错误调试→代码复用)让 LLM 通过生成和执行 Python 代码来完成多步工具调用,在 RestBench 和 API-Bank 上全面超越 ReAct、CodeAct 等基线方法。

Towards Dynamic Theory Of Mind Evaluating Llm Adaptation To Temporal Evolution O

提出 DynToM 基准,通过 1,100 个社会情境中 5,500 个时序关联场景和 78,100 道题目,评估 LLM 追踪人类心理状态时序演化的能力,揭示模型平均落后人类 44.7%。

Towards Explainable Temporal Reasoning in Large Language Models: A Structure-Aware Generative Framework

提出 GETER 框架,通过轻量级 Structure-Text Adapter 将时序知识图谱的结构信息注入 LLM,使模型在时序推理任务中既能给出准确预测又能生成可解释的推理说明。

Towards Harmonized Uncertainty Estimation for Large Language Models

提出 CUE 框架,通过训练一个与目标 LLM 性能对齐的轻量级分类器(Corrector)来校正现有不确定性估计方法的分数,在指示性、精确-召回平衡和校准三个维度上实现协调一致的改进,最高提升达 60%。

Training Dynamics Underlying Language Model Scaling Laws: Loss Deceleration and Zero-Sum Learning

发现语言模型训练中存在 loss deceleration(损失减速)现象——损失曲线在 log-log 空间呈分段线性,根因是 zero-sum learning(ZSL):per-token 梯度系统性对立导致破坏性干涉,将一部分样本的改善抵消另一部分的恶化;scale up 通过降低减速触发损失 \(L_d\) 和提升减速后斜率 \(r_d\) 来缓解 ZSL,为突破 scaling law 瓶颈提供了可直接干预的机制。

Training Language Model to Critique for Better Refinement

提出 Refinement-oriented Critique Optimization(RCO),以"批判效用"(Critique Utility, CU)——即批判导致的精炼改善比例——作为奖励信号训练 critic 模型,通过 DPO 变体的 MSE 目标函数优化,无需直接评估批判质量;在对话生成、摘要、问答、数学推理、代码生成 5 个任务上,RCO 训练的 7B/13B critic 模型在 CU 和 RQS 指标上显著超过 70B 基线模型和 DPCO 方法。

Trans-Zero Self-Play Incentivizes Large Language Models For Multilingual Transla

提出 Trans-Zero 自博弈框架,仅使用单语数据,通过遗传蒙特卡洛树搜索(G-MCTS)在多语言翻译过程中探索语义一致的候选翻译,结合偏好优化实现无平行数据的多语言翻译训练,性能可媲美大规模监督微调方法。

Transforming Podcast Preview Generation From Expert Models To Llm-Based Systems

Spotify 提出用 LLM(Gemini 1.5 Pro)替代传统多模型特征工程流水线来生成播客预览片段,在离线人工评估和线上 A/B 测试中均显著优于传统系统,用户互动时长提升 4.6%,处理效率提升 5 倍。

Translate With Care: Addressing Gender Bias, Neutrality, and Reasoning in Large Language Model Translations

提出 Translate-with-Care (TWC) 数据集(3,950 条跨 6 种无性别语言的翻译挑战),系统揭示 GPT-4、Google Translate 等模型在无性别→有性别语言翻译中的性别偏见和推理错误,并通过微调 mBART-50 在偏见消除和翻译准确率上大幅超越闭源 LLM。

TRATES: Trait-Specific Rubric-Assisted Cross-Prompt Essay Scoring

提出 TRATES 框架,重新定义 LLM 在自动作文评分中的角色——从直接评分者转变为特质特征生成器与提取器,通过 LLM 将评分标准(rubric)自动转化为评估问题(子特质),结合通用写作质量特征和提示特定特征训练回归模型,在 ASAP 数据集 8 个特质上全部达到 SOTA,且首次在 ELLIPSE 数据集上建立跨提示特质评分基线。

Treecut A Synthetic Unanswerable Math Word Problem Dataset For Llm Hallucination

提出 TreeCut,一种基于树结构的合成数据集生成方法,通过在树路径上移除必要条件边来系统性生成无穷多的不可回答数学应用题,用以评估 LLM 在面对不可解问题时的幻觉行为。

Tremu Towards Neuro-Symbolic Temporal Reasoning For Llm-Agents With Memory In Mu

提出TReMu框架,通过时间感知记忆化(时间线摘要)和神经符号时间推理(LLM生成Python代码执行时间计算),将GPT-4o在多会话对话时间推理基准上的准确率从29.83%提升到77.67%。

Un-considering Contextual Information: Assessing LLMs' Understanding of Indexical Elements

首次系统评估 LLM 对英语指示词(I/you/here/tomorrow)的理解能力,发现模型在 "I" 上表现接近人类但在 "you/here/tomorrow" 上严重依赖无关上下文信息而非语法规则,揭示了 LLM 在语用推理上的根本缺陷。

Uncertainty Unveiled: Can Exposure to More In-context Examples Mitigate Uncertainty for Large Language Models?

本文系统研究了长上下文 ICL 中增加示例数量对 LLM 预测不确定性的影响,通过不确定性分解揭示性能提升主要源于认知不确定性(EU)的降低,并从残差流投影角度解释了不确定性减少的内部机制。

Understanding and Meeting Practitioner Needs When Measuring Representational Harms Caused by LLM-Based Systems

通过对 12 位负责评估 LLM 系统表征性伤害(representational harms)的从业者进行半结构化访谈,发现公开可用的测量工具普遍无法满足实践者需求——要么因效度/特异性不足而"不好用"(not useful),要么因组织/制度壁垒而"用不了"(not used),并基于测量理论和实用测量框架提出系统性改进建议。

Understanding the Repeat Curse in Large Language Models from a Feature Perspective

从机制可解释性角度研究 LLM 重复生成问题(Repeat Curse),用 Sparse Autoencoder 提取单语义特征,定位中间层和最终层的"重复特征",激活它们可诱导重复、关闭它们可缓解重复且不损害模型性能。

UniConv: Unifying Retrieval and Response Generation for Large Language Models in Conversations

探索如何将对话场景中的稠密检索和响应生成统一到单个 LLM 中,通过三个联合训练目标(对话检索 + 响应生成 + 上下文识别指令)和数据差异缓解机制,在五个对话搜索数据集上实现检索和生成的相互促进,超越分离式基线。

ScaleQuest: Unleashing LLM Reasoning Capability via Scalable Question Synthesis from Scratch

提出 ScaleQuest,通过 Question Fine-Tuning (QFT) + Question Preference Optimization (QPO) 两阶段训练将 7B 解题模型变为出题模型,从零合成 100 万高质量数学问题-解答对,在四个基准上全面超越所有开源数据集,且数据量扩展至 1M 时性能持续提升未见饱和。

Unlocking Recursive Thinking of LLMs: Alignment via Refinement

提出 AvR(Alignment via Refinement)两阶段框架,通过细化感知奖励(refinement-aware reward)和差分学习,让 LLM 学会"批评→改进"的递归思维能力,仅用 10k 数据即在 AlpacaEval 2 上将 LLaMA-3-8B-Instruct 的胜率提升超 26 个百分点。

Unsupervised Morphological Tree Tokenizer

提出 TreeTok,一种基于无监督神经形态结构归纳的分词器,通过 MorphOverriding 机制和自监督目标学习字符级树结构,以自顶向下词表匹配方式进行分词,在形态分割和语言建模任务上均优于 BPE/WordPiece。

Unveiling And Addressing Pseudo Forgetting In Large Language Models

揭示 LLM 持续学习中的"伪遗忘"现象:性能下降并非因为模型丧失了旧任务能力,而是指令无法正确激活已有能力。通过归因分析证明遗忘模型的指令依赖度降低,并提出基于 Rationale-Guidance Difficulty(RGD)的动态数据回放框架 RGD-R 来缓解伪遗忘。

Veracity Bias and Beyond: Uncovering LLMs' Hidden Beliefs in Problem-Solving Reasoning

揭示了 LLM 在推理任务中存在"真实性偏见"(Veracity Bias)——尽管显式对齐反对刻板印象,LLM 仍系统性地将正确答案归因于特定种族群体(归因偏差),并对相同解答因"作者"种族不同给出不同评价(评估偏差),在数学、编程、常识推理和写作任务中普遍存在。

Many Heads Are Better Than One: Improved Scientific Idea Generation by A LLM-Based Multi-Agent System

提出基于 LLM 的多智能体系统 Virtual Scientists(VirSci),模拟真实科研团队的协作过程——组织多个 agent 团队协作生成、评估和改进科研 idea,在生成新颖科学想法方面超越单智能体 SOTA。

VoxEval: Benchmarking the Knowledge Understanding Capabilities of End-to-End Spoken Language Models

提出 VoxEval,首个支持端到端纯语音输入-输出评估的 SpeechQA 基准,涵盖 56 个学科、26 种输入音频条件,系统揭示了当前端到端语音大模型在知识理解和数学推理方面的严重不足。

When Large Language Models Meet Speech: A Survey on Integration Approaches

系统综述语音与大语言模型的集成方法,将现有工作分为文本级、隐表示级、音频token级三大类,覆盖 ASR/S2TT/S2ST/TTS 等应用场景,并给出各方法的优劣对比与未来挑战。

Which Demographics Do LLMs Default to During Annotation?

通过对比 LLM 在无人口统计信息(N)、有人口统计(SD)、安慰剂信息(P)三种 prompt 条件下的标注行为,揭示 LLM 在主观标注任务(冒犯性/礼貌性)中默认更接近白人、年轻、高学历群体的标注模式,且人口统计 prompting 确实产生了比安慰剂信息更系统性的影响。

Which Retain Set Matters For Llm Unlearning A Case Study On Entity Unlearning

系统研究实体遗忘中 retain set 的选择问题,提出 Syntactically Similar Neighbor Set,发现句法相似性(而非领域/实体相似性)才是遗忘过程中知识退化的主要驱动因素,用句法相似的 retain set 做正则化可同时最优保护所有类型的邻居知识。

Why Not Act on What You Know? Unleashing Safety Potential of LLMs via Self-Aware Guard Enhancement

发现 LLM 作为判别器时能准确识别越狱请求、但作为生成器时却仍产出有害内容的"判别-生成安全差距",提出免训练的 SAGE(Self-Aware Guard Enhancement)策略,通过判别分析模块和判别响应模块将模型自身的安全鉴别能力桥接到生成行为,在 6 个模型上达到平均 99% 的防御成功率。

Zero-Shot Belief: A Hard Problem for LLMs

本文提出了统一式和混合式两种零样本框架用于源-目标信念预测任务,使用 DeBERTa 事件标注器 + LLM 的混合方法在 FactBank 上达到新 SOTA(Full F1 72.0%),同时揭示了嵌套信念预测(Nested F1 仅 25.3%)对 LLM 而言仍是极大挑战。


🧩 多模态 VLM

Adaptive Linguistic Prompting (ALP) Enhances Phishing Webpage Detection in Multimodal Large Language Models

提出 Adaptive Linguistic Prompting (ALP),一种 8-shot 结构化提示方法,引导多模态 LLM 从 HTML 文本、截图和 URL 三个维度联合推理,检测钓鱼网页,在 GPT-4o 上组合分析达到 F1=0.93,超过传统零样本基线。

Can LLMs Deceive CLIP? Benchmarking Adversarial Compositionality of Pre-trained Multimodal Representation via Text Updates

提出MAC基准和diversity-promoting自训练方法,通过让LLM生成欺骗性文本来系统暴露CLIP等预训练多模态表征的组合性漏洞,在图像/视频/音频三个模态上均显著超越已有方法。

Agent-RewardBench: Towards a Unified Benchmark for Reward Modeling across Perception, Planning, and Safety in Real-World Multimodal Agents

Agent-RewardBench 提出了首个面向多模态 Agent 的奖励建模评测基准,覆盖感知/规划/安全 3 个维度、7 个真实场景、1136 个高质量样本,实验发现即使 GPT-4o 也仅达 61.4% 准确率,揭示了 Agent 奖励建模的巨大挑战。

AkaCE: A Multimodal Multi-party Dataset for Emotion Recognition in Movie Dialogues

构建 AkaCE——首个非洲语言多模态对话情感识别数据集,覆盖阿坎语(加纳主要语言,约 2000 万使用者),含 385 段对话 6162 条发言(音频+视觉+文本三模态)、308 名说话人(性别平衡 155男/153女),并提供首个非洲语言词级韵律突出标注。

Aligning VLM Assistants with Personalized Situated Cognition

基于社会学"角色集合"(Role-Set) 概念刻画用户多样性,提出 PCogAlign 框架,通过认知感知的动作导向奖励模型来为 VLM 助手生成个性化回复,使不同角色的用户在相同视觉场景下获得最适合自身需求的建议。

AlignMMBench: Evaluating Chinese Multimodal Alignment in Large Vision-Language Models

提出 AlignMMBench,首个面向中文视觉上下文的多模态对齐评测基准,涵盖 3 大类 13 项任务、1054 张图像和 4978 个 QA 对(含单轮/多轮对话),并训练了基于 ChatGLM3-6B 的评估器 CritiqueVLM,其评估一致性超过 GPT-4。

Attacking Vision-Language Computer Agents via Pop-ups

系统性设计了一套对抗性弹窗攻击方法来攻击基于视觉语言模型的计算机操控 agent,在 OSWorld 和 VisualWebArena 上平均攻击成功率达 86%,任务成功率下降 47%,基础防御手段几乎无效。

AVG-LLaVA: An Efficient Large Multimodal Model with Adaptive Visual Granularity

提出 AVG-LLaVA——在 LLaVA-NeXT 基础上引入视觉粒度缩放器(多级池化获取不同粒度视觉 token)+ 视觉粒度路由器(基于图像和指令自适应选择最合适粒度),并提出 RGLF 训练范式将路由器预测与 LMM 偏好对齐。在 11 个基准上实现更好性能同时大幅减少视觉 token(如 AI2D 上减少 85.3%,推理加速 2.53×)。

Enhancing Multimodal Continual Instruction Tuning with BranchLoRA

发现MoELoRA在多模态持续指令微调(MCIT)中存在参数低效——矩阵A跨任务趋同而B保持区分,提出BranchLoRA:共享一个A矩阵(树干)+ 多个专有B矩阵(树枝) + 灵活调参-冻结机制 + 任务特定路由器,在CoIN benchmark上显著超越MoELoRA,有效缓解灾难性遗忘。

Burn After Reading: Do Multimodal Large Language Models Truly Capture Order of Events in Image Sequences?

提出 TempVS 基准测试,系统评估 38 个 MLLM 在图像序列中对多事件时序关系的 grounding 和推理能力,揭示 SOTA 模型与人类之间存在巨大性能差距。

Can Vision Language Models Understand Mimed Actions?

构建 Mime 基准(86 个动作、860 个样本),利用动作捕捉 + 3D 渲染系统化评估 VLM 对哑剧动作的理解能力,发现 VLM 严重依赖场景上下文而无法像人类一样从纯肢体动作推断语义。

MMSafeAware: Can't See the Forest for the Trees: Benchmarking Multimodal Safety Awareness for Multimodal LLMs

提出 MMSafeAware,首个同时评估"不安全内容识别"和"过度敏感"的多模态安全意识基准,包含 1,500 个跨 29 种安全场景的图文对,评估 9 个 MLLM 发现所有模型都存在安全与有用性的严重权衡——GPT-4V 将 36.1% 的不安全输入误判为安全,同时将 59.9% 的安全输入误判为不安全;三种改进方法均无法根本解决问题。

Centurio: On Drivers of Multilingual Ability of Large Vision-Language Model

系统研究多语言LVLM训练策略,发现可以同时支持100种语言、只需25-50%非英文数据即可大幅提升多语言性能且不损英语性能,最终训练的Centurio在14个任务56种语言上达到SOTA。

ChartCoder: Advancing Multimodal Large Language Model for Chart-to-Code Generation

提出首个专用chart-to-code MLLM(ChartCoder),以Code LLM为语言骨干+160K大规模图表-代码数据集+Snippet-of-Thought逐步推理方法,7B模型在三个基准上超越所有开源MLLM,接近GPT-4o水平。

Scaling Text-Rich Image Understanding via Code-Guided Synthetic Multimodal Data Generation

提出CoSyn框架,利用纯文本LLM的代码生成能力自动创建40万张文本丰富图像(图表、文档、图表等)+270万条指令微调数据,训练的7B VLM在7个基准上达到SOTA,超越GPT-4V和Gemini 1.5 Flash。

COLING-UniA at SciVQA 2025: Few-Shot Example Retrieval and Confidence-Informed Ensembling for Multimodal Large Language Models

本文提出了一种基于多模态大模型(MLLM)集成的科学图表视觉问答系统,通过 few-shot 示例检索策略和置信度感知的模型选择机制,在 SciVQA 2025 共享任务中获得第三名(平均 F1 = 85.12)。

Insight Over Sight: Exploring the Vision-Knowledge Conflicts in Multimodal LLMs

首次系统探索 MLLM 中常识级别的视觉-知识冲突问题,提出自动化框架构建 ConflictVis 基准(374 图 + 1122 QA),发现 MLLM 在约 20% 的冲突场景中过度依赖参数化知识(尤其是 Yes-No 和动作类问题),并提出 Focus-on-Vision 提示策略进行缓解。

CoRe-MMRAG: Cross-Source Knowledge Reconciliation for Multimodal RAG

CoRe-MMRAG 提出了一个端到端多模态 RAG 框架,通过四阶段流水线(参数知识生成→视觉-文本联合重排序→外部知识生成→内外知识整合)解决参数知识-检索知识不一致(PRKI)和视觉-文本知识不一致(VTKI)两个问题,在 InfoSeek 和 Encyclopedic-VQA 上分别提升 5.6% 和 9.3%。

COSMMIC: Comment-Sensitive Multimodal Multilingual Indian Corpus for Summarization and Headline Generation

构建首个面向印度语言的评论感知多模态多语言数据集 COSMMIC(9 种语言、4,959 篇文章-图像对、24,484 条读者评论),提出评论过滤(IndicBERT)和图像分类(CLIP)增强方案,用 GPT-4 和 LLama3 建立摘要和标题生成的基准。

CoSyn: Scaling Text-Rich Image Understanding via Code-Guided Synthetic Multimodal Data Generation

提出 CoSyn 框架,利用纯文本 LLM 的代码生成能力自动合成多样化的文本丰富型图像及对应指令微调数据,构建 400K 图像 + 2.7M 指令数据集,在 7 个 benchmark 上达到开源 SOTA 并超越 GPT-4V。

Cracking the Code of Hallucination in LVLMs with Vision-aware Head Divergence

提出Vision-aware Head Divergence (VHD)指标量化注意力头对视觉信息的敏感度,发现幻觉与模型过度依赖语言先验紧密相关,并提出Vision-aware Head Reinforcement (VHR)无训练方法,通过放大视觉敏感注意力头来缓解幻觉,在CHAIR上最高降低CHAIRS 16.36个点。

DALR: Dual-level Alignment Learning for Multimodal Sentence Representation Learning

提出 DALR 框架,通过跨模态一致性学习 + 模态内排序蒸馏的双层对齐策略,解决多模态句子表示中的跨模态不对齐偏差(CMB)和模态内语义分歧(ISD)问题,在 STS 和 TR 任务上取得 SOTA。

Do Vision-Language Models Have Internal World Models? Towards an Atomic Evaluation

提出基于认知科学的双阶段框架(感知+预测),构建 WM-ABench 大规模基准(23 维度、6 模拟器、10 万+实例),通过 660 组实验系统揭示 15 个 SOTA VLM 在基本世界建模能力上的严重不足。

Donate or Create? Comparing Data Collection Strategies for Emotion-labeled Multimodal Social Media Posts

系统比较了两种情感标注数据的收集策略——"捐赠"真实社交媒体帖子 vs "创造"帖子——发现创造的帖子更长、更依赖文本、偏向原型化情感事件,但用创造数据训练的模型可以很好泛化到真实数据,只是需要真实数据来做靠谱的效果评估。

Don't Miss the Forest for the Trees: Attentional Vision Calibration for Large Vision Language Models

发现 LVLM 中存在"blind token"现象——少量语义无关的图像 token 吸引了不成比例的注意力权重,并提出 AvisC 方法通过测试时对比解码重新校准 blind token 影响,有效减轻视觉幻觉。

EffiVLM-Bench: A Comprehensive Benchmark for Evaluating Training-Free Acceleration in Large Vision-Language Models

提出 EffiVLM-Bench,首个系统评估大型视觉语言模型(LVLM)训练免加速方法的统一框架,覆盖 17 个 benchmark、3 个前沿模型,引入泛化性和忠诚度等新指标,揭示了 token 压缩与参数压缩在不同场景下的性能-效率权衡。

EffiVLM-Bench: 大型视觉语言模型免训练加速的综合评测基准

提出 EffiVLM-Bench,一个统一评估框架,系统性地评估大型视觉语言模型(LVLM)的免训练加速方法,涵盖 token 压缩和参数压缩两大类,从性能、泛化性、忠实度和效率四个维度进行全面对比分析。

Enabling Chatbots with Eyes and Ears: An Immersive Multimodal Conversation System

本文提出赋予聊天机器人"眼睛和耳朵"的沉浸式多模态对话系统,构建了融合视觉与听觉的多会话多方对话数据集 M3C,并设计了包含对话模块和多模态记忆检索模块的对话模型,实现了多说话者共享视听体验的动态长期对话。

Enhance Multimodal Consistency and Coherence for Text-Image Plan Generation

本文提出一种自回归文本-图像计划生成框架(MPlanner),通过四阶段迭代——文本草拟、图像编辑、视觉信息提取、文本精炼——有效提升多模态计划中视觉步骤的连贯性和文本-图像的一致性。

Evaluating Visual and Cultural Interpretation: The K-Viscuit Benchmark with Human-VLM Collaboration

本文提出了一种半自动化的文化 VLM 基准构建框架,通过人-VLM 协作生成多选 VQA 样本,并以此构建了聚焦韩国文化的 K-Viscuit 数据集(657 题),揭示了开源与闭源 VLM 在文化理解上的显著差距。

EXPERT: An Explainable Image Captioning Evaluation Metric with Structured Explanations

本文提出 EXPERT,一种基于 VLM 微调的无参考图像描述评估指标,通过构建大规模结构化解释数据集并设计两阶段评估模板,在多个基准数据集上达到 SOTA 的同时,提供基于流畅度、相关性、描述性三个维度的高质量结构化解释。

Exploring How Generative MLLMs Perceive More Than CLIP with the Same Vision Encoder

系统探究为何生成式多模态LLM(如LLaVA)使用与CLIP相同的视觉编码器却能在视觉推理任务上大幅超越CLIP,发现patch token、位置编码和prompt加权是关键因素。

HiDe-LLaVA: Hierarchical Decoupling for Continual Instruction Tuning of Multimodal Large Language Model

通过 CKA 分析发现 MLLM 顶层学任务特异信息而其余层学通用知识,提出 HiDe-LLaVA:顶层 LoRA 做 MoE 式任务特异扩展(双模态锚点匹配)+ 其余层 LoRA 做均匀融合,在新构建的无信息泄露基准 UCIT 上比最佳基线提升 5.8%。

HotelMatch-LLM: Joint Multi-Task Training of Small and Large Language Models for Efficient Multimodal Hotel Retrieval

提出 HotelMatch-LLM,用 SLM 编码 query + LLM 编码酒店文档的非对称架构,配合三目标多任务优化(检索对齐 + MLM地理预测 + 视觉设施识别)和 patch 级 mean pooling 多图处理,在旅行领域多模态检索任务上显著超过 MARVEL/VISTA 等 SOTA。

Inference Compute-Optimal Video Vision Language Models

首次系统研究视频VLM推理时的计算预算最优分配问题:在固定推理FLOPs下,如何在语言模型大小(x_N)、帧数(x_T)和每帧视觉token数(x_V)三个维度间做最优权衡,通过大规模训练扫描(~100k A100小时)和参数化建模得出实用的分配策略。

Synergizing LLMs with Global Label Propagation for Multimodal Fake News Detection

提出 GLPN-LLM 框架,通过 mask-based 全局标签传播机制有效整合 LLM 生成的伪标签,解决了 LLM 伪标签直接组合效果不佳的问题,在 Twitter/PHEME/Weibo 三个数据集上全面超越 SOTA。

LongDocURL: a Comprehensive Multimodal Long Document Benchmark Integrating Understanding, Reasoning, and Locating

提出LongDocURL基准(396篇文档、2,325 QA对、33,000+页,含理解/推理/定位三类20个子任务),通过半自动构建流程生成高质量长文档评测数据,26种配置的实验结果显示最强GPT-4o仅64.5分,开源最高30.6分,远低于人类84.8分。

MAmmoTH-VL: Eliciting Multimodal Reasoning with Instruction Tuning at Scale

MAmmoTH-VL 提出了一种仅用开源模型构建 12M 多模态 CoT 推理指令数据的可扩展方法,通过数据收集→改写→自过滤三步管线,训练的 8B 模型在 MathVerse (+8.1%)、MMMU-Pro (+7%)、MuirBench (+13.3%) 上达到 SOTA。

Modality-Aware Neuron Pruning for Unlearning in Multimodal Large Language Models

提出MANU框架解决MLLM中的多模态遗忘不平衡问题:通过四种重要性函数(绝对/频率/方差/RMS)识别跨模态知识纠缠的神经元,选择性剪枝实现多模态输入和纯文本输入下的均衡知识遗忘,同时保持模型通用能力。

Evaluating Multimodal Large Language Models on Video Captioning via Monte Carlo Tree Search

提出AutoCaption框架,利用蒙特卡洛树搜索(MCTS)自动迭代生成细粒度视频描述关键点(平均122个/视频),构建MCTS-VCB基准评估20+个MLLM的视频描述能力,并证明生成的数据可用于微调显著提升模型性能。

MMBoundary: Advancing MLLM Knowledge Boundary Awareness through Reasoning Step Confidence Calibration

提出 MMBoundary 框架,通过在推理链的每一步插入自然语言置信度表述(而非只在最终回答后给置信度),结合文本+跨模态的自奖励信号估计置信度,并用 SFT+RL 两阶段训练实现步级置信度校准,平均降低 7.5% 校准误差并提升 8.3% 任务准确率。

MMMU-Pro: A More Robust Multi-discipline Multimodal Understanding Benchmark

提出 MMMU-Pro 基准,通过过滤纯文本可解题目、扩增选项至 10 个、引入 vision-only 输入设置三步法,构建更鲁棒的多学科多模态理解评测,所有模型性能显著下降 16.8%-26.9%。

MMMU-Pro: A More Robust Multi-discipline Multimodal Understanding Benchmark

MMMU-Pro 通过三步流程(过滤纯文本可解题、扩展选项至 10 个、引入纯视觉输入设置)构建更鲁棒的多学科多模态理解基准,模型性能比原 MMMU 下降 16.8%~26.9%,揭示当前模型依赖捷径而非真正多模态理解。

mOSCAR: A Large-scale Multilingual and Multimodal Document-level Corpus

提出 mOSCAR——首个大规模多语言多模态文档级语料库(163种语言、303M文档、200B tokens、1.15B图片),从 Common Crawl 中提取交错的图文文档,并证明在此数据上训练的多语言 mLLM 能获得显著的 few-shot 学习提升。

MultiMM: Cultural Bias Matters — Cross-Cultural Benchmark for Multimodal Metaphors

提出MultiMM——首个跨文化多模态隐喻数据集,包含8461个中英文广告图文对及细粒度标注,并设计SEMD模型融合情感特征增强隐喻检测。

A Survey on Patent Analysis: From NLP to Multimodal AI

全面综述基于 NLP 和多模态 AI 的专利分析方法,按专利生命周期中的四大任务(分类、检索、质量分析、生成)提出新的分类体系,覆盖从传统神经网络到 PLM/LLM 的技术演进。

PunchBench: Benchmarking MLLMs in Multimodal Punchline Comprehension

提出PunchBench(6,000图文对、54,000 QA对),通过同义/反义标题替换消除文本捷径、多种问题格式与两层任务(感知+推理)全面评测MLLM的多模态梗图理解能力,并设计SC-CoQ由简到繁的提问策略显著提升表现,但GPT-4o仍远低于人类98%+水平。

Sharper and Faster mean Better: Towards More Efficient Vision-Language Model for Hour-scale Long Video Understanding

提出Sophia模型处理小时级长视频:通过Shot-adaptive Frame Pruning(基于镜头分割的两阶段帧剪枝)精准选择查询相关帧,结合O(N)复杂度的Hierarchical Attention替代全注意力,在8/8个长视频benchmark中6个SOTA,且注意力FLOPs仅为InternVL2的1/17。

Can Multimodal Large Language Models Understand Spatial Relations?

提出SpatialMQA基准,通过5,392个基于COCO2017的人工标注多选题样本(无bbox、含视角替换、排除纯知识可答题),评测MLLM的空间关系推理能力,发现最强模型SpaceLLaVA仅达48.14%远低于人类98.40%。

Speaking Beyond Language: A Large-Scale Multimodal Dataset for Learning Nonverbal Cues from Video-Grounded Dialogues

提出 VENUS——首个大规模多模态对话数据集(89,459 段对话、14,910 小时),包含时间对齐的文本、3D 面部表情和肢体语言标注;基于该数据集开发 MARS 多模态语言模型,通过 VQ-VAE 将非语言线索离散化后与文本统一建模,实现对话中文本与非语言动作的联合理解和生成。

SPHERE: Unveiling Spatial Blind Spots in Vision-Language Models Through Hierarchical Evaluation

提出 SPHERE 三层级空间推理评估框架(单技能→多技能→推理),基于 MS COCO 人工标注 2285 个 QA 对,发现 GPT-4o(67.9%)与人类(93.0%)差距 25%,尤其在距离判断、视角切换和物理推理上表现严重不足。

Symmetrical Visual Contrastive Optimization: Aligning Vision-Language Models with Minimal Contrastive Images

提出 S-VCO(对称视觉对比优化),一种新的 VLM 微调目标,通过对称地对齐/拒绝匹配/矛盾的图像-文本对来增强视觉依赖,配合最小视觉对比数据集 MVC,在幻觉检测上减少 22%,视觉依赖任务上显著提升。

Teaching Vision-Language Models to Ask: Resolving Ambiguity in Visual Questions

提出ClearVQA benchmark评估VLM处理歧义视觉问题的能力(覆盖指代歧义/意图欠明确/拼写歧义三类),并通过自动化pipeline生成歧义-澄清问题对用于SFT+DPO训练,使VLM学会"反问用户"而非猜测作答,VQA准确率相对提升13.3%。

TheoremExplainAgent: Towards Video-based Multimodal Explanations for LLM Theorem Understanding

提出 TheoremExplainAgent,一个基于多 Agent 协作的系统,能自动生成 5 分钟以上的定理讲解视频(Manim 动画+语音旁白),并构建了 TheoremExplainBench(240 个 STEM 定理,5 维评估指标)用于系统评估。

TrimLLM: Progressive Layer Dropping for Domain-Specific LLMs

基于"层级特化"现象(不同层对不同领域重要性不同),提出TrimLLM在领域微调过程中渐进式丢弃最不重要的层,将LLaMA-7B压缩到50%大小时性能几乎无损,在消费级GPU上实现2.1-5.7×推理加速——无需任何特殊硬件或kernel支持。

Mitigating Visual Forgetting via Take-along Visual Conditioning for Multi-modal Long CoT Reasoning

发现MLLM长链推理中存在严重的"视觉遗忘"现象——推理进行到一半时移除图片仅导致2%精度下降,说明模型过度依赖文本输出而非视觉输入。提出Take-along Visual Conditioning (TVC),在推理过程中周期性重新注入压缩后的图像特征,在5个数学推理基准上平均超越之前SOTA 3.4个点。

Unsolvable Problem Detection: Evaluating Trustworthiness of Large Multimodal Models

本文提出不可解问题检测(UPD)任务评估大型多模态模型(LMM)的鲁棒理解能力,包含三种不可解场景(答案缺失AAD、答案集不兼容IASD、图像问题不兼容IVQD),构建 MM-UPD Bench 基准,实验揭示现有 LMM 在标准 MCQA 上表现良好但在 UPD 上显著挣扎,且现有基准性能与 UPD 能力之间缺乏相关性。

Value-Spectrum: Quantifying Preferences of Vision-Language Models via Value Decomposition

提出 Value-Spectrum 基准,通过 50K+ 社交媒体短视频截图和 Schwartz 价值理论框架,系统评估 VLM 的内在价值偏好及角色扮演时的偏好适配能力。

VF-Eval: Evaluating Multimodal LLMs for Generating Feedback on AIGC Videos

提出VF-Eval基准,通过一致性验证、错误感知、错误类型检测、推理评估四大任务系统评估13个MLLM为AIGC视频提供反馈的能力,发现即使GPT-4.1也难以在所有任务上表现一致,揭示了AIGC视频理解的挑战性。

ViGiL3D: A Linguistically Diverse Dataset for 3D Visual Grounding

提出 ViGiL3D——一个语言多样性诊断数据集和自动化分析框架,用于评估 3D 视觉定位(3DVG)方法在否定、粗粒度指代、共指消解等多种语言现象上的表现,揭示现有方法在分布外提示上性能显著下降(最高达 20+ 点)。

Visual Evidence Prompting Mitigates Hallucinations in Large Vision-Language Models

提出Visual Evidence Prompting (VEP),利用小型视觉专家模型(目标检测器、场景图生成器)的输出作为文本化"视觉证据"输入LVLM,无需训练即可在11个LVLM上显著降低幻觉——LLaVA-1.5在POPE上提升7.2%、Claude 3上提升12.1%。

VLMInferSlow: Evaluating the Efficiency Robustness of Large Vision-Language Models as a Service

首次在黑盒设置下研究 VLM 的效率鲁棒性,提出 VLMInferSlow 方法,通过零阶优化搜索对抗性图像扰动,迫使 VLM 生成更长序列,将计算成本最高增加 128.47%,揭示了 VLM 在 MLaaS 部署场景下的效率安全隐患。

VReST: Enhancing Reasoning in Large Vision-Language Models through Tree Search and Self-Reward Mechanism

提出VReST,首次将蒙特卡洛树搜索(MCTS)应用于多模态CoT推理:每个节点是一个推理步骤,通过多模态自奖励机制(sub-question有用性+答案正确性+视觉-语言线索相关性)评估推理质量,无需训练即在MathVista上达到64.50%(超越CoT的54.60%和ToT的60.20%),并展示出多模态测试时缩放定律。


📦 模型压缩

AlignDistil: Token-Level Language Model Alignment as Adaptive Policy Distillation

AlignDistil 证明了 RLHF 目标函数与 token 级蒸馏过程的理论等价性,并据此设计了一种简单的蒸馏方法:用 DPO 模型和反向 DPO 模型的 logit 分布线性组合构造教师分布,配合 token 自适应外推机制实现 token 级奖励优化,在 AlpacaEval 2.0、MT-Bench 和 Arena-Hard 上优于现有方法且收敛更快。

APB: Accelerating Distributed Long-Context Inference by Passing Compressed Context Blocks across GPUs

APB 提出了一种分布式长上下文推理框架,通过在序列并行框架中引入本地 KV cache 压缩和跨 GPU 传递压缩上下文块的机制,在不损失任务性能的前提下实现了相比 FlashAttn/RingAttn/StarAttn 分别高达 9.2x/4.2x/1.6x 的 prefill 加速。

ODLRI: Assigning Distinct Roles to Quantized and Low-Rank Matrices Toward Optimal Weight Decomposition

提出 ODLRI(Outlier-Driven Low-Rank Initialization)——在量化+低秩联合权重分解 \(\mathbf{W} \approx \mathbf{Q} + \mathbf{LR}\) 中,将低秩分量专门分配给捕获激活敏感权重(异常值相关),量化分量处理剩余权重。通过这种"角色分配"初始化,稳定量化、降低激活感知误差,在 Llama2/3 和 Mistral 的低比特设置中一致提升困惑度和零样本精度。

BeamLoRA: Beam-Constraint Low-Rank Adaptation

BeamLoRA 发现 LoRA 模块中不同 rank 的重要性存在显著差异且随训练动态演变,受 beam search 启发,提出在训练过程中动态评估 rank 重要性、剪枝不重要的 rank 并将参数空间扩展给重要 rank,在固定总 rank 下提升性能,在三个基座模型的 12 个数据集上持续优于 LoRA 及其变体。

Beyond Text Compression: Evaluating Tokenizers Across Scales

本文系统评估了 6 种 tokenizer 在 350M 和 2.7B 参数模型上的影响,发现 tokenizer 选择对英文任务影响极小但对多语言任务(如机器翻译)有显著且跨尺度一致的影响,并提出了基于 Zipf 定律的新型内在评估指标,比文本压缩率能更好地预测多语言场景下的下游性能。

"Give Me BF16 or Give Me Death"? Accuracy-Performance Trade-Offs in LLM Quantization

这是迄今最全面的 LLM 量化实证研究,在 Llama-3.1 全系列(8B/70B/405B)上对 FP8/INT8/INT4 进行了超过 50 万次评估,发现 FP8 几乎无损、INT8 仅降 1-3%、INT4 出奇地有竞争力,并给出了不同部署场景的量化格式选择建议。

BlockPruner: Fine-grained Pruning for Large Language Models

提出 BlockPruner,将 Transformer 层分解为 MHA 和 MLP 两个最小残差块,基于困惑度评估块重要性并通过迭代搜索进行细粒度剪枝,实现比层级剪枝更优的压缩效果。

BrainECHO: Semantic Brain Signal Decoding through Vector-Quantized Spectrogram Reconstruction for Whisper-Enhanced Text Generation

提出 BrainECHO 三阶段框架(自编码—对齐—微调),通过向量量化离散表示将脑信号映射到 Mel 频谱图空间,再借助 Whisper 完成非侵入式脑信号到文本的高质量解码。

Capture the Key in Reasoning to Enhance CoT Distillation Generalization

提出 EDIT(mistakE-Driven key reasonIng step distillaTion),通过构造正确/错误配对的 dual CoTs 数据,利用最小编辑距离算法定位关键推理步骤,并以 token 级细粒度损失函数引导小模型聚焦学习这些关键步骤,而非简单模仿教师的推理形式。

Correcting Hallucinations in News Summaries: Exploration of Self-Correcting LLM Methods with External Knowledge

系统性地探究了两种自纠正方法(CoVE 和 RARR)在新闻摘要幻觉纠正中的表现,比较了三种搜索引擎、多种检索设置和提示策略,发现 Bing 搜索片段 + RARR(few-shot)组合效果最佳,且 G-Eval 与人类评估高度一致。

Cross-Lingual Generalization and Compression: From Language-Specific to Shared Neurons

本文通过追踪多语言语言模型预训练过程中的检查点,发现模型从语言特定表示逐渐压缩为跨语言共享表示:中间层的语言识别能力下降、语义概念的"专家神经元"跨语言对齐,操控从西班牙语数据提取的概念神经元后模型反而生成语义相关的英语文本。

DAC: A Dynamic Attention-aware Approach for Task-Agnostic Prompt Compression

DAC 提出动态注意力感知的 prompt 压缩方法,通过融合信息熵和注意力分数作为 token 重要性度量,并动态感知压缩过程中的熵偏移来进行细粒度压缩,在 LongBench 上比 SOTA 方法提升平均 1.33 分。

Direct Behavior Optimization: Unlocking the Potential of Lightweight LLMs

提出 DeBoP 范式,将轻量级 LLM(LwLLM)的行为优化转化为对离散执行序列的优化,通过无梯度蒙特卡洛树搜索(MCTS)自动寻找最优 demonstration,使 LLaMA3-8B 在多数任务上超越 GPT-3.5 并减少约 60% 计算时间。

DRAG: Distilling RAG for SLMs from LLMs to Transfer Knowledge and Mitigate Hallucination

DRAG 提出了一种从大模型向小模型蒸馏 RAG 能力的框架:用大模型(如 GPT-4o)为给定问题生成证据和知识图谱三元组,经排序过滤后作为结构化上下文输入给小模型(2B-9B),无需微调即可将小模型在 ARC-C 上提升高达 27.7%,同时显著减少幻觉。

DRPruning: Efficient Large Language Model Pruning through Distributionally Robust Optimization

DRPruning 将分布稳健优化(DRO)引入 LLM 结构化剪枝,通过 scaling law 预测各领域最终 loss 作为参考、动态调整训练数据分布来平衡剪枝后各领域性能,在单语和多语设置下分别以 -5.59% PPL 和 +2.95% 下游任务的提升超越 Sheared LLaMA。

EAC-MoE: Expert-Selection Aware Compressor for Mixture-of-Experts Large Language Models

EAC-MoE 从 MoE 模型的专家选择特性出发,提出量化时校准路由器缓解 expert-shift 问题(QESC)+ 推理时基于专家选择频率动态剪枝不重要专家(PESF),在 Mixtral-8x7B 上实现 4.92× 内存压缩和 1.68× 推理加速且精度损失不到 1%。

EfficientQAT: Efficient Quantization-Aware Training for Large Language Models

EfficientQAT 提出两阶段 QAT 框架——先逐块训练所有参数(Block-AP)提供良好初始化,再端到端训练量化参数(E2E-QP)捕获跨块交互,在单张 A100 上 41 小时完成 Llama-2-70B 的 2-bit 量化,精度仅降 3 点。

Entropy-based Exploration Conduction for Multi-step Reasoning

提出 Entro-duction 方法,通过监控 LLM 推理过程中输出的熵和方差熵变化来动态调整探索深度,使用 \(\epsilon\)-greedy 策略选择加深、扩展或停止三种探索行为,在避免冗余推理的同时提升推理准确率。

EXIT: Context-Aware Extractive Compression for Enhancing Retrieval-Augmented Generation

提出 EXIT——一种抽取式上下文压缩框架,通过上下文感知的句子级二分类并行选取与查询相关的句子,在 QA 准确率和推理延迟上同时优于现有的抽生式和抽取式压缩方法。

Explaining Puzzle Solutions in Natural Language: An Exploratory Study on 6×6 Sudoku

评估 5 个 LLM 在解决和解释 6×6 数独谜题上的能力,发现开源模型几乎无法正确求解(<1%),o1-preview 可解 65% 但其解释在正当性、清晰度和教育价值三个维度上均严重不足,揭示了 LLM 在多步推理解释方面的根本局限。

FedEx-LoRA: Exact Aggregation for Federated and Efficient Fine-Tuning of Large Language Models

FedEx-LoRA 发现联邦学习中独立平均 LoRA 的 A 和 B 矩阵会导致不精确的全局更新("乘积的均值≠均值的乘积"),通过在冻结权重矩阵中加入残差误差项实现精确聚合,在多个推理和 NLU 任务上一致优于 FedIT 和 FFA-LoRA。

Language Fusion for Parameter-Efficient Cross-lingual Transfer (FLARE)

FLARE 在 LoRA 适配器的低秩瓶颈中通过轻量线性/非线性变换融合源语言(英语)和目标语言的逐层表示,无需额外参数即可实现参数高效的跨语言迁移,在 Llama 3.1 上 QA 精确匹配提升 4.9%。

Flipping Knowledge Distillation: Leveraging Small Models' Expertise to Enhance LLMs in Text Matching

本文提出"反向知识蒸馏"范式——让 LLM 从微调过的小模型学习文本匹配的领域专家知识,通过将 decoder-only LLM 重新解释为 encoder-decoder 架构(用 LoRA 的压缩矩阵做 encoder)并设计 Margin-aware Contrastive Loss 来对齐表示相似度。

A Silver Bullet or a Compromise for Full Attention? A Comprehensive Study of Gist Token-based Context Compression

系统研究Gist Token上下文压缩方法,提出统一框架分类现有架构(记忆位置×粒度),发现Fine-grained KV Cache在RAG/QA上近无损但在合成召回上有明显缺陷,识别出三种失败模式(边界丢失/意外丢失/中途丢失),并提出细粒度自编码和分段token重要性估计两种改进策略。

Graph Counselor: Adaptive Graph Exploration via Multi-Agent Synergy to Enhance LLM Reasoning

Graph Counselor 提出了一个多智能体协作的 GraphRAG 推理框架,通过 Planning/Thought/Execution 三个 Agent 自适应提取图结构信息,并引入多视角自反思机制纠正推理偏差,在多个图推理任务上超越现有方法。

IAM: Efficient Inference through Attention Mapping between Different-scale LLMs

发现不同规模 LLM 的注意力矩阵具有高度相似性,提出 IAM 框架——在 prefill 阶段建立小模型与大模型注意力头之间的余弦相似度映射,decode 阶段用小模型的注意力矩阵替代大模型映射层的注意力计算,实现 KV cache 减少 22% 和推理加速 11%,且与现有 KV cache 压缩方法正交。

L4Q: Parameter Efficient Quantization-Aware Fine-Tuning on Large Language Models

提出 L4Q,将量化感知训练 (QAT) 与 LoRA 深度整合:先合并权重与LoRA参数再统一量化,通过定制反向传播路径消除权重梯度存储开销,实现联合优化量化与微调参数,在4-bit和3-bit量化下显著超越现有方法。

Lacuna Inc. at SemEval-2025 Task 4: LoRA-Enhanced Influence-Based Unlearning for LLMs

提出 LIBU(LoRA 增强的影响函数遗忘算法),分两阶段实现 LLM 机器遗忘:Phase 1 用对角 Fisher 信息矩阵加权的影响函数更新参数精准遗忘,Phase 2 用 Sophia 二阶优化器稳定化训练,在 SemEval-2025 Task 4 的 OLMo-7B 上达到 0.283 遗忘率同时维持 0.469 MMLU 准确率。

Language Models Resist Alignment: Evidence From Data Compression

本文从压缩理论视角揭示了LLM存在"弹性"(elasticity)现象——模型倾向于保持预训练分布而抵触对齐分布,且对齐后的模型在受到扰动时会以与数据量差距成反比的速率回弹到预训练状态,这解释了为什么对齐如此脆弱且容易被少量微调逆转。

Unveiling Language-Specific Features in Large Language Models via Sparse Autoencoders

利用 Sparse Autoencoders (SAEs) 分析多语言 LLM 的内部表示,发现存在强烈的语言特定 SAE features,这些 features 不仅与语言特有 token 相关还与语言上下文相关,消融它们只影响对应语言能力,且多个语言 features 之间存在协同效应;进一步利用这些 features 增强 steering vectors 实现对生成语言的精确控制。

Towards the Law of Capacity Gap in Distilling Language Models

揭示了语言模型蒸馏中的"容量差距定律"——最优教师模型的参数量与学生模型成线性关系(约 2.5 倍),将 LLM 蒸馏中的"不可能三角"转化为可解问题,并据此成功蒸馏出 3B 的 MiniMA 模型。

Memorization Inheritance in Sequence-Level Knowledge Distillation for Neural Machine Translation

本文首次系统研究了序列级知识蒸馏(SeqKD)中教师模型的记忆行为如何传递给学生模型,发现学生模型虽未直接接触原始训练数据,但其提取式记忆率比基线模型高 57%,幻觉率也增加,并提出 Adaptive-SeqKD 通过在高质量子集上微调教师来缓解这些问题。

MoQAE: Mixed-Precision Quantization for Long-Context LLM Inference via Mixture of Quantization-Aware Experts

MoQAE 创造性地将不同量化比特宽度配置视为 MoE 中的"专家",通过轻量路由器学习每个 chunk 的最优量化策略,结合路由冻结和路由共享机制,在几乎不损失精度的情况下大幅减少长上下文推理的 KV cache 内存。

mPLUG-DocOwl2: High-resolution Compressing for OCR-free Multi-page Document Understanding

提出High-resolution DocCompressor模块,利用低分辨率全局视觉特征作为query通过交叉注意力将高分辨率文档图像压缩为仅324个token(不到同类方法的20%),在多页文档理解benchmark上达到SOTA且首token延迟降低50%+。

Unraveling LoRA Interference: Orthogonal Subspaces for Robust Model Merging

OSRM 发现 LoRA 模型合并失败的根因是参数与数据分布的交互干扰(而非仅仅是参数冲突),提出在微调前通过数据协方差矩阵的特征分解来初始化 LoRA 矩阵 A,使其子空间与其他任务的数据分布正交,从而在合并时最小化跨任务干扰,在 8 个数据集、5 个模型上显著提升合并性能。

C3A: 基于循环卷积的参数高效微调

提出Circular Convolution Adaptation (C3A),用循环卷积算子替代LoRA的低秩矩阵分解来构造增量权重\(\Delta W\)——循环矩阵的秩与可训练参数数量解耦,实现"少参数+高秩"适配;同时利用FFT加速前向/反向传播,在计算和显存效率上均可与LoRA媲美。在GLUE、常识推理、数学推理、代码生成等任务上持续优于LoRA及其变体。

Prompt Candidates, then Distill: A Teacher-Student Framework for LLM-driven Data Annotation

提出候选标注+蒸馏范式(CanDist)——当 LLM 对样本不确定时输出所有可能标签(而非强制给唯一标签),然后用小语言模型(SLM)从候选标注中蒸馏出唯一标签,理论证明候选标注蒸馏比直接使用单标签有更好的理论保证,在六个文本分类任务上验证有效。

PTQ1.61: Push the Real Limit of Extremely Low-Bit Post-Training Quantization Methods for Large Language Models

首次将LLM权重真正量化到1.61-bit(此前号称sub-2bit的方法实际都超过2bit),通过一维结构化掩码(仅增加0.0002-bit/权重)保留显著通道、块级缩放因子优化和量化预处理三大创新,在LLaMA系列上以更低比特超越BiLLM和PB-LLM。

Quaff: Quantized Parameter-Efficient Fine-Tuning under Outlier Spatial Stability Hypothesis

本文提出 Outlier Spatial Stability Hypothesis (OSSH)——微调期间激活异常通道的空间位置保持稳定——并基于此设计了 Quaff 框架,通过目标动量缩放仅处理少量不变的异常通道,实现 1.73× 延迟降低和 30% 内存节省,同时在 GPQA 上精度还提升了 0.6%。

RISE: Reasoning Enhancement via Iterative Self-Exploration in Multi-hop Question Answering

提出 RISE——结合 RAG 与自迭代训练的多跳问答框架,通过问题分解、检索阅读、自我批判三个动作的自我探索循环,迭代生成训练数据并多目标优化模型,在 2Wiki/HotpotQA/MuSiQue 上超越 GPT-3.5 和所有 8B 级基线。

Sci-LoRA: Mixture of Scientific LoRAs for Cross-Domain Lay Paraphrasing

提出 Sci-LoRA——一种混合多领域 LoRA 的框架,通过对比学习训练文本编码器+动态权重生成器+LoRA 融合模块,在无需领域标签的情况下实现跨12个学科领域的科学文本通俗化改写,在5个数据集10个指标上超越 SOTA。

SEE: Strategic Exploration and Exploitation for Cohesive In-Context Prompt Optimization

本文提出 SEE 框架,首次将指令(instruction)和示例(examples)作为整体进行联合优化,采用元启发式优化原则设计四阶段探索-利用策略,在35个基准任务上实现平均13.94%的准确率提升并降低58.67%的计算成本。

Mitigating Selection Bias with Node Pruning and Auxiliary Options

提出Bias Node Pruning (BNP)和Auxiliary Option Injection (AOI)两种互补方法,从模型内部和输入端同时缓解LLM在多选题中的选择偏差,仅剪除0.002%权重即可将Llama-3准确率从52.3%提升至65.3%(+24.9%组合提升)。

Semantic Exploration with Adaptive Gating for Efficient Problem Solving with Language Models

针对 LLM 树搜索推理中"简单题也做复杂搜索"和"语义重复路径反复扩展"两大浪费问题,提出 SEAG 框架:先用 entropy 门控决定是否启动树搜索,再用语义聚类合并等价推理步骤,最终在准确率平均提升 4.3% 的同时仅需 RAP 31% 的推理开销。

State-offset Tuning: State-based Parameter-Efficient Fine-Tuning for State Space Models

针对 SSM(如 Mamba)提出 State-offset Tuning,一种新的"状态基"PEFT 方法家族,通过在每个时间步直接注入可训练的状态偏移量 \(h'\) 替代 Prefix-Tuning 的虚拟 token,解决了 prompt-based 方法在 SSM 上表达能力受限的问题,在更少参数量下持续优于 LoRA 和 Prefix-Tuning。

STUN: Structured-Then-Unstructured Pruning for Scalable MoE Pruning

STUN 提出了结构化→非结构化的两阶段 MoE 剪枝方法,第一阶段用 O(1) 前向传播实现可扩展的专家级剪枝,第二阶段在剩余专家内做非结构化剪枝,在 480B 参数的 Snowflake Arctic 上以 40% 稀疏度几乎无性能损失。

TableLoRA: Low-rank Adaptation on Table Structure Understanding for Large Language Models

TableLoRA 提出面向表格任务的专用 LoRA 模块,通过特殊 token 编码器改善表格序列化,并用 2D LoRA 编码单元格的行列位置信息,在参数高效微调设置下相比 vanilla LoRA 在 HiTab 上提升 5.9%,弥合了 LoRA 与全量微调之间 40.56% 的性能差距。

TaDA: Training-free recipe for Decoding with Adaptive KV Cache Compression and Mean-centering

提出 TaDA——无需训练的 KV cache 压缩方法,通过对 K/V 激活做 head 维度均值中心化后量化偏差(而非原始激活),自动消除离群值问题,配合逐层自适应量化精度搜索,将 KV cache 压缩至原始 16 位的 27% 同时保持接近基线的精度。

Trans-PEFT: Transferable Parameter-Efficient Fine-Tuning on Evolving Base Models

Trans-PEFT 发现基座模型更新(如 Qwen2→Qwen2.5)主要改变 FFN 层的任务知识存储而较少影响 Attention 层的任务模式,据此提出层内知识掩码和跨层知识丢弃两种策略,使在旧版本上训练的 PEFT 模块可直接迁移到新版本而不需重新微调,性能提升可达 30%。

UniICL: An Efficient ICL Framework Unifying Compression, Selection, and Generation

提出 UniICL 框架,用一个冻结的 LLM 同时完成 demonstration 压缩(compress→virtual tokens)、demonstration 选择(基于压缩后的 virtual token 相似度排序)和最终响应生成三个任务,仅需 17M 可训练参数(projection layer + learnable embedding),配合 Demonstration Bank 缓存机制避免重复压缩,实现 12× 压缩率下从 4-shot 扩展到 64-shot ICL(24GB 显存内),在多个 out-of-domain 数据集上超越 AutoCompressor、ICAE、LLMLingua 等基线。

UniQuanF: Unifying Uniform and Binary-coding Quantization for Accurate Compression of Large Language Models

UniQuanF 统一了均匀量化(UQ,表现力弱但优化性强)和二进制编码量化(BCQ,表现力强但优化性差)的优势,通过统一初始化、局部周期映射和统一定理,实现无额外部署开销的高精度 LLM 量化,在 GSM8K 上提升最高 4.60%。

Wanda++: Pruning Large Language Models via Regional Gradients

提出 Wanda++——基于 decoder block 级别区域梯度的轻量级 LLM 剪枝框架,通过区域梯度评分(RGS)改进剪枝准则 + 区域优化(RO)最小化稠密/稀疏块输出差异,在 2:4 稀疏下 WikiText 困惑度较 Wanda 最高降低 32%,单 H100 GPU 10 分钟内完成 7B 模型剪枝。

Who Taught You That? Tracing Teachers in Model Distillation

提出"教师模型归因"新问题:给定蒸馏后的学生模型,能否识别其教师模型?发现 n-gram 相似度和困惑度都不可靠,但词性(PoS)模板特征能有效捕捉教师模型在蒸馏中留下的语法"指纹",在 5 个候选教师中达到 45-74% 的归因准确率(随机基线 20%)。


⚖️ 对齐 / RLHF

Aligned but Blind: Alignment Increases Implicit Bias by Reducing Awareness of Race

发现 LLM 对齐训练的矛盾效应:对齐成功消除了显式偏见(Llama 3 70B 降至 8.13%),但反而放大了隐式偏见(从 64.1% 升至 91.4%),机制是对齐使模型在歧义上下文中不再表征种族概念("种族盲视"),导致安全护栏无法在隐性场景中激活。通过在早期层注入种族感知激活可将隐式偏见从 97.3% 降至 71.2%。

ASPO: Adaptive Sentence-Level Preference Optimization for Fine-Grained Multimodal Reasoning

提出 ASPO(Adaptive Sentence-level Preference Optimization)——将 DPO 的偏好单元从"整个回复"细化到"每个句子",为每个句子动态计算自适应奖励值(基于模型自身预测评估正确性和重要性),在多模态推理任务上显著优于传统回复级 DPO,有效减少幻觉并提升细粒度推理能力。

Atyaephyra at SemEval-2025 Task 4: Low-Rank Negative Preference Optimization

在 SemEval 2025 LLM 遗忘共享任务中,将负偏好优化 (NPO) 与低秩适配 (LoRA) 结合,利用 LoRA 的结构特性零开销获取原始模型分布来计算 KL 散度正则化,显著稳定了遗忘过程并超越了任务基线。

AutoMixAlign: Adaptive Data Mixing for Multi-Task Preference Optimization in LLMs

AutoMixAlign 提出了一种理论驱动的多任务偏好优化数据混合方法:先训练各任务的 specialist model 确定最优 loss 基线,再通过 minimax 优化自适应调整数据混合比例,优先处理 excess loss(与 specialist 的差距)最大的任务,在 helpfulness/harmlessness/reasoning 多任务 DPO 中平均提升 9.42%。

Beyond Surface-Level Patterns: An Essence-Driven Defense Framework Against Jailbreak Attacks in LLMs

提出 EDDF,一种基于"攻击本质"而非表面模式的越狱防御框架:离线提取已知攻击的本质策略存入向量数据库,在线时对新查询做本质抽象+检索+细粒度判断,将攻击成功率降低至少 20% 且误报率仅 2.18%。

Beyond the Tip of Efficiency: Uncovering the Submerged Threats of Jailbreak Attacks in Small Language Models

系统评估 13 个 SOTA 小语言模型(<4B参数)在 5 种越狱攻击下的安全性,发现 SLM 虽能抵御直接攻击但在越狱攻击下显著比大模型脆弱,进一步分析了架构压缩、量化和知识蒸馏等 SLM 技术对安全性的影响。

Boosting Vulnerability Detection of LLMs via Curriculum Preference Optimization with Synthetic Reasoning Data

提出 ReVD 框架,通过双向漏洞推理数据合成 + 三元组 SFT(同时学习漏洞代码/修复代码/代码差异的推理)+ 课程化在线偏好优化(COPO),将 LLM 的漏洞检测准确率提升 12-23%,在 PrimeVul 和 SVEN 上达到 SOTA。

Breaking the Ceiling: Exploring the Potential of Jailbreak Attacks through Expanding Strategy Space

基于精细化可能性模型 (ELM) 将越狱策略分解为四类可独立进化的组件(角色/内容支撑/语境/沟通技巧),提出 CL-GSO 遗传算法在组件级进行交叉与变异,将策略空间从既有方法的 40 种扩展到 839 种,在 Claude-3.5 上实现 96% 攻击成功率(此前方法最高仅 4%),同时提出基于意图一致性的评估机制,准确率达 96.5% 超越专用安全模型。

Chain-of-Jailbreak Attack for Image Generation Models via Editing Step by Step

提出 CoJ(Chain-of-Jailbreak)攻击,将生成恶意图像的单步请求分解为多步编辑指令链(从无害种子图像逐步编辑到目标),绕过图像生成模型的安全过滤器,在 GPT-4o 等模型上达到高攻击成功率。

Chain-of-Jailbreak Attack for Image Generation Models via Editing Step by Step

提出 Chain-of-Jailbreak(CoJ)攻击,将无法直接绕过安全护栏的恶意 query 分解为多步编辑子 query(删然后插、插然后删、改然后改回),在 GPT-4V/4o/Gemini 上达到 60%+ 越狱成功率;同时提出 Think-Twice Prompting 防御,拦截 95%+ 的 CoJ 攻击。

Cheems: A Practical Guidance for Building and Evaluating Chinese Reward Models from Scratch

为弥补中文 Reward Model 资源的空白,本文构建了 CheemsBench(首个大规模中文 RM 评测基准)和 CheemsPreference(首个大规模中文偏好数据集),通过人机协作标注 + 远程监督过滤策略训练的 CheemsRM 在中文场景显著超越现有所有开源 RM。

CodeDPO: Aligning Code Models with Self Generated and Verified Source Code

提出 CodeDPO,通过 PageRank 启发的自验证评分机制从自生成代码中构造高质量偏好对(93K 正确性 + 21K 效率),DPO 训练后在 8 个代码模型上 HumanEval 平均提升 10+ 分,同时提升代码执行效率 1.25-1.45×。

Curiosity-Driven Reinforcement Learning from Human Feedback

CD-RLHF 将好奇心驱动探索(curiosity-driven RL)引入 RLHF,通过前向动力学模型的预测误差作为内在奖励,结合 top-k 门控过滤与 reward whitening,在不损失对齐质量的前提下大幅提升 LLM 输出多样性(Llama-3.2-1B 上 Diversity 提升 40.26%,EAD 提升 8.92%)。

Debate, Reflect, and Distill: Multi-Agent Feedback with Tree-Structured Preference Optimization for Efficient Language Model Enhancement

提出 D&R 框架,让小模型(student)与多个大模型(teacher)进行多轮辩论并收集自我反思和教师反馈,然后将辩论日志组织为偏好树做 Tree-structured DPO (T-DPO) 蒸馏,在 MMLU Pro 和 MATH 上平均提升 14.18 分,且推理效率优于基线。

DiffPO: Diffusion Alignment with Direct Preference Optimization

提出 DiffPO,将 LLM 对齐重新建模为句子级扩散去噪过程,通过 parallel decoding 实现高效推理时对齐,作为即插即用模块可增强任意底座模型的对齐质量。

Expectation Confirmation Preference Optimization for Multi-Turn Conversational Recommendation Agent

提出 ECPO(Expectation Confirmation Preference Optimization),首个面向 LLM 对话推荐 Agent 的多轮偏好优化方法——基于心理学期望确认理论(ECT)显式建模用户满意度在多轮对话中的演变,通过前向期望确认定位不满意根因 + 后向期望推导重写回复构建 turn-level 偏好对,配合 AILO 用户模拟器,在 3 个数据集上显著优于现有 MTPO 方法。

Federated Data-Efficient Instruction Tuning for Large Language Models

提出 FedHDS(Federated Hierarchical Data Selection),通过 intra-client 和 inter-client 两级层次化数据选择消除联邦学习中客户端内部和跨客户端的数据冗余,结合多层 Transformer 特征融合提升 coreset 质量;仅用不到 1.5% 的数据,在 Rouge-L 上相对 SOTA 全数据联邦基线平均提升 10.72%,训练效率提升最高达 48.8 倍。

Focused-DPO: Enhancing Code Generation Through Focused Preference Optimization on Error-Prone Points

发现代码生成错误集中在特定"错误易发点"(error-prone points)——前缀/后缀通常正确,错误集中在中间代码段,提出 Focused-DPO 通过 PageRank 排序定位关键代码段并在 DPO 损失中加权放大,HumanEval+ 提升 4.41%、MBPP+ 提升 6.71%。

HiddenDetect: Detecting Jailbreak Attacks against Large Vision-Language Models via Monitoring Hidden States

提出 HiddenDetect,一种免训练(tuning-free)的基于内部激活状态的安全检测框架:通过监控 LVLM 推理时隐藏状态中的拒绝语义信号来检测越狱攻击,在多个模型和多模态基准上 AUROC 大幅超越现有方法。

Understanding Impact of Human Feedback via Influence Functions

首次将影响函数应用于 RLHF 奖励模型的反馈数据审计,结合 OPORP 向量压缩实现 2.5 倍加速,在偏差检测上超越 GPT-4o(AUC 0.8 vs 0.747),并从 Anthropic-HH 数据集中发现 47% 的错标样本。

Internal Value Alignment in Large Language Models through Controlled Value Vector Activation

提出 ConVA(Controlled Value Vector Activation)框架,通过上下文控制的数据集精准识别 LLM 隐空间中的价值向量,并用门控最小扰动机制在推理时激活目标价值,在 Schwartz 10 种基本价值上实现平均 29.6% 的控制成功率提升,同时保持 97%+ 的文本流畅度和通用能力。

IOPO: Empowering LLMs with Complex Instruction Following via Input-Output Preference Optimization

提出 IOPO(Input-Output Preference Optimization),在传统 DPO 仅优化输出偏好的基础上,引入输入偏好建模——让模型学习"给定回复 y,哪个指令 x 更匹配",从而增强对复杂多约束指令的细粒度感知能力;同时构建了包含 120K 训练数据、1K 评测数据、覆盖 5 大类 26 个约束维度的 Trace 基准。

JailbreakRadar: Comprehensive Assessment of Jailbreak Attacks Against LLMs

本文提出了一个全面的越狱攻击评估框架 JailbreakRadar,收集了17种代表性越狱攻击方法,建立了六类攻击分类体系,并在9个对齐LLM上进行了大规模系统性评测,揭示了不同类型攻击在实用性和防御鲁棒性上的关键差异。

JsonTuning: Towards Generalizable, Robust, and Controllable Instruction Tuning

提出 JsonTuning——将指令微调的输入输出从自然语言文本替换为 JSON 结构化格式,通过显式表示任务元素、关系和输出约束(JSON Schema),在 7 个预训练模型和 6 类任务上一致超越传统 TextTuning,平均性能从 26.78 提升到 30.88,同时显著增强鲁棒性和可控性。

Enhancing Safe and Controllable Protein Generation via Knowledge Preference Optimization

提出知识引导偏好优化(KPO)框架,通过蛋白质安全知识图谱识别安全/危险序列作为偏好信号,用强化学习训练蛋白质语言模型减少有害蛋白质序列的生成概率,同时保持功能性——为蛋白质生成的生物安全提供保障框架。

LLMs Caught in the Crossfire: Malware Requests and Jailbreak Challenges

构建 MalwareBench 基准(320 个手工恶意代码需求 × 11 种黑盒越狱方法 = 3520 个 prompt),系统评测 29 个 LLM 在恶意代码生成场景下的安全性,发现越狱攻击将平均拒绝率从 60.93% 降至 39.92%,且模型参数量与防御能力并非正比关系。

LSSF: Safety Alignment via Low-Rank Safety Subspace Fusion

LSSF 提出 LLM 的安全信息存在于低秩子空间中的假设,通过 SVD 提取安全对齐模型的主成分,利用安全奇异值熵自适应确定每层的保留秩,最终将提取的安全主成分线性融合到微调后的模型中,无需额外训练即可恢复因微调而退化的安全对齐,同时保持下游任务性能。

M2S: Multi-turn to Single-turn jailbreak in Red Teaming for LLMs

提出 M2S 框架,通过三种简单的格式转换方法(Hyphenize/Numberize/Pythonize)将多轮人类越狱对话压缩为单轮 prompt,不仅保持甚至超越原始多轮攻击效果(ASR 高达 95.9%,比多轮提升最多 17.5%),同时 token 使用量减半以上。

M-RewardBench: Evaluating Reward Models in Multilingual Settings

构建首个多语言奖励模型评估基准M-RewardBench(23种语言、2.87K偏好实例,覆盖对话/安全/推理/翻译四类能力),系统评估多种RM后发现英语与非英语RM性能存在显著差距,且翻译质量和语言资源量对RM表现有重要影响。

Measuring Data Diversity for Instruction Tuning: A Systematic Analysis and A Reliable Metric

系统分析 11 种现有多样性度量方法的局限性,提出 NovelSum——一种同时考虑样本间差异和信息密度的数据多样性指标,与指令微调性能达到 0.97 相关性。

MPO: Multilingual Safety Alignment via Reward Gap Optimization

MPO 发现 LLM 在主导语言(英文)和目标语言间的隐式 Reward Gap 与安全性能强相关,提出直接最小化两者 Reward Gap 差异来将主导语言的安全对齐能力迁移到多语言,在三个模型上显著降低了低资源语言的攻击成功率且不损害通用能力。

Mutual-Taught for Co-adapting Policy and Reward Models

Mutual-Taught 提出了一种基于 EM 算法的自训练框架,在偏好优化过程中同时迭代更新 policy model 和 reward model:E-step 用当前 RM 优化 PM,M-step 用 PM 更新前后的输出差异构建伪偏好对来更新 RM,解决了分布偏移导致的 reward hacking 问题,8B 模型在 AlpacaEval-2 达到 54.1% LC win rate。

Optimal Transport-Based Token Weighting for Enhanced Preference Optimization

OTPO 利用无平衡最优传输(UOT)在 chosen/rejected 回复的 token 表示之间计算语义对齐权重,使偏好优化聚焦于关键差异 token 而非均等对待所有 token,在 AlpacaEval2 上将 DPO 的 LC WR 从 48.14% 提升至 55.84%,并将 DPO/SimPO/SamPO/LDDPO 统一为 token 加权的特例。

Whose Boat Does it Float? Improving Personalization in Preference Optimization

提出"溯因推理"视角的偏好个性化方法:先用 LLM 推断偏好 chosen/rejected 回答背后的用户画像(Persona Inference),再用画像增强的偏好数据训练模型(Persona Tailoring),显著提升模型对不同用户需求的个性化适配能力。

PIG: Privacy Jailbreak Attack on LLMs via Gradient-based Iterative Prompts

提出 PIG 框架,通过识别隐私查询中的 PII 实体类型、构建隐私上下文示例、并利用三种基于梯度的迭代优化策略更新上下文,实现对 LLM 的高效隐私越狱攻击,在白盒和黑盒模型上均达到 SOTA。

Probability-Consistent Preference Optimization for Enhanced LLM Reasoning

提出 PCPO(Probability-Consistent Preference Optimization),在偏好对选择时同时考虑答案正确性和 token 级概率一致性(用 Levenshtein 距离过滤+概率一致性评分),并在 DPO 损失中按一致性加权,在 GSM8K/MATH-500/Olympiadbench 上一致超越标准 DPO 和 ScPO。

QueryAttack: Jailbreaking Aligned Large Language Models Using Structured Non-natural Query Language

提出 QueryAttack,将恶意自然语言查询分解为三个语义组件(内容、修饰符、类别)并填入编程语言模板(SQL/URL/Python/Java/C++ 等 9 种),结合 ICL 引导目标 LLM 直接用自然语言回复有害内容,无需解密步骤,在 GPT-4o 上 Ensemble 配置达到 96.35% ASR,且提出的跨语言 CoT 防御可将 ASR 降低最多 64%。

Red Queen: Safeguarding Large Language Models against Concealed Multi-Turn Jailbreaking

提出 Red Queen Attack——首个基于 Theory of Mind(ToM)构建多轮对话场景并隐藏恶意意图的越狱攻击方法,生成 56K 多轮隐蔽攻击数据,在 GPT-4o 上达到 87.6% ASR;同时提出 Red Queen Guard 防御策略,通过多轮 DPO 数据训练将 ASR 降至 <1%,同时不影响通用基准性能。

Rethinking Table Instruction Tuning

系统消融表格指令微调中被忽视的超参数选择(学习率、数据量、epoch),揭示现有表格 LLM 因学习率过大(2e-5)导致通用能力严重退化(MMLU 降 14 分、AI2ARC 降 21 分),提出仅需 13 个数据集各 200 条(共 2600 条)+ 学习率 1e-6 + 2 epoch 微调 LLaMA 3.1 8B Instruct 即可构建 TAMA,在 13 个表格任务上匹配/超越 GPT-3.5 和 GPT-4,同时完整保持通用能力。

Reverse Preference Optimization for Complex Instruction Following

提出反向偏好优化(RPO),通过动态反转指令中未满足的约束将任意回复转化为"完美"chosen 样本,消除多约束偏好对中的噪声,在多轮复杂指令遵循任务上显著超越 DPO 基线。

Towards Reward Fairness in RLHF: From a Resource Allocation Perspective

将 RLHF 中的各种奖励偏差(长度偏差、类别偏差、社会偏差)统一定义为"奖励不公平"问题,从资源分配视角提出两种偏差无关的缓解方法——公平正则化和公平系数——在不针对特定偏差设计的情况下有效缓解多种偏差,实现更公平的人类偏好对齐。

Reward Generalization in RLHF: A Topological Perspective

从信息拓扑的角度系统刻画 RLHF 中 reward 信息的流动——宏观层面将 RLHF 建模为自编码过程,微观层面提出 Induced Bayesian Network (IBN) 分析偏好数据拓扑对 reward 泛化的影响,进而提出树结构偏好数据方法,在 HH-RLHF/GSM-8K/DialogSum 三个任务上平均 65% win rate 超越链式 baseline。

Rewrite to Jailbreak: Discover Learnable and Transferable Implicit Harmfulness Instruction

提出 R2J(Rewrite to Jailbreak),一种可学习、可迁移的黑盒越狱方法——通过迭代训练 attacker LLM 学习改写有害指令(仅改措辞不改意图),相比 GCG/AutoDAN 等方法攻击成功率提高 20%+,且无额外前缀/后缀,更隐蔽且跨模型可迁移。

RISE: Subtle Errors in Reasoning: Preference Learning via Error-injected Self-editing

RISE 发现 LLM 约 75% 的数学错误是微妙的步内错误(数字替换、操作数交换、步骤遗漏),通过让 LLM 自编辑向正确解注入预定义微妙错误来构造高质量难负样本,配合错误感知 DPO 训练,仅用 4.5K 样本在 GSM8K 提升 3.0%、MATH 提升 7.9%,并泛化到逻辑推理和代码生成。

SEA: Low-Resource Safety Alignment for Multimodal Large Language Models via Synthetic Embeddings

提出 SEA 框架,通过梯度优化生成合成模态 embedding(不需要真实图像/视频/音频),仅用文本安全数据就能实现多模态 LLM 的安全对齐,在单张 RTX3090 上 24 秒即可合成高质量 embedding,同时发布了视频和音频安全基准 VA-SafetyBench。

SynthesizeMe! Inducing Persona-Guided Prompts for Personalized Reward Models in LLMs

提出SynthesizeMe,通过bootstrap推理→合成用户画像→筛选信息性示例三步流程,无需微调即可为个性化奖励模型构建有效prompt,在Chatbot Arena上提升LLM-as-a-Judge个性化准确率4.4%。

TableDreamer: Progressive and Weakness-Guided Data Synthesis from Scratch for Table Instruction Tuning

提出 TableDreamer 两阶段数据合成框架:第一阶段从零合成多样化表格及种子指令数据,第二阶段通过弱点引导的迭代输入空间探索(在三个方向上演化数据,并用 LLM-as-Judge 筛选模型表现差的样本作为下一轮种子),仅用 27K GPT-4o 合成数据即将 Llama3.1-8B 的平均准确率提升 11.62%,超越使用 80K-100K 数据的所有基线方法。

Teaching an Old LLM Secure Coding: Localized Preference Optimization on Distilled Preferences

提出 DiSCo(从前沿 LLM 蒸馏的安全代码偏好数据集,10K 实例覆盖 431 种 CWE)和 LPO(局部偏好优化算法,仅在安全相关 token 上传播损失),在四个安全编码基准上减少 19-40% 的安全问题,同时提升 3-10% 的代码质量。

Think&Cite: Improving Attributed Text Generation with Self-Guided Tree Search and Progress Reward Modeling

将归因文本生成(带引用的文本生成)建模为多步推理问题,提出自引导蒙特卡洛树搜索(SG-MCTS)结合进度奖励建模(PRM),通过多路径搜索+中间状态反思+生成/归因双维度进度奖励,在 ALCE 基准三个数据集上显著超越所有基线。

A Troublemaker with Contagious Jailbreak Makes Chaos in Honest Towns

提出 TMCHT 多智能体多拓扑攻击评估框架和 ARCJ(对抗性复制传染越狱)方法,解决了多智能体系统中单智能体攻击方法面临的"毒性消散"问题——通过优化检索后缀确保中毒样本易被检索,优化复制后缀使中毒信息具有传染性自我复制能力,在 line/star 拓扑和 100 智能体系统中分别提升 23.51%/18.95%/52.93% 的攻击成功率。


🦾 LLM Agent

A Multi-Agent Framework for Mitigating Dialect Biases in Privacy Policy Question-Answering Systems

提出多 Agent 协作框架缓解隐私政策 QA 中的方言偏差——Dialect Agent 将方言查询翻译为标准美式英语(SAE)并验证意图保留,Privacy Policy Agent 利用领域专长生成答案,两者迭代协商至达成一致。在 PrivacyQA 和 PolicyQA 上将 GPT-4o-mini 零样本准确率从 0.394 提升至 0.601,方言间最大 F1 差距降低 82%。

Agentic Reasoning: A Streamlined Framework for Enhancing LLM Reasoning with Agentic Tools

Agentic Reasoning 提出了一个将 Web 搜索、代码执行和知识图谱记忆(Mind-Map)三种 Agent 工具集成到 LLM 推理过程中的框架,在 DeepSeek-R1 上将 Humanity's Last Exam 准确率从 9.4% 提升到 23.8%(+14.4%),GPQA 从 71.5% 到 81.2%,接近 OpenAI Deep Research 水平。

AndroidGen: Building an Android Language Agent under Data Scarcity

提出AndroidGen——一个在数据稀缺条件下增强Android Agent能力的框架(ExpSearch+ReflectPlan+AutoCheck+StepCritic四模块),在AndroidWorld上以GPT-4o达到46.8%成功率(vs M3A的27.7%),并能自动生成高质量轨迹数据训练开源模型达到竞争力水平。

AndroidLab: Training and Systematic Benchmarking of Android Autonomous Agents

提出AndroidLab——首个统一训练和评估Android Agent的系统性框架,包含9个App上的138个可复现任务,同时支持纯文本(XML模式)和多模态(SoM模式)模型,并构建Android Instruct数据集(94.3k步骤),将开源LLM的成功率从4.59%提升至21.50%。

Assessing Agentic LLMs in Multilingual National Bias

首次研究 LLM 作为推理型 Agent 在多语言场景下的国籍偏见——在大学申请/旅行/搬迁三个决策场景中,让 GPT-3.5/GPT-4/Sonnet 对同一实体(大学/城市)用不同语言打分,发现普遍存在"本地语言偏向"(用中文问清华得 10 分,用英文问只得 7 分),GPT-4 在英语上偏见减少但非英语上偏见显著,CoT 不一定缓解反而可能放大偏差。

Bel Esprit: Multi-Agent Framework for Building AI Model Pipelines

提出 Bel Esprit——基于多 Agent 框架的对话式 AI 管线构建系统,通过子 Agent 协作(需求澄清→管线构建→验证→模型填充)将用户的模糊需求转化为由多个 AI 模型组成的可执行管线(如多语言视频配音→语音识别+翻译×3+TTS×3),在人工策划和合成数据上验证有效性。

Beyond Numeric Rewards: In-Context Dueling Bandits with LLM Agents

系统评估了 LLM 在 Dueling Bandits(偏好反馈强化学习)中的零样本上下文决策能力,发现 GPT-4 Turbo 在弱遗憾(weak regret)上表现出色但强遗憾(strong regret)存在差距,进而提出 LEAD 框架(LLM with Enhanced Algorithmic Dueling),通过将经典 DB 算法与 LLM 智能体细粒度自适应融合来同时获得理论保证和鲁棒性。

Caution for the Environment: Multimodal LLM Agents are Susceptible to Environmental Distractions

本文首次系统研究了多模态 GUI Agent 对环境干扰(弹窗广告、推荐内容等)的脆弱性,在无恶意攻击的自然场景下,即使最强的 MLLM(包括GPT-4o)也有 20-40% 的概率被环境中的无关内容分散注意力而执行偏离用户目标的操作。

Leveraging Dual Process Theory in Language Agent Framework for Real-time Simultaneous Human-AI Collaboration

提出 DPT-Agent,首个将双过程理论(Dual Process Theory)系统化地融入语言智能体框架的方法——用有限状态机(FSM)+code-as-policy 作为快速直觉的 System 1,用心智理论(ToM)+异步反思的 LLM 作为慢速深思的 System 2,首次实现了自主的实时同步人机协作(在 Overcooked 困难版中)。

EMULATE: A Multi-Agent Framework for Determining the Veracity of Atomic Claims by Emulating Human Actions

提出 EMULATE 多智能体事实核查框架,通过 7 个专职 LLM agent 模拟人类验证声明的完整行为链(搜索→排序→内容评估→证据充分性判断→分类),在三个事实核查 benchmark 上的 Macro-F1 和 Weighted-F1 均超越现有方法。

Explorer: Scaling Exploration-Driven Web Trajectory Synthesis for Multimodal Web Agents

提出 Explorer——一个可扩展的多智能体 pipeline,通过自主网页探索和逐步精炼来合成大规模多模态 web 轨迹数据集(94K 成功轨迹,49K+ URL,720K 截图),训练的 Explorer-7B 在 Mind2Web-Live、MiniWob++ 等 benchmark 上达到甚至超过 GPT-4 水平。

FACT-AUDIT: An Adaptive Multi-Agent Framework for Dynamic Fact-Checking Evaluation of Large Language Models

提出FACT-AUDIT——一个基于重要性采样和多智能体协作的自适应动态事实核查评估框架,通过动态生成测试数据、迭代探测模型弱点、并同时评估verdict预测和justification质量,全面审计LLM的事实核查能力边界。

GUI-explorer: Autonomous Exploration and Mining of Transition-aware Knowledge for GUI Agent

提出 GUI-explorer,一个无需训练的 GUI agent,通过自主探索收集功能感知的交互轨迹,并以无监督方式从状态转换三元组中挖掘 transition-aware 知识,在 SPA-Bench 和 AndroidWorld 上分别达到 53.7% 和 47.4% 的任务成功率。

GuideBench: Benchmarking Domain-Oriented Guideline Following for LLM Agents

提出 GuideBench 基准测试,系统评估 LLM 在领域导向指南遵循方面的能力,覆盖 7 个任务类别共 1272 个实例,从规则遵循、规则更新鲁棒性和人类偏好对齐三个维度评估 18 个 LLM,发现当前模型在复杂领域规则遵循上仍有较大提升空间。

Gödel Agent: A Self-Referential Agent Framework for Recursive Self-Improvement

提出 Gödel Agent,一种受 Gödel Machine 启发的自引用 Agent 框架,能通过 Python monkey patching 在运行时读取和修改自身代码(包括修改自身的修改逻辑),实现递归自改进,在 DROP/MGSM/MMLU/GPQA 上超越手工设计和元学习优化的 Agent。

iAgent: LLM Agent as a Shield between User and Recommender Systems

提出用户-Agent-平台三层范式,在用户和推荐系统之间插入 LLM Agent 作为保护层,通过指令解析、知识获取、重排序和动态用户画像实现个性化推荐,在四个数据集上平均提升 16.6%,同时有效缓解回音室效应和低活跃用户的不公平问题。

Enhancing Interpretable Image Classification Through LLM Agents and Conditional Concept Bottleneck Models

提出 Conditional Concept Bottleneck Models (CoCoBMs) 和 LLM-driven Concept Agent 框架,通过类别条件化的概念评分机制和基于环境反馈的动态概念库优化,在 6 个数据集上提升分类准确率 6% 的同时将可解释性提升约 30%。

Adaptive Tool Use in Large Language Models with Meta-Cognition Trigger

提出 MeCo(Meta-Cognition Trigger),通过表示工程从 LLM 内部提取"元认知信号"——模型对自身能力的自我评估——来自适应决定是否需要调用外部工具,无需微调且计算开销极小,在多个骨干模型和基准上显著改善工具使用决策的准确性。

Unveiling Privacy Risks in LLM Agent Memory

本文系统研究了 LLM Agent 记忆模块的隐私风险,提出 MEXTRA 黑盒记忆提取攻击,通过精心设计的定位-对齐攻击 prompt 和自动化多样 prompt 生成方法,在医疗和网购两种 Agent 上成功提取大量私人查询记录。

A Multi-Agent Framework for Mitigating Dialect Biases in Privacy Policy Question-Answering Systems

提出一个双 Agent 框架(Dialect Agent + Privacy Policy Agent),通过方言感知翻译和迭代协作来消除隐私政策QA系统在不同英语方言间的性能差距,无需重训练或方言特定微调,在 PrivacyQA 和 PolicyQA 上将方言间最大性能差距降低最高 82%。

Multiple LLM Agents Debate for Equitable Cultural Alignment

提出 Multi-Agent Debate 框架,让两个 LLM agent 围绕文化场景进行辩论并由 judge LLM 仲裁,在 NormAd-eti 基准上显著提升文化适应准确率和跨文化群体公平性,使 7-9B 小模型达到 27B 模型的性能水平。

NexusSum: Hierarchical LLM Agents for Long-Form Narrative Summarization

提出 NexusSum,一个三阶段多Agent LLM框架(对话转描述→层次摘要→迭代压缩),无需微调即可处理书籍/电影/电视剧等长叙事文本的摘要生成,在 BookSum 上 BERTScore 提升达 30%。

OS-Kairos: Adaptive Interaction for MLLM-Powered GUI Agents

提出 OS-Kairos,通过协作探测框架标注每步置信度分数并微调进基座模型,使 GUI Agent 能在每步预测置信度、自主决定执行或请求人类干预,在复杂场景下任务成功率 (TSR) 从 OS-Atlas-Pro-7B 的 14.29% 提升到 88.20%,在 AITZ 和 Meta-GUI 基准上也有 24~87% 的绝对提升。

OS Agents: A Survey on MLLM-based Agents for General Computing Devices Use

首篇全面综述 MLLM 驱动的操作系统代理(OS Agents),系统梳理其基础组件、构建方法、评估基准和未来方向。

OS Agents: A Survey on MLLM-based Agents for Computer, Phone and Browser Use

首个系统性综述基于(多模态)大语言模型的操作系统智能体(OS Agents),覆盖基础概念、构建方法(基础模型+Agent框架)、评估基准和商业产品,全面梳理了从CogAgent到Anthropic Computer Use等50+工作的技术演进。

OS-Genesis: Automating GUI Agent Trajectory Construction via Reverse Task Synthesis

提出OS-Genesis,一种"先交互探索再逆向生成任务"的GUI agent轨迹数据合成范式,通过无人监督的UI元素遍历收集状态转移三元组,逆向合成任务指令后用Trajectory Reward Model质量控制,在AndroidWorld上将Qwen2-VL-7B性能从9.82%提升至17.41%,接近GPT-4o的23.70%。

Play2Prompt: Zero-shot Tool Instruction Optimization for LLM Agents via Tool Play

提出 Play2Prompt,通过让 LLM 自主"玩"工具(试探输入输出行为)来零样本地生成工具使用示例和优化工具文档,无需任何标注数据即可显著提升 LLM agent 的工具调用能力。

R2D2: Remembering, Replaying and Dynamic Decision Making with a Reflective Agentic Memory

R2D2 提出了一个结合 Remember(经验回放缓冲区 + A* 搜索导航)和 Reflect(错误反思 + 反思记忆存储)两范式的 Web Agent 框架,将 Web 导航从 Unknown MDP 转化为 Known MDP,在 WebArena 上导航错误减少 50%,任务完成率提升 3 倍,超越 SOTA 17%。

REPRO-Bench: Can Agentic AI Systems Assess the Reproducibility of Social Science Research?

本文提出 REPRO-Bench,一个包含 112 个社会科学论文实例的基准,用于评估 AI Agent 自动化评估论文可重复性的能力;现有最佳 Agent 准确率仅 21.4%(低于随机猜测的 25%),作者进一步开发的 REPRO-Agent 将准确率提升至 36.6%(71% 相对提升)。

REPRO-Bench: Can Agentic AI Systems Assess the Reproducibility of Social Science?

提出 REPRO-Bench,包含 112 个社会科学论文的可复现性评估任务,发现现有 AI Agent(最高准确率仅 21.4%)远不足以自动化该流程,并据此开发 REPRO-Agent 将准确率提升至 36.6%。

Select, Read, and Write: A Multi-Agent Framework of Full-Text-based Related Work Generation

提出 Select-Read-Write 三 Agent 协同框架,通过图感知的阅读顺序决策和共享工作记忆机制,实现基于论文全文(而非摘要)的 Related Work 自动生成,在 Llama3-8B / Claude-3-Haiku / GPT-4o 三个基座模型上均取得一致提升,Citation Graph 策略效果最优。

Self-Taught Agentic Long-Context Understanding

提出 AgenticLU 框架,通过 Chain-of-Clarifications (CoC) 工作流让 LLM 自主生成澄清问题并检索相关上下文,再通过 SFT+DPO 两阶段微调将树搜索路径蒸馏到模型中,使 8B 模型在 128K 长上下文 QA 任务上大幅超越基线。

SMART: Self-Aware Agent for Tool Overuse Mitigation

揭示 LLM Agent 中的"工具过度使用"现象(≥30% 的工具调用是不必要的),提出 SMART 元认知范式,通过在推理步骤中显式标注"知识驱动 vs 工具依赖"来训练 Agent 的自感知能力,7B 模型匹配 GPT-4o 水平。

SUDO: Screen-based Universal Detox2tox Offense for Agentic Security

提出 SUDO 两阶段攻击框架针对计算机使用 Agent:静态阶段用 Detox2tox 将恶意请求去毒化→生成执行计划→回毒化恢复恶意载荷;动态阶段用检查清单迭代优化攻击,在 MANUS 上达到 63.19% 攻击成功率。

SynWorld: Virtual Scenario Synthesis for Agentic Action Knowledge Refinement

SynWorld 提出让 Agent 在合成的虚拟场景中通过蒙特卡洛树搜索(MCTS)来探索和优化动作知识(工具描述和工作流),使 Agent 能够自主适应新环境的工具使用,在 ToolBench 上比 ReAct 基线提升约 9 个百分点。

Table-Critic: A Multi-Agent Framework for Collaborative Criticism and Refinement in Table Reasoning

提出 Table-Critic 多智能体框架,通过 Judge-Critic-Refiner-Curator 四个专门化 Agent 的协作批评与迭代精化,配合自进化模板树累积批评知识,在 WikiTQ 和 TabFact 上分别实现 73.7% 和 91.7% 的准确率,大幅超越现有方法。

The Behavior Gap: Evaluating Zero-shot LLM Agents in Complex Task-Oriented Dialogs

提出一个综合评估框架来量化 LLM agent 与人类专家在任务导向对话中的"行为差距"(dialog acts、工具使用、知识利用三个维度),发现行为差距随任务复杂度增加显著扩大(相关系数 0.963),缩小行为差距可平均提升 24.3% 性能。

Theorem-of-Thought: A Multi-Agent Framework for Abductive, Deductive, and Inductive Reasoning in Language Models

将推理建模为三个并行 agent(溢因、演绎、归纳),各自生成推理链并转化为形式化推理图(FRG),通过 NLI 引导的贝叶斯信念传播评估内部一致性,选择得分最高的推理图作为最终答案,在 WebOfLies 和 MultiArith 上一致超越 CoT/SC 基线。

ToolHop: A Query-Driven Benchmark for Evaluating Large Language Models in Multi-Hop Tool Use

提出ToolHop——首个query-driven构建的多跳工具使用评估数据集(995个多跳查询+3912个本地可执行工具),评估14个LLM后发现最强的GPT-4o仅达49.04%准确率,揭示了不同模型家族在工具使用策略上的显著差异。

ToolHop: A Query-Driven Benchmark for Evaluating Large Language Models in Multi-Hop Tool Use

提出 ToolHop——一个包含 995 个多跳查询和 3912 个本地可执行工具的基准数据集,通过"查询驱动"的数据构建方式(先有查询再造工具)确保工具间有真实依赖关系和可验证答案,评测 14 个 LLM 发现最强的 GPT-4o 准确率仅 49%,揭示了不同模型家族在工具使用上的显著策略差异。


✍️ 文本生成

A Representation Level Analysis of NMT Model Robustness to Grammatical Errors

从模型内部表示视角分析 NMT 对语法错误的鲁棒性机制——发现编码器先"检测"语法错误(GED 探测精度在前半层上升),再"纠正"它(不正确词的表示向正确形式靠拢),并识别出"鲁棒性头"(Robustness Heads)——特定注意力头关注可解释的语言单元以修正错误表示,微调后模型更多依赖这些头。

An Empirical Study of Many-to-Many Summarization with Large Language Models

首次系统研究LLM在多对多摘要(M2MS)任务上的表现,整合8个数据集构建涵盖5个领域6种语言的47.8K样本基准,评测18个LLM发现零样本LLM可媲美微调传统模型,指令微调后显著超越,但事实性问题仍是关键瓶颈。

ATGen: A Framework for Active Text Generation

推出 ATGen——首个将主动学习(AL)与文本生成(NLG)任务桥接的综合框架,支持人类标注和 LLM 自动标注,集成 SOTA AL 策略和实验设计方法,提供 Web 标注界面和统一基准平台。实验证明 AL 显著减少人工标注时间和 LLM API 调用成本。

Beyond N-Grams: Rethinking Evaluation Metrics and Strategies for Multilingual Abstractive Summarization

系统评估了 n-gram 和神经指标在 8 种语言(4 种类型学家族)上与人工判断的相关性,发现 n-gram 指标在融合语言中可靠性差,而专门训练的神经指标 COMET 在所有语言上一致优于其他指标;还发现分词策略可以显著改善融合语言的评估效果。

Improving the Calibration of Confidence Scores in Text Generation Using the Output Distribution's Characteristics

针对文本生成中多个有效输出导致传统置信度指标失效的问题,提出两种任务无关的置信度度量——"比率"(头部vs中部概率比)和"尾部稀薄度"(分布尾部薄厚),仅依赖模型输出概率即可改善 BART/Flan-T5 在摘要、翻译、问答任务上的置信度校准。

CLEME2.0: Towards Interpretable Evaluation by Disentangling Edits for Grammatical Error Correction

本文提出 CLEME2.0,一种可解释的 GEC 参考评估指标,通过将编辑解耦为四类(正确纠正 TP、错误纠正 FPne、欠纠正 FN、过纠正 FPun)并结合编辑加权技术,在 GJG15 和 SEEDA 两个人工评判数据集上达到了与人工判断最高相关性的 SOTA 结果。

CoCoLex: Confidence-guided Copy-based Decoding for Grounded Legal Text Generation

提出 CoCoLex,一种无需训练的解码策略,通过置信度引导的动态插值将模型词表分布与上下文复制分布结合,鼓励从检索上下文中直接复制 token,在五个法律文本生成基准上显著提升生成文本对源文档的忠实性。

CodeIF: Benchmarking the Instruction-Following Capabilities of Large Language Models for Code Generation

提出 CodeIF,第一个系统性评估 LLM 在代码生成中指令遵循能力的基准,含 8 大类 50 个细粒度约束指令、4 种新评估指标,并对 35 个 SOTA 模型进行全面评估。

Context-Aware Hierarchical Merging for Long Document Summarization

提出上下文感知的层次合并(CAHM)方法,通过在层次合并摘要过程中引入源文档的相关上下文(抽取/检索/引用三种方式),有效缓解 LLM 在超长文档(>100K tokens)摘要中的幻觉问题。

Dehumanizing Machines: Mitigating Anthropomorphic Behaviors in Text Generation Systems

系统研究如何缓解文本生成系统的拟人化行为——编制基于文献和众包的干预手段清单,发展概念框架来表征干预空间、区分干预类型和评估干预效果,为减少用户对 AI 的过度依赖和情感依附提供理论和实证基础。

Dialogue Systems for Emotional Support via Value Reinforcement

提出 ES-VR,首个将人类价值观强化融入情感支持对话系统的方法,通过目标价值检测器和参考生成器(均在 Reddit 数据上训练),结合 SFT + DPO 两阶段训练,使支持者模型不仅能缓解求助者的负面情绪,还能探索和强化其积极价值观,实现更深层的内在转变。

Document-Level Text Generation with Minimum Bayes Risk Decoding using Optimal Transport

提出 MBR-OT,将最优传输(Wasserstein距离)引入最小贝叶斯风险(MBR)解码,实现用句子级效用函数评估文档级输出质量,在文档级机器翻译、文本简化和密集图像描述任务上显著优于标准 MBR 解码。

DynaCode: A Dynamic Complexity-Aware Code Benchmark for Evaluating Large Language Models in Code Generation

提出 DynaCode,一个动态复杂度感知的代码生成基准,通过将代码问题按圈复杂度分类并用调用图(Call Graph)组合嵌套,生成约 1.89 亿个唯一问题,有效缓解数据污染并系统评估 LLM 在不同复杂度下的代码生成能力。

EnSToM: Enhancing Dialogue Systems with Entropy-Scaled Steering Vectors for Topic Maintenance

提出 EnSToM,一种基于熵缩放转向向量的轻量级方法,通过利用 LLM 内部层级熵分布差异来动态调整转向强度,在不修改模型参数的情况下提升任务导向对话系统的主题维持能力。

Multi-document Summarization through Event Relation Graph Reasoning for Framing Bias Mitigation

提出基于多文档事件关系图的中立化摘要方法,通过构建包含文内事件关系(时间/因果/子事件/共指)、跨文档事件共指和事件级道德观点的知识图,以图文本化(硬提示)和图提示调优(软提示)两种方式引导 LLM 生成去偏见的中立摘要,在内容保持和偏见消除上均优于基线。

Exploring In-context Example Generation for Machine Translation

提出DAT(Demonstration Augmentation for Translation)——在无需任何外部资源的情况下,让LLM自动生成与用户查询相关且多样的源-目标句对作为in-context示例,在5个低资源语言翻译任务上超越zero-shot和固定示例的few-shot基线。

Exploring In-Image Machine Translation with Real-World Background

提出 DebackX 模型,通过将图像分离为背景和文字图像分别处理,首次解决了真实复杂背景下的图像内机器翻译 (IIMT) 任务,在翻译质量和视觉效果上均优于现有方法。

FEA-Bench: A Benchmark for Evaluating Repository-Level Code Generation for Feature Implementation

提出 FEA-Bench——首个评估 LLM 在仓库级代码库中实现新特性(Feature Implementation)能力的基准,包含来自 83 个 GitHub 仓库的 1401 个任务实例,每个实例配有单元测试。最强模型 DeepSeek-R1 仅解决约 10% 的任务,揭示了仓库级增量开发对当前 LLM 的巨大挑战。

gec-metrics: A Unified Library for Grammatical Error Correction Evaluation

提出 gec-metrics 统一库,将 10 种语法纠错 (GEC) 评估指标整合到统一接口中,并提供元评估功能,解决了现有 GEC 评估实现碎片化、不可复现、难以扩展的问题。

GiFT: Gibbs Fine-Tuning for Code Generation

提出 Gibbs Fine-Tuning(GiFT),受 Gibbs 采样启发,通过"代码→描述→代码"的迭代翻译从边际分布而非条件分布中采样自生成代码,结合困惑度引导的长尾数据选择,在 APPS+/MBPP+/CodeInsight 上比标准自训练提升最高 9.8%。

GrammaMT: Improving Machine Translation with Grammar-Informed In-Context Learning

提出 GrammaMT,利用语素间注释文本 (Interlinear Glossed Text, IGT) 的语法信息来增强 LLM 的 few-shot 机器翻译,在濒危语言上平均提升 12+ BLEU,在中高资源语言上也有一致改进。

IMPARA-GED: Grammatical Error Detection is Boosting Reference-free Grammatical Error Quality Estimator

在 IMPARA 的质量估计器构建之前,增加一步语法错误检测(GED)预训练,同时去掉失效的相似度估计器,使无参考 GEC 评估在 SEEDA 上达到句子级最高相关性。

LEMONADE: A Large Multilingual Expert-Annotated Abstractive Event Dataset for the Real World

发布 Lemonade——基于 ACLED 冲突数据的大规模多语言专家标注事件数据集(39,786 事件,20 种语言,171 个国家,10,707 实体),提出 Abstractive Event Extraction (AEE) 新任务范式,事件参数不限于文本 span 而是归一化为数值/类别/实体,配套 Zest 零样本实体链接系统在 AEL 子任务上 F1=45.7% 大幅超越 baseline 的 23.7%。

Machine Translation Models are Zero-Shot Detectors of Translation Direction

提出一种基于 NMT 模型翻译概率的无监督翻译方向检测方法:若 \(p(\text{translation}|\text{original}) > p(\text{original}|\text{translation})\),则可零样本判断平行文本的原始翻译方向,NMT 翻译的文档级检测准确率达 96%。

Has Machine Translation Evaluation Achieved Human Parity?

首次将人类基线引入 WMT Metrics Shared Task 的排名,发现最先进的自动指标经常与人类评估者排名持平甚至更高,但论证了现在声称"人类对等"为时尚早,并讨论了衡量 MT 评估进步的根本困难。

Multi-perspective Alignment for Increasing Naturalness in Neural Machine Translation

提出多视角对齐框架 (Multi-perspective Alignment),同时奖励翻译自然度和内容保留,通过翻译体分类器和 COMET 的联合奖励信号对 NMT 模型进行强化学习微调,使译文词汇更丰富且不损失翻译准确度。

Odysseus Navigates the Sirens' Song: Dynamic Focus Decoding for Factual and Diverse Open-Ended Text Generation

提出动态聚焦解码(DFD),通过追踪 LLM 各层间分布差异(KL 散度)来识别知识密集型解码步骤,自适应调整温度——知识密集步用低温保事实性,非知识密集步用高温促多样性——在七个数据集上同时提升事实性和多样性。

Personality-Guided Code Generation Using Large Language Models

让 GPT-4o 为每个编程任务生成适配的 MBTI 人格类型和描述,再让 LLM 以该人格角色扮演程序员生成代码,在 28 个 LLM-数据集组合中 23 个取得 pass rate 提升,最高达 12.9%,且可与 CoT 等策略叠加使用。

Registering Source Tokens to Target Language Spaces in Multilingual Neural Machine Translation

提出 Registering 方法:在源语言和目标语言 token 之间插入一组目标语言标记(registers),通过修改注意力掩码使目标生成仅依赖 registers 的激活,彻底解决多语言翻译中的 off-target 问题,使小模型 MITRE-913M 超越 NLLB-3.3B。

Reranking-based Generation for Unbiased Perspective Summarization

针对政治视角摘要任务,构建了受控测试集验证现有评估指标的可靠性,发现 LLM-based 指标远优于传统指标,并证明基于重排序(Reranking)的方法及在重排序数据上的 DPO 训练能显著提升摘要的覆盖性和忠实性。

Rethinking Evaluation Metrics for Grammatical Error Correction: Why Use a Different Evaluation Process than Human?

指出自动 GEC 评估与人类评估在聚合方式上的差距(人类用 TrueSkill 做成对比较后聚合,自动评估用平均/求和后排序),提出对所有自动指标统一使用 TrueSkill 聚合,在 SEEDA 基准上大幅提升多数指标与人类评估的相关性。

SeqPO-SiMT: Sequential Policy Optimization for Simultaneous Machine Translation

将同步机器翻译(SiMT)建模为多步序列决策问题,提出 SeqPO-SiMT 策略优化框架,融合翻译质量和延迟的奖励信号,在 7B LLM 上实现 SiMT 性能媲美离线翻译的强模型。

Towards Better Open-Ended Text Generation: A Multicriteria Evaluation Framework

针对开放式文本生成中多指标(coherence/diversity/perplexity)之间的权衡问题,提出三种互补的多准则评估方法——Extended Bradley-Terry 模型(序数排名)、Union-Free Generic Depth(允许不可比性的偏序)和 Q*Text(基数评估综合指标),在6个 LLM × 59种解码策略 × 180万+生成文本上验证,发现中等超参配置普遍优于极端配置,小模型+合理解码策略可匹敌大模型。

Tree-of-Evolution: Tree-Structured Instruction Evolution for Code Generation in Large Language Models

提出Tree-of-Evolution (ToE)——一种树结构的代码指令合成框架,通过多路径进化和质量驱动优化来克服现有方法(如Code Evol-Instruct/OSS-Instruct)的单向合成和随机生成限制,仅用75K合成数据微调base model即可达到或超越Qwen2.5-Coder-Instruct(数百万样本微调)的性能。

What Is That Talk About? A Video-to-Text Summarization Dataset for Scientific Presentations

构建了 VISTA 数据集(18,599 个 AI 会议演讲视频-摘要对),首次系统性基准测试科学视频到文本摘要任务,并提出基于计划(plan-based)的框架,通过显式建模摘要结构来提升生成质量和事实一致性。

Writing Like the Best: Exemplar-Based Expository Text Generation

定义"基于范例的说明文生成"新任务——给定一篇关于源主题的范例文本,生成关于目标主题的说明文,提出 Recurrent Plan-then-Adapt(RePA)框架,通过逐段模仿规划+检索增强自适应生成+双记忆机制,在 Wikipedia/RoleEE/USNews 三个数据集上显著优于 GPT-4 和 o1 基线。


📖 NLP 理解

A Variational Approach for Mitigating Entity Bias in Relation Extraction

将变分信息瓶颈(VIB)应用于关系抽取的实体去偏——将实体映射到概率分布 \(\mathcal{N}(\mu,\sigma)\),通过方差控制实体信息的压缩程度(高方差=更多依赖上下文),在 TACRED/REFinD/BioRED 三个领域(通用/金融/生物医学)的域内和域外设置上达到 SOTA,同时方差分析提供可解释性。

Adapting Psycholinguistic Research for LLMs: Gender-Inclusive Language in a Coreference Context

将心理语言学方法从法语适配到英语和德语,研究 LLM 如何处理性别包容性语言——发现英语 LLM 基本保持先行词性别一致但内含男性默认偏见(不愿用 they 单数),德语 LLM 男性偏见更强烈(压倒所有性别中性化策略),但德语性别包容形式确实增加了女性/中性性别的出现概率。

Analyzing Political Bias in LLMs via Target-Oriented Sentiment Classification

提出基于目标导向情感分类(TSC)不一致性的 LLM 政治偏见分析新方法——在 450 个政治句子中插入 1319 名不同政治光谱/人口特征的政治家名字,用 7 个模型×6 种语言预测情感,定义熵基不一致性指标量化预测变异性,发现所有模型均存在显著偏见(左翼正面/极右翼负面),大模型偏见更强且更一致,用虚构名字替换可部分缓解。

ArgHiTZ at ArchEHR-QA 2025: A Two-Step Divide and Conquer Approach to Patient Question Answering for Top Factuality

在 ArchEHR-QA 2025 共享任务中提出两阶段"分治"方法:先用重排序模型从电子健康记录中提取关键句子,再用小型医学 LLM 生成回复,在不使用外部知识的情况下取得事实性排名第一、总分第 8/30 的成绩。

AskQE: Question Answering as Automatic Evaluation for Machine Translation

提出 AskQE——基于问答的机器翻译质量估计框架,通过对源文本生成问题、分别在源文本和回译输出上回答、对比答案差异来检测翻译错误,帮助不懂目标语言的用户判断翻译是否可接受,在 BioMQM 数据集上 Kendall's τ 相关和决策准确率均优于现有 QE 指标。

Automatic Generation of Inference Making Questions for Reading Comprehension Assessments

开发了一套阅读理解推理题分类法(代词桥接/文本连接/填补空白),用 GPT-4o few-shot 提示自动生成针对特定推理类型的多项选择题;93.8% 的题目质量合格,但仅 42.6% 准确匹配目标推理类型,说明 LLM 在精确推理能力控制上仍有不足。

BelarusianGLUE: Towards a Natural Language Understanding Benchmark for Belarusian

为白俄罗斯语(Belarusian,东斯拉夫语族)构建了首个NLU benchmark——BelarusianGLUE,包含5个任务约15K条实例,系统评估了BERT系列和LLM的表现,发现简单任务(情感分析)接近人类水平但难任务(Winograd)仍有显著差距,且最优模型类型因任务而异。

BESSTIE: A Benchmark for Sentiment and Sarcasm Classification for Varieties of English

构建 BESSTIE,首个针对英语变体(澳大利亚/印度/英国英语)的情感分析和讽刺检测标注基准,通过 9 个微调 LLM 评估发现模型在印度英语(外圈变体)上表现显著差于内圈变体,跨变体泛化能力也有限。

BookCoref: Coreference Resolution at Book Scale

提出首个书级别共指消解基准BookCoref,通过角色链接+LLM过滤+窗口扩展的自动标注管线,在50本完整小说上生成高质量银标注数据,平均文档长度超过20万tokens。

CaLMQA: Exploring Culturally Specific Long-Form Question Answering across 23 Languages

构建了首个多语言长文本问答数据集 CaLMQA(51.7K 问题,23 种语言),通过无翻译方式收集文化特异性问题,发现 LLM 回答文化特异性问题的事实性(45-52%)显著低于文化无关问题(64-71%),低资源语言表现尤其差。

Can LLMs Reliably Simulate Real Students' Abilities in Mathematics and Reading Comprehension?

利用项目反应理论(IRT)将11个LLM与真实学生放在同一能力量表上评估,发现在无引导情况下强模型远超学生平均水平,而"扮演某年级学生"的提示虽能改变表现,但没有任何模型-提示组合能在所有学科和年级上可靠模拟平均学生。

CompKe: Complex Question Answering under Knowledge Editing

提出CompKe基准——包含11,924个复杂问题——用于评估知识编辑方法在涉及一对多关系、逻辑操作(交集/并集)和条件确认的复杂推理场景下的表现,揭示现有方法在复杂问答上的显著不足。

ComRAG: Retrieval-Augmented Generation with Dynamic Vector Stores for Real-time Community Question Answering in Industry

提出ComRAG——一个面向工业实时社区问答的检索增强生成框架,通过静态知识向量库+高/低质量动态QA向量库的三库架构和质心记忆机制,在三个CQA数据集上获得向量相似度最高25.9%的提升,同时降低延迟8.7%-23.3%。

Disambiguate First, Parse Later: Generating Interpretations for Ambiguity Resolution in Semantic Parsing

提出"先消歧、后解析"的模块化方法,利用LLM生成默认解释并训练专门的infilling模型补全缺失解释,将歧义自然语言问题转化为多个明确解释后再分别进行SQL解析。

Dynamic Order Template Prediction for Generative Aspect-Based Sentiment Analysis

提出 Dynamic Order Template(DOT)方法用于生成式方面级情感分析——为每个实例动态创建最优的预测模板顺序(只含必要的视角),在 ASQP 和 ACOS 数据集上提升 F1 的同时显著减少推理时间。

Beyond Prompting: An Efficient Embedding Framework for Open-Domain Question Answering

EmbQA 提出嵌入级 ODQA 框架,用轻量线性层和无监督对比学习优化查询表示实现段落重排序,并引入基于序统计量的探索性嵌入扩展候选答案多样性,配合熵选择机制自动选答,在 4 个 ODQA 数据集上以更低计算成本超越 SuRe 等 prompt 级方法。

End-to-End Dialog Neural Coreference Resolution: Balancing Efficiency and Accuracy in Large-Scale Systems

提出一个端到端神经共指消解系统,通过结合上下文嵌入、层次化注意力机制和优化策略(剪枝/量化),在OntoNotes等基准数据集上实现效率与准确率的平衡,SpanBERT达到87.3 F1。

From Ambiguity to Accuracy: The Transformative Effect of Coreference Resolution on RAG Systems

本文系统研究了共指消解(coreference resolution)对 RAG 系统中文档检索和问答生成两阶段的影响,发现共指消解能一致性提升检索性能(尤其 mean pooling 模型受益最大),在 QA 任务中小模型的性能提升显著大于大模型,甚至使小模型达到大模型的基线水平。

Towards a More Generalized Approach in Open Relation Extraction

提出 MixORE 框架,在更通用的 Open Relation Extraction 设定下(无标注数据同时包含已知和新颖关系,且不做长尾或预分割假设),通过 Semantic Autoencoder 检测新关系 + 开放世界半监督联合学习,在 FewRel/TACRED/Re-TACRED 上全面超越 SOTA。

Generating Diverse Training Samples for Relation Extraction with Large Language Models

研究如何用LLM为关系抽取(RE)生成高质量且多样化的训练样本,提出基于ICL的逐条生成策略和基于DPO的多样性微调方法,生成的训练数据可有效提升few-shot RE模型性能。

GG-BBQ: German Gender Bias Benchmark for Question Answering

将英语BBQ偏见基准数据集的性别子集翻译为德语,经人工审校后创建GG-BBQ德语性别偏见评估基准,揭示了机器翻译在性别偏见评估数据集构建中的局限性,并评估了多个德语LLM的偏见表现。

GRAF: Graph Retrieval Augmented by Facts for Romanian Legal Multi-Choice Question Answering

提出GRAF算法,结合法律知识图谱(Law-RoG)和图注意力网络进行罗马尼亚语法律多选题问答,同时开源了首个罗马尼亚语法律MCQA数据集JuRO(10,836题)和法律语料库CROL。

Hierarchical Retrieval with Evidence Curation for Open-Domain Financial QA

HiREC 提出分层检索与证据策展框架,先检索相关文档再从中选取段落,并通过过滤无关段落 + 自动生成补充查询来补全缺失信息,在包含 14.5 万篇 SEC 文档的 LOFin 基准上相比最优 RAG 基线提升 13%+ 答案准确率。

iQUEST: An Iterative Question-Guided Framework for Knowledge Base Question Answering

iQUEST 提出迭代式子问题引导框架,在每一步推理中动态生成当前可解答的子问题以维持推理方向,并结合 GNN 聚合二跳邻居语义信息实现"前瞻性"实体探索,在 CWQ、WebQSP、WebQuestions、GrailQA 四个基准上取得 SOTA 或接近 SOTA 的性能,且无需微调 LLM。

KnowCoder-X: Boosting Multilingual Information Extraction via Code

提出 KnowCoder-X,通过统一的 Python 类表示多语言 IE schema,并引入 IE 跨语言对齐指令微调阶段(含高质量 ParallelNER 数据集),在 64 个 IE 基准上大幅提升跨语言信息抽取性能。

LACA: Improving Cross-lingual Aspect-Based Sentiment Analysis with LLM Data Augmentation

提出 LACA 框架,利用 LLM 为目标语言生成高质量伪标注数据(而非依赖机器翻译),在六种语言上显著提升跨语言 ABSA 性能,在 mBERT 和 XLM-R 上分别平均超过前 SOTA 1.50% 和 2.62%。

Mitigating Lost-in-Retrieval Problems in RAG Multi-Hop QA

本文识别 RAG 多跳问答中的"检索丢失"(lost-in-retrieval)问题——子问题分解后后续子问题因缺少关键实体导致检索性能骤降,提出 ChainRAG 框架通过构建句子图 + 渐进式检索 + 子问题重写(补全缺失实体)形成完整推理链,在 MuSiQue、2Wiki、HotpotQA 三个数据集上一致超越基线。

NeuSym-RAG: Hybrid Neural Symbolic Retrieval with Multiview Structuring for PDF Question Answering

NeuSym-RAG 提出了一个混合神经-符号检索框架,将 PDF 文档通过多视角分块解析同时存入关系数据库和向量库,LLM Agent 通过可执行动作(SQL 查询 + 向量检索 + 查看图片等)迭代式交互检索,在学术论文 QA 上比经典 RAG 提升 17.3%。

Exploring Persona Sentiment Sensitivity in Personalized Dialogue Generation

大规模分析 LLM 对人设情感极性的敏感性,发现负面人设导致过度强调人设属性和对话矛盾、弱/中性人设产生低质量对话,提出结合逐轮生成、人设排序和情感感知提示的对话生成框架来缓解这些问题。

ReSCORE: Label-free Iterative Retriever Training for Multi-hop Question Answering with Relevance-Consistency Supervision

提出 ReSCORE,利用 LLM 生成的文档-问题相关性(relevance)和文档-答案一致性(consistency)的联合概率作为伪标签,在迭代 RAG 框架中无监督训练 dense retriever,在三个多跳 QA 数据集上达到 SOTA。

YESciEval: Robust LLM-as-a-Judge for Scientific Question Answering

提出YESciEval框架,结合九维细粒度评估准则和SFT+RL对齐策略来缓解LLM评估者的乐观偏差(optimism bias),在科学问答场景下构建鲁棒的开源LLM-as-a-Judge系统,无需人类标注和闭源模型。


💡 LLM 推理

Aristotle: Mastering Logical Reasoning with A Logic-Complete Decompose-Search-Resolve Framework

提出 Aristotle 逻辑推理框架,将符号表达式和逻辑规则全面融入 Decompose-Search-Resolve 的每个阶段,通过逻辑分解器、搜索路由器和消解器三大组件实现逻辑完备的推理,在多个逻辑推理基准上以 GPT-4 平均提升 4.5%、GPT-4o 平均提升 5.4% 超越 SOTA。

BPP-Search: Enhancing Tree of Thought Reasoning for Mathematical Modeling Problem Solving

提出 BPP-Search 算法,将 Beam Search、过程奖励模型 (PRM) 和 Pairwise Preference 机制整合到 Tree-of-Thought 框架中,用于运筹学数学建模问题的自动求解,在 StructuredOR 等数据集上以更少的推理步骤显著超越 CoT/SC/ToT 基线。

Chain-of-Reasoning: Towards Unified Mathematical Reasoning in Large Language Models via a Multi-Paradigm Perspective

提出 Chain-of-Reasoning(CoR)框架,将自然语言推理(NLR)、算法推理(AR)和符号推理(SR)三种范式统一在一个推理链中,通过渐进范式训练(PPT)策略让 7B 模型(CoR-Math-7B)在零样本下超越 GPT-4o 41% 的定理证明准确率,在 MATH 基准上超过 RL 方法 15%。

CoT-UQ: Improving Response-wise Uncertainty Quantification in LLMs with Chain-of-Thought

针对 LLM 在推理任务中过度自信的问题,提出 CoT-UQ 框架,将 CoT 推理步骤中的关键词提取和重要性评分整合到不确定性量化过程中,在逻辑和数学推理任务上 AUROC 平均提升 5.9%。

Critic-CoT: Boosting the Reasoning Abilities of Large Language Model via Chain-of-Thoughts Critic

提出 Critic-CoT 框架,通过逐步 Chain-of-Thought 批判范式和无需人工标注的弱监督数据自动构建,将 LLM 的自我批判从 System-1 式直觉判断推向 System-2 式慎重逐步分析;两阶段训练(GPT-4 蒸馏 + 自我批判)使 Llama-3-70B-Instruct 在 GSM8K 从 89.6% 提升至 95.4%,MATH500 从 50.4% 提升至 68.4%,并发现批判能力与任务求解能力可以相互增强。

Fine-Tuning on Diverse Reasoning Chains Drives Within-Inference CoT Refinement in LLMs

提出 Diverse Chain of Thought (DCoT) 训练方法,通过在单次推理中生成多条串行推理链实现"推理内自修正"(within-inference refinement),在 1.3B–70B 模型上均超越标准 CoT 基线,尤其在大输出空间任务(数值/抽取型)上提升显著。

DeFine: Decision-Making with Analogical Reasoning over Factor Profiles

提出 DeFine 框架,从财报电话会议等复杂场景的语音转录文本中构建概率因子画像(factor profile),结合 Bradley-Terry 模型识别关键因子并通过因子画像间的 KL 散度做类比推理,用于辅助 LLM 在不确定性下做投资决策,准确率和 F1 均超越基线。

Dynamic and Generalizable Process Reward Modeling

DG-PRM 提出了一种动态可泛化的过程奖励建模框架,通过奖励树存储多维度评估标准并动态选择步骤相关的奖励信号,用 Pareto 支配估计处理多面奖励,在 PRMBench 上达到 SOTA 且具有优异的跨领域泛化能力。

DRT: Deep Reasoning Translation via Long Chain-of-Thought

将长 CoT 推理引入机器翻译,构建多智能体框架(翻译器→顾问→评估器)迭代精炼含比喻/隐喻的文学翻译,合成 22K 长思维翻译训练样本,训练的 DRT-14B 在文学翻译上超越 QwQ-32B 和 DeepSeek-R1-Distill-32B 等大模型。

Unlocking General Long Chain-of-Thought Reasoning Capabilities of Large Language Models via Representation Engineering

从表示空间角度发现 LLM 将长 CoT 推理编码为一种与普通 CoT 明确区分的通用能力,提出 GLoRE(General Long CoT Reasoning via Representation Engineering)——通过对比推理模式注入和领域特定表示调整来解锁长 CoT 能力,无需训练即可在域内和跨域场景下超越 SFT 方法。

Improve Vision Language Model Chain-of-thought Reasoning

通过GPT-4o蒸馏193k CoT数据做SFT + 基于答案正确性构建偏好对做DPO,显著提升VLM的CoT推理能力(LLaVA-Reasoner在8个benchmark上CoT平均提升12.6%),且CoT训练还能反哺直接预测性能。

Local Look-Ahead Guidance via Verifier-in-the-Loop for Automated Theorem Proving

提出 LeanListener,在自动定理证明(ATP)中引入 verifier-in-the-loop 设计,利用 Lean 验证器在每步提供中间反馈(子目标数变化)而非仅轨迹级奖励,通过在线 GRPO 训练使 ReProver 的 tactic 有效率和证明率均获提升,证明速度快 20%。

LogicPro: Improving Complex Logical Reasoning via Program-Guided Learning

提出 LogicPro 数据合成方法,利用 LeetCode 算法题和 Python 代码解作为逻辑源,通过"问题生成→代码中间变量提取→程序引导推理生成"三步流水线,从 2360 道算法题合成 540K 高质量文本推理数据,在 BBH27、LogicBench、DROP 等多个 OOD 基准上显著超越现有推理数据集。

Linguistic Generalizability of Test-Time Scaling in Mathematical Reasoning

提出 MCLM(55 语言的竞赛级数学基准),发现三种 test-time scaling 方法(ORM/PRM/Budget Forcing)在英语上提升显著(如 AIME +20 分),但在其他语言上平均仅提升 1.94 分,表明 test-time scaling 的多语言泛化能力严重不足。

One Missing Piece for Open-Source Reasoning Models: A Dataset to Mitigate Cold-Starting Short CoT LLMs in RL

构建 100K 长 CoT 数据集解决开源短 CoT LLM 在 RL 训练中的冷启动问题——用 1K 种子数据捕捉 o1 的推理流模式,然后用短 CoT LLM (GPT-4o) 扩展为长推理链,训练后的模型在 RLVR 初始化后获得 2-3 倍更大的收益。

PCoT: Persuasion-Augmented Chain of Thought for Detecting Fake News and Social Media Disinformation

提出 PCoT,一种零样本方法,利用说服知识增强虚假信息检测——受心理学研究启发(识别说服谬误可提高假新闻检测),两阶段处理:先识别分析说服信号,再将说服分析融入推理判断,平均提升 15%。

PCoT: Persuasion-Augmented Chain of Thought for Detecting Fake News and Social Media Disinformation

提出 PCoT(说服增强的思维链)方法,通过两阶段推理——先让 LLM 分析文本中的说服策略,再结合说服分析结果判断是否为虚假信息——在零样本设置下,5 个 LLM 和 5 个数据集上平均提升 15% 的检测 F1。

Ranked Voting based Self-Consistency of Large Language Models

将 Self-Consistency 的多数投票升级为排序投票,让 LLM 每次推理生成多个候选答案的偏好排序而非单一答案,用三种排序投票方法(IRV/BCV/MRRV)聚合多次推理的排序信息,在 6 个数据集上一致超越传统 SC,最高提升 12.46%。

Rethinking the Role of Prompting Strategies in LLM Test-Time Scaling: A Perspective of Probability Theory

本文在 6 个 LLM × 8 种 prompting 策略 × 6 个 benchmark 上系统实验发现,随着 majority voting 采样次数增加,简单的 CoT 始终超越复杂 prompting 策略;并从概率论角度给出理论证明,提出 \(O(1)\) 复杂度的 scaling 性能预测方法和两种改进策略。

Revisiting Self-Consistency from Dynamic Distributional Alignment Perspective on Answer Aggregation

将 Self-Consistency 重新理解为采样分布与真实答案分布的动态对齐问题,揭示温度不仅控制采样随机性还直接塑造真实答案分布,据此提出置信度驱动的三阶段动态温度调节机制(FSD 阈值理论推导),在 10 个模型 × GSM8K/MATH 上零训练开销同时提升平均和最佳性能。

Safe: Enhancing Mathematical Reasoning in Large Language Models via Retrospective Step-aware Formal Verification

提出 Safe 框架,首次利用 Lean 4 形式化语言对 LLM 数学推理的每一步进行回顾性逐步验证,通过自动形式化+自动定理证明检测幻觉,并与前瞻性 PRM 分数融合,在多个数学数据集上取得 SOTA,同时发布包含 30,809 条形式化声明的 FormalStep 基准。

SoftCoT: Soft Chain-of-Thought for Efficient Reasoning with LLMs

提出 SoftCoT,用一个冻结的小型辅助模型(如 LLaMA-3.2-1B)生成实例特定的"软思维 token"(连续隐状态),通过可训练的投影模块映射到主 LLM 的表示空间作为推理前缀,实现参数高效的连续空间 CoT 推理,避免了全模型微调导致的灾难性遗忘问题。

STRICTA: Structured Reasoning in Critical Text Assessment for Peer Review and Beyond

提出 STRICTA 框架,将专家文本评估(如论文审稿)建模为基于结构因果模型(SCM)的逐步推理图,收集 40+ 生物医学专家对 22 篇论文的 4000+ 推理步骤数据,揭示先验知识差异是评审分歧的主因、写作风格对终审影响过大,并发现 LLM 在人工监督下可有效辅助结构化评估。

Is That Your Final Answer? Test-Time Scaling Improves Selective Question Answering

首次评估 test-time scaling 模型(DeepSeek R1、S1)在选择性问答(允许拒绝回答)场景下的表现,发现增加推理计算不仅提高正确率还提升对正确答案的置信度,提出基于置信度阈值的选择函数和 "Jeopardy Odds" 效用函数来评估非零错误惩罚下的 test-time scaling 性能。

ThinkGuard: Deliberative Slow Thinking Leads to Cautious Guardrails

通过从 GPT-4o/DeepSeek-R1 蒸馏结构化批判(安全标签+详细推理理由),微调护栏模型实现"慢思考"式安全判断,在 4 个安全 benchmark 上达到最高平均 F1(75.5%)和 AUPRC(79.5%),相比 LLaMA Guard 3 准确率提升 16.1%、宏 F1 提升 27.0%。

Towards Better Chain-of-Thought: A Reflection on Effectiveness and Faithfulness

系统分析 CoT 有效性和忠实性的影响因素,发现 CoT 有效性取决于问题难度、信息增益和信息流向,忠实性是有效性的关键前提,提出 QUIRE 方法(先回忆再增强)提升有效性 2.4% 和忠实性 5.6%。

Towards Safety Reasoning in LLMs: AI-agentic Deliberation for Policy-embedded CoT Data Creation

提出 AIDsafe 多智能体迭代审议框架,自动生成嵌入安全策略的高质量 CoT 数据,微调后的模型在安全泛化和越狱鲁棒性上显著优于传统安全训练,同时引入 ear-whisperer agent 解决 DPO 偏好数据中 selected/rejected 难以区分的问题。

TRACT: Regression-Aware Fine-tuning Meets Chain-of-Thought Reasoning

提出 TRACT,一种两阶段回归感知微调方法,将 CoT 推理与回归损失(squared error)结合,用于提升 LLM-as-a-Judge 场景中的数值评分精度,显著优于仅用交叉熵训练或仅用回归损失的现有方案。

Training Turn-By-Turn Verifiers For Dialogue Tutoring Agents The Curious Case Of

提出 Traver(Trace-and-Verify)agent 工作流,通过知识追踪显式估计学生知识状态 + 逐轮验证器(turn-by-turn verifier)对候选辅导话语打分选优,并设计 Dict 自动评估协议(模拟学生 + 代码生成测试),在编程辅导场景中将学生 Pass 率从 38.7% 提升至 43.7%(相对提升 106.5%),显著超越 Vanilla Instruct、Self-Refine 和 TreeInstruct。

Unveiling the Key Factors for Distilling Chain-of-Thought Reasoning

系统研究影响 CoT 蒸馏的三大因素(粒度、格式、教师模型),发现 SLM 与粒度呈非单调关系、格式影响较小、强教师不总是更好。


🛡️ AI 安全

CENTAUR: Bridging the Impossible Trinity of Privacy, Efficiency, and Performance in Privacy-Preserving Transformer Inference

提出 Centaur 框架,融合随机置换矩阵和安全多方计算(SMPC)来打破隐私保护 Transformer 推理(PPTI)中的"不可能三角"——同时实现强隐私保护、5-30x 加速和明文级别推理精度。

Assessing Dialect Fairness and Robustness of Large Language Models in Reasoning Tasks

本文提出首个系统评估LLM在非标准方言(AAVE)推理任务中公平性与鲁棒性的研究,构建了包含1.2K+平行查询对的ReDial基准,发现几乎所有主流LLM在AAVE输入上表现出显著的性能下降和不公平。

Ensemble Watermarks for Large Language Models

提出集成水印方法,将文体特征(藏头词 acrostic + 感觉运动词 sensorimotor norms)与已有红绿水印组合,在 paraphrasing 攻击后三特征集成检测率达 95%,而单独红绿水印仅 49%。

FairI Tales: Evaluation of Fairness in Indian Contexts with a Focus on Bias and Stereotypes

发布 Indic-Bias——首个印度社会文化的大规模 LLM 公平性 benchmark,覆盖 85 个身份群体(种姓/宗教/地区/部落),20,000 个场景模板+3 类评估任务,14 个 LLM 评测揭示模型对达利特等边缘群体系统性负面偏见且 70%+ 案例中强化刻板印象。

Fairness through Difference Awareness: Measuring Desired Group Discrimination in LLMs

本文挑战了主流公平性研究中"对所有群体一视同仁即为公平"的假设,提出"差异意识"(Difference Awareness)概念,构建了包含8个基准共16k问题的评测套件,发现现有"最公平"的LLM在该维度上表现不佳,且现有去偏方法会适得其反。

From Trade-off to Synergy: A Versatile Symbiotic Watermarking Framework for Large Language Models

提出SymMark共生水印框架,融合logits-based和sampling-based两类水印方法(串行/并行/混合三种策略),通过token熵和语义熵自适应选择水印策略,在可检测性、鲁棒性、文本质量和安全性上实现SOTA。

Gender Inclusivity Fairness Index (GIFI): A Multilevel Framework

提出 GIFI(Gender Inclusivity Fairness Index),一个多层次综合评估框架,涵盖代词识别、情感中立性、毒性、反事实公平性、刻板印象关联、职业公平性和推理性能一致性七个维度,在 22 个 LLM 上系统评估二元与非二元性别的公平性。

Improved Unbiased Watermark for Large Language Models

提出 MCmark,一族基于多通道(Multi-Channel)的无偏水印算法,通过将词表分割为 \(l\) 个段并在选中段内提升 token 概率来嵌入统计信号,在保持 LLM 原始输出分布的同时,可检测性比现有无偏水印提升超 10%。

Improving Fairness of Large Language Models in Multi-document Summarization

提出 FairPO(Fair Preference Optimization),通过扰动式偏好对生成和公平感知偏好调优,同时优化多文档摘要中的摘要级和语料级公平性。

Can LLM Watermarks Robustly Prevent Unauthorized Knowledge Distillation?

本文首次系统研究 LLM 水印在防止未授权知识蒸馏中的鲁棒性,提出三种水印去除攻击(无目标/有目标释义 + 推理时水印中和),发现有目标释义和水印中和可以彻底去除继承的水印,其中水印中和在保持知识迁移效率的同时实现零额外训练开销的水印去除。

MEGen: Generative Backdoor into Large Language Models via Model Editing

提出 MEGen,一种基于模型编辑的生成式后门攻击方法,能够仅通过少量样本修改少量局部参数,在 LLM 中注入生成式后门,使模型在触发时自由输出预设的危险内容。

MorphMark: Flexible Adaptive Watermarking for Large Language Models

MorphMark 通过多目标权衡分析框架揭示了绿表概率 P_G 在水印效果与文本质量之间的关键作用,并据此提出自适应调整水印强度 r 的方法——当 P_G 高时增强水印、P_G 低时减弱水印,实现了在不依赖额外模型训练的前提下同时提升水印可检测性和文本质量。

PrivaCI-Bench: Evaluating Privacy with Contextual Integrity and Legal Compliance

提出 PrivaCI-Bench,基于 Contextual Integrity 理论构建了目前最大的上下文隐私评估基准(154K 实例),涵盖真实法院案例、隐私政策和 EU AI Act 合规检查器合成数据,评估 LLM 在 HIPAA/GDPR/AI Act 下的法律合规能力。

Private Memorization Editing: Turning Memorization into a Defense to Strengthen Data Privacy in Large Language Models

提出 PME(Private Memorization Editing),将 LLM 的记忆化特性从安全弱点转化为防御手段,通过编辑 Feed Forward 层参数来移除已记忆的个人身份信息(PII),实现无需重训的隐私保护。

Robust and Minimally Invasive Watermarking for EaaS

提出 ESpeW(Embedding-Specific Watermark),一种嵌入特异性水印方法,通过在每个嵌入向量的不同位置注入独特水印,实现对 Embeddings as a Service (EaaS) 的鲁棒版权保护,抵抗各种水印移除攻击且对嵌入质量的影响小于 1%。

Robust Data Watermarking in Language Models by Injecting Fictitious Knowledge

提出一种基于虚构知识(Fictitious Knowledge)的数据水印方法,通过在训练数据中注入虚构但合理的实体及其属性描述,实现对 LLM 训练数据所有权的可追溯验证,水印抗数据预处理过滤且支持黑盒 QA 验证。

Sandcastles in the Storm: Revisiting Watermarking Impossibility

本文通过大规模实验和人类评估挑战了 "Watermarks in the Sand" (WITS) 的理论不可能性结论:证明随机游走攻击的两个关键假设在实践中不成立——混合(mixing)速度极慢(100% 的攻击文本仍可追溯原始来源)且质量预言机(quality oracle)不可靠(仅 77% 准确率),自动攻击仅 26% 成功率,人类质量审核后降至 10%。

SpeechFake: A Large-Scale Multilingual Speech Deepfake Dataset Incorporating Cutting-Edge Generation Methods

构建 SpeechFake,目前最大的语音深度伪造检测数据集——超 300 万样本、3000+ 小时、40 种生成工具(含最新 TTS/VC/Neural Vocoder)、46 种语言,在自有及未见测试集上展现强基线性能。

TIP of the Iceberg: Task-in-Prompt Adversarial Attacks on LLMs

本文提出 Task-in-Prompt (TIP) 攻击——一类通过在 prompt 中嵌入序列到序列任务(如密码解码、谜语、代码执行)来间接生成违禁内容的新型越狱攻击类别,并构建 PHRYGE benchmark 系统评估,证明该攻击可成功绕过 GPT-4o、LLaMA 3.2 等六种 SOTA LLM 的安全防护。

The Tug of War Within: Mitigating the Fairness-Privacy Conflicts in Large Language Models

发现 LLM 通过 SFT 增强隐私意识会显著降低公平性意识(trade-off),提出无训练方法 SPIN(抑制公平-隐私耦合神经元),基于信息论解耦两种意识,在 Qwen2-7B 上同时提升公平性 12.2% 和隐私意识 14.0%。

Efficiently Identifying Watermarked Segments in Mixed-Source Texts

提出两种高效方法(Geometric Cover Detector 和 Adaptive Online Locator)用于在长文混合来源文本中检测和精确定位水印片段,时间复杂度从 O(n²) 降至 O(n log n),在三种主流水印技术上均显著优于 baseline。

WET: Overcoming Paraphrasing Vulnerabilities in Embeddings-as-a-Service with Linear Transformation Watermark

揭示了现有 EaaS 嵌入水印(EmbMarker/WARDEN)可被改写攻击绕过,提出 WET(线性变换水印),通过秘密循环矩阵对嵌入做线性变换注入水印,理论和实验证明其对改写攻击具有鲁棒性,验证 AUC 接近 100%。


🎵 音频/语音

Finding A Voice: Exploring the Potential of African American Dialect and Voice Generation for Chatbots

研究将非裔美式英语(AAE)整合到聊天机器人中的效果——开发文本和语音 AAE 聊天机器人并用 AAE 说话者评估,发现文本 AAE 聊天机器人常表现不佳(方言生成不够自然),但语音聊天机器人结合非裔声音和 AAE 元素时用户体验更好,揭示了语言个性化的复杂性。

AI4Reading: Chinese Audiobook Interpretation System Based on Multi-Agent Collaboration

提出 AI4Reading,一个基于 11 个专业化 LLM Agent 协作的中文有声书解读系统,通过主题分析、案例扩展、编辑润色、口语化改写和整合修订等阶段自动生成解读稿,并用 TTS 合成音频,在解读脚本质量(简洁性、完整性、准确性、连贯性)上超过专业人工解读平台樊登读书。

Benchmarking Open-ended Audio Dialogue Understanding for Large Audio-Language Models

提出 ADU-Bench,一个包含 20,000+ 开放式音频对话的综合基准,覆盖 3 种通用场景、12 项技能、9 种语言和 4 类歧义处理,首次系统评估大型音频语言模型(LALM)的音频对话理解能力,在 16 个模型上的实验揭示了现有 LALM 在数学符号、角色扮演、多语言和语音歧义处理上的显著不足。

Autoregressive Speech Synthesis without Vector Quantization

MELLE 提出了一种基于连续 mel-spectrogram 帧的自回归语言模型 TTS 方法,通过回归损失 + 变分推断采样模块 + spectrogram flux loss 直接预测连续频谱帧,避免了向量量化带来的保真度损失和采样鲁棒性问题,单阶段模型即可达到与人类水平相当的语音合成质量。

Chain-Talker: Chain Understanding and Rendering for Empathetic Conversational Speech Synthesis

提出 Chain-Talker,通过三阶段链式建模(情感理解→语义理解→共情渲染)实现可解释的共情对话语音合成,并开发 CSS-EmCap 自动标注管道为对话语音生成情感描述。

CLaMP 3: Universal Music Information Retrieval Across Unaligned Modalities and Unseen Languages

提出 CLaMP 3 统一框架,通过对比学习将乐谱、演奏信号、音频录音与多语言文本对齐到共享表示空间,在无配对训练数据的模态间实现跨模态检索,并展现出对未见语言的强泛化能力。

ControlSpeech: Towards Simultaneous and Independent Zero-shot Speaker Cloning and Zero-shot Language Style Control

ControlSpeech 是首个同时实现零样本音色克隆和零样本语言风格控制的TTS系统,通过离散编解码器空间中的解耦表示和风格混合语义密度(SMSD)模块解决了风格控制中的多对多问题。

Different Speech Translation Models Encode and Translate Speaker Gender Differently

通过注意力探针分析不同架构的语音翻译模型如何编码说话人性别信息,发现传统编码器-解码器模型能较好保留性别信息,而新型 speech+MT 架构的适配器会显著擦除性别信息,导致翻译中出现更严重的阳性默认偏差。

DNCASR: End-to-End Training for Speaker-Attributed ASR

提出 DNCASR,一种端到端可训练的说话人归因 ASR 系统,通过链接神经聚类解码器和 ASR 解码器,联合训练生成带说话人标识的转录文本,在 AMI 会议数据上实现 cpWER 9.0% 的相对降低。

Does Your Voice Assistant Remember? Analyzing Conversational Context Recall and Utilization in Voice Interaction Models

系统性评估开源语音交互模型的对话历史回忆能力,提出 ContextDialog 基准,发现这些模型在回忆过去语音信息方面远弱于文本模型,且 RAG 方法也难以有效弥补这一差距。

Double Entendre: Robust Audio-Based AI-Generated Lyrics Detection via Multi-View Fusion

提出 DE-detect,一个仅以音频为输入的多视角晚期融合管线,通过结合自动转录歌词的文本特征和语音模型提取的歌词相关音频特征,实现了对 AI 生成歌词的鲁棒检测,在域内外均优于单模态方法。

Eta-WavLM: Efficient Speaker Identity Removal in Self-Supervised Speech Representations Using a Simple Linear Equation

提出 Eta-WavLM,通过简单的线性方程将 WavLM 自监督语音表示分解为说话人相关和说话人无关两个分量,无需复杂训练即可生成高质量的说话人解耦表示,在语音转换任务上全面超越现有方法。

GigaSpeech 2: An Evolving, Large-Scale and Multi-domain ASR Corpus for Low-Resource Languages

GigaSpeech 2 构建了一个约 30,000 小时的大规模低资源语言(泰语、印尼语、越南语)ASR 语料库,通过自动化爬取-转录-精炼管线从无标注 YouTube 视频生成高质量伪标签,训练的模型仅用 10% 参数量即可将 WER 比 Whisper large-v3 降低 25%-40%。

Investigating and Enhancing Vision-Audio Capability in Omnimodal Large Language Models

发现当前全模态大语言模型(OLLMs)在视觉-音频任务上显著弱于视觉-文本任务,原因在于视觉与音频模态之间缺乏直接对齐,并提出 Self-KD(自知识蒸馏)方法,利用 OLLM 自身的视觉-文本组件作为教师来增强视觉-音频能力。

MMS-LLaMA: Efficient LLM-based Audio-Visual Speech Recognition with Minimal Multimodal Speech Tokens

提出 MMS-LLaMA,通过早期音视频融合、动态查询分配的 AV Q-Former 和语速预测器三个模块,将多模态语音 token 压缩至每秒仅 3.5 个,在 LRS3 上以 0.72% WER 达到 SOTA 的同时减少 86% token 用量和 35.7% FLOPs。

On the Robust Approximation of ASR Metrics

提出一种无需真实标签的 ASR 性能指标近似方法,利用多模态统一 embedding 空间中的语音-文本相似度和高质量代理模型的 proxy metrics,训练回归模型预测 WER/CER,在 40+ 模型和 14 个数据集上绝对误差控制在个位数以内,超过最新基线 50% 以上。

Predicting Turn-Taking and Backchannel in Human-Machine Conversations Using Linguistic, Acoustic, and Visual Signals

提出首个融合语言、声学和视觉三模态信号预测对话中轮换(turn-taking)和反馈通道(backchannel)动作的端到端框架,并构建了包含 210+ 小时的 MM-F2F 面对面对话数据集,turn-taking F1 提升 10%,backchannel F1 提升 33%。

Spark-TTS: An Efficient LLM-Based Text-to-Speech Model with Single-Stream Decoupled Speech Tokens

提出 Spark-TTS,基于新型单流语音编解码器 BiCodec 和 Qwen2.5 LLM 的高效 TTS 系统,通过将语音解耦为低码率语义 token 和固定长度全局 token,实现零样本语音克隆和从粗到细的属性控制,在 Seed-TTS-eval 上达到 SOTA 可懂度。

Sparsify: Learning Sparsity for Effective and Efficient Music Performance Question Answering

Sparsify 提出三层稀疏化策略(稀疏掩码+自适应稀疏合并+关键子集选择)用于音乐表演视听问答(Music AVQA),在 MUSIC-AVQA 和 v2.0 两个 benchmark 上达到 SOTA(81.75%/81.30%),训练时间减少 28.32%,25% 数据即保持 74% 的全量性能。

SpeechIQ: Speech-Agentic Intelligence Quotient Across Cognitive Levels in Voice Understanding by Large Language Models

提出 SpeechIQ,一个基于 Bloom 认知分类学的层次化语音理解评估框架,从 Remember(WER)、Understand(语义相似度)、Apply(QA 准确率)三个层次综合评估语音 LLM 的智能水平,发现级联 ASR+LLM 系统在同规模下优于端到端多模态模型。

T2A-Feedback: Improving Basic Capabilities of Text-to-Audio Generation via Fine-grained AI Feedback

提出三个细粒度 AI 音频评分管线(事件出现/事件顺序/声学和谐质量)替代人工标注构建大规模音频偏好数据集 T2A-FeedBack(41K提示+249K音频),用偏好调优增强 TTA 模型的基础能力,在简单(AudioCaps)和复杂(T2A-EpicBench)场景下都显著提升多事件音频生成质量。

In-the-wild Audio Spatialization with Flexible Text-guided Localization

提出 TAS(Text-guided Audio Spatialization)框架,用灵活的文本提示(3D 空间位置描述或声源间相对位置描述)引导潜在扩散模型将单声道音频转换为双耳音频,构建了 376K 样本的 SpatialTAS 数据集,在模拟和真实录制数据上均超越现有方法,并基于 Llama-3.1-8B 开发了空间语义一致性评估模型。


⚡ LLM 效率

Extending LLM Context Window with Adaptive Grouped Positional Encoding: A Training-Free Method

提出 AdaGroPE(Adaptive Grouped Positional Encoding),一种无需训练的即插即用方法,通过让位置复用次数随距离递增式增长、并根据输入序列长度动态调整位置编码映射,将 LLM 上下文窗口外推到远超预训练长度,在多个 benchmark 上达到 SOTA 甚至超过原生长上下文模型。

CLaSp: In-Context Layer Skip for Self-Speculative Decoding

CLaSp 提出一种无需训练的自推测解码方法,通过动态规划算法在每个验证步骤后根据上下文动态调整跳层策略,利用上一次验证的完整隐状态作为目标来选择最优跳层集合,在 LLaMA3 系列上实现 1.3-1.7× 加速且不改变生成分布。

CNNSum: Exploring Long-Context Summarization with Large Language Models in Chinese Novels

构建了 CNNSum——基于中文小说的多尺度长文本摘要基准(695 样本,16k-128k tokens),通过人工标注确保质量,系统测评了 20+ 个 LLM,发现高级 LLM 倾向生成主观评述导致摘要模糊、小模型性价比更高、Base 版微调效果优于 Chat 版,且用短文本数据微调即可显著提升长文本摘要能力。

Dynamic Chunking and Selection for Reading Comprehension of Ultra-Long Context in Large Language Models

提出 Dynamic Chunking and Selection (DCS),通过基于语义相似度的动态分块和问题感知分类器的块选择,解决长文本固定分块导致的语义断裂问题,在 12 个长文本 QA 数据集上以 Llama3 为基座实现 single-hop 平均 35.50(+28.6%)和 multi-hop 平均 29.07(+20.0%)的提升,且在 256k token 输入下保持鲁棒。

GigaChat Family: Efficient Russian Language Modeling Through Mixture of Experts Architecture

介绍 GigaChat 系列——首个从头为俄语设计并预训练的 MoE 架构 LLM 家族,包含 20B 总参数/3.3B 激活参数的基座和指令微调模型,在俄语 benchmark 上达到同规模 SOTA,训练速度是同量级 dense 模型的 2 倍,推理延迟降低 40%。

Graph of Records: Boosting Retrieval Augmented Generation for Long-context Summarization with Graphs

提出 Graph of Records(GoR),将 LLM 历史响应与检索文本块构建为图结构,用 GNN 学习节点间的语义和逻辑关联,配合 BERTScore 自监督训练目标,在四个长文本全局摘要数据集上比检索基线提升 8-19%(ROUGE 指标)。

GradOT: Training-free Gradient-preserving Offsite-tuning for Large Language Models

从优化理论角度首次系统分析 Offsite-tuning 问题,提出梯度保持压缩分数(GCS),并基于此设计了 GradOT 方法,对 MHA 使用动态秩分解(DRD)、对 MLP 使用选择性通道剪枝(SCP),在免训练条件下同时实现性能保持和隐私保护。

KV-Latent: Dimensional-level KV Cache Reduction with Frequency-aware Rotary Positional Embedding

提出KV-Latent范式,通过对KV头的维度进行降采样将其映射到潜空间,仅需不到1%预训练量的额外训练即可恢复性能,在LLaMA-3-8B上KV Cache减少50%(dqk=dvo=64→50%缓存),同时TTFT延迟降低8%。

LADM: Long-context Training Data Selection with Attention-based Dependency Measurement

提出 LADM 框架,利用注意力机制的内在检索能力来度量长上下文数据中的跨 span 依赖关系,从大规模预训练语料中高效筛选高质量长上下文训练数据,仅用 1B token 持续预训练即可显著提升多种 LLM 的长上下文能力。

Literary Evidence Retrieval via Long-Context Language Models

构建文学证据检索 benchmark,要求模型给定完整小说文本和文学评论摘录后生成缺失的引用,Gemini Pro 2.5 达 62.5% 准确率超过人类专家(55%),但最佳开源模型仅 29.1%,揭示了巨大能力差距。

What Really Matters in Many-Shot Attacks? An Empirical Study of Long-Context Vulnerabilities in LLMs

系统分析 Many-Shot Jailbreaking(MSJ)攻击的关键因素,发现上下文长度是攻击成功的决定性因素,而内容的有害性、主题、格式几乎不重要——即使重复安全内容、随机无意义文本(Lorem Ipsum)都能在长上下文下突破模型安全对齐。

Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention

DeepSeek提出NSA——一种原生可训练的稀疏注意力机制,通过"压缩+选择+滑动窗口"的层次化稀疏策略和硬件对齐的Triton kernel设计,在27B参数模型上实现了超越Full Attention的性能,同时在64k序列上获得前向9倍、解码11.6倍的加速。

NeKo: Cross-Modality Post-Recognition Error Correction with Tasks-Guided MoE LM

提出 NeKo,使用任务引导的 Mixture-of-Experts 语言模型进行跨模态后识别纠错(ASR/ST/OCR/TEC),通过将每个专家指派给特定任务的数据集实现专业化,在 Open ASR Leaderboard 上达到 SOTA,零样本下超越 GPT-3.5 和 Claude-3.5。

On Many-Shot In-Context Learning for Long-Context Evaluation

深入研究 many-shot ICL 用于长上下文语言模型评估,提出 Sample Learning Ratio 指标区分 SSL 和 ASL 任务,构建 ManyICLBench 基准全面评测 12 个 LCLM。

Ref-Long: Benchmarking the Long-Context Referencing Capability of Long-Context Language Models

提出 Ref-Long benchmark,从"引用定位"(给定 key 识别哪些文档引用了它并返回索引)这一被忽视的维度评估长上下文模型,包含 3 个子集(合成→真实)共 4300 个任务;发现即使 GPT-4o 在 Multi-Hard-24K 上 ExAcc 仅 19%,远低于人类 92%,且 prompt 工程和专项微调均无法根本解决该问题。

MegaBeam: Scaling Context, Not Parameters

提出四阶段继续预训练策略将 Mistral-7B 的上下文长度扩展到 512K,7B 模型在 RULER-128K 上超越 GPT-4-1106 和 Llama-3.1-70B,是首个在 512K BABILong 上不用 RAG 就达到 35% 的开源模型。

SEAL: Scaling to Emphasize Attention for Long-Context Retrieval

通过剪枝分析发现特定注意力头与长上下文检索高度相关,提出 SEAL(可学习标量/向量缩放注意力头/通道),仅需 ~1024 个额外参数 + 50 个合成样本训练,即可将 LongChat-7B 在 31K 上的检索准确率从 0.32 提升到 0.88,且缩放参数可离线合并到权重中实现零推理开销。

Sliding Windows Are Not the End: Exploring Full Ranking with Long-Context Large Language Models

本文系统研究了长上下文LLM在段落排序中的应用,提出用 full ranking(一次性排序所有段落)替代传统滑动窗口策略,并设计了多轮滑动窗口标签构造方法和重要性感知损失函数来微调 full ranking 模型,在效率提升约30-65%的同时实现了排序效果的全面超越。

SpindleKV: A Novel KV Cache Reduction Method Balancing Both Shallow and Deep Layers

SpindleKV 提出分层处理 KV cache 压缩的策略——深层使用注意力驱动的 token eviction(利用稀疏注意力),浅层使用基于相似性学习的 codebook 替换(利用 token 间高相似度),并解决了 GQA 兼容性问题,实现 50% KV cache 缩减而不损失性能。

How to Train Long-Context Language Models (Effectively)

本文系统研究了如何通过持续预训练和监督微调(SFT)有效训练长上下文语言模型,提出了包括数据配比、训练长度缩放等一系列关键发现,最终训练出的 ProLong-8B 模型仅用 Llama-3.1 5% 的长上下文训练数据量即在 128K 长度上达到同规模最优性能。

What are the Essential Factors in Crafting Effective Long Context Multi-Hop Instruction Datasets? Insights and Best Practices

提出多智能体交互式多跳生成(MIMG)框架,通过质量验证、单跳问题生成、多问题采样和多跳合并四个模块,系统性地合成高质量长上下文多跳指令数据,训练后模型平均提升7.54%,甚至超越更大规模人工标注数据集。


🕸️ 图学习

Beyond Completion: A Foundation Model for General Knowledge Graph Reasoning

提出 MERRY,一个统一处理 KG 内(零样本 KGC)和 KG 外(KGQA)推理任务的知识图谱基础模型,通过多视角条件消息传递 (CMP) 融合文本和结构信息,在 28 个数据集上超越现有方法。

Morpher: Can Graph Neural Networks Learn Language with Extremely Weak Text Supervision?

提出 Morpher,首个图-文多模态 prompt learning 范式——在冻结 GNN 和 LLM 参数的前提下,同时学习图 prompt 和文本 prompt + 跨模态投影器,用极弱文本监督(仅类别名几个词)将 GNN 表征对齐到 LLM 语义空间,首次实现 GNN 的 CLIP 式零样本图分类。

ClaimPKG: Enhancing Claim Verification via Pseudo-Subgraph Generation with Lightweight Specialized LLM

提出 ClaimPKG 框架,通过轻量级专用 LLM 将文本声明转换为伪子图表示,再从知识图谱中检索相关子图作为证据,最终由通用 LLM 进行推理验证,在 FactKG 数据集上比 SOTA 高出 9%-12% 准确率。

Croppable Knowledge Graph Embedding

提出 MED 框架训练"可裁剪"知识图谱嵌入——一次训练同时优化 64 个不同维度的子模型(共享嵌入前缀),通过互学习、进化改进和动态损失权重,各维度子模型直接裁剪使用即超越独立训练和蒸馏方法,训练速度快 10 倍。

Cross-Document Contextual Coreference Resolution in Knowledge Graphs

提出基于知识图谱的跨文档共指消解方法,通过动态链接机制将文本实体提及与知识图谱节点关联,结合上下文嵌入和图消息传递推理提升跨文档实体识别的精度和召回率,在多个基准数据集上超越传统方法。

Extending Complex Logical Queries on Uncertain Knowledge Graphs

提出在不确定知识图谱(Uncertain KG)上进行软查询(Soft Query)的新问题设定 SQUK,结合必要性(necessity)和重要性(importance)扩展一阶逻辑查询语义,并设计带校准的神经符号推理方法 SRC,避免前向推理中的级联错误。

Fast-and-Frugal Text-Graph Transformers are Effective Link Predictors

提出 Fast-and-Frugal Text-Graph (FnF-TG) Transformer,通过 Transformer 的自注意力机制统一编码文本描述和图结构(ego-graph),在归纳链接预测任务上以小 BERT 模型超越了使用大 BERT+MPNN 的 SOTA,同时首次扩展到完全归纳设置(关系也可归纳)。

FiDeLiS: Faithful Reasoning in Large Language Model for Knowledge Graph Question Answering

提出 FiDeLiS 框架,通过 Path-RAG 预选候选集缩小搜索空间 + 演绎验证beam search (DVBS) 逐步构建并验证推理路径,在无需训练的情况下提升 LLM 在知识图谱问答中的准确性和可解释性。

GraphNarrator: Generating Textual Explanations for Graph Neural Networks

提出GraphNarrator——首个为图神经网络生成自然语言解释的方法,通过将显著性图解释"语言化"为文本段落、用Expert Iteration迭代优化伪标签质量、最终蒸馏到端到端解释器模型,在三个数据集上生成的解释在忠实度、简洁性和人类偏好上均优于GPT-4o零样本解释。

Can Knowledge Graphs Make Large Language Models More Trustworthy? An Empirical Study Over Open-ended Question Answering

提出开放域知识图谱问答基准 OKGQA 及其扰动变体 OKGQA-P,通过统一的图引导检索-生成框架系统性地验证了 KG 增强可以有效降低 LLM 幻觉率(FActScore 提升约 20 个百分点),子图检索在各类查询上表现最优且对 KG 噪声具有鲁棒性。

Knowledge Graph Retrieval-Augmented Generation for LLM-based Recommendation

提出 K-RagRec 框架,将知识图谱(KG)中的结构化关系信息引入 LLM 推荐系统的 RAG 流程——从 KG 中检索高质量的结构化实体关系信息来增强推荐生成,解决纯文本 RAG 忽略结构关系和引入噪声的问题。

M3HG: Multimodal, Multi-scale, and Multi-type Node Heterogeneous Graph for Emotion Cause Triplet Extraction in Conversations

提出 M3HG 模型,通过构建多模态多类型节点异构图来显式建模对话中的情感与原因上下文,并在句间和句内两个尺度上融合语义信息,实现多模态对话中情感-原因三元组的端到端提取。同时构建了首个中文多场景 MECTEC 数据集 MECAD。

mRAKL: Multilingual Retrieval-Augmented Knowledge Graph Construction for Low-Resourced Languages

将多语言知识图谱构建(mKGC)重新定义为 QA 任务,提出基于 RAG 的 mRAKL 系统,利用非结构化单语数据作为检索源来克服低资源语言中结构化数据匮乏的困难,在 Tigrinya 和 Amharic 两种低资源语言上显著超越已有方法。

Can LLMs Evaluate Complex Attribution in QA? Automatic Benchmarking using Knowledge Graphs

提出 CAQA 基准,利用知识图谱自动生成包含四类归因类别(支持、部分支持、矛盾、无关)和四种推理复杂度的大规模问答归因评估数据集(161K 样本),系统性地评测了 25 种自动归因评估器的能力。

Predicate-Conditional Conformalized Answer Sets for Knowledge Graph Embeddings

提出 CondKGCP——基于谓词条件的 conformal prediction 方法用于知识图谱嵌入的不确定性量化,通过合并相似谓词增大校准集+双重校准(score+rank)减小预测集大小,在保证谓词级条件覆盖率的同时输出更紧凑的答案集,在多个KGE基准上优于5个baseline。

RSCF: Relation-Semantics Consistent Filter for Entity Embedding of Knowledge Graph

提出 RSCF 插件式 KGE 方法,通过共享仿射变换 + 根植实体变换 + 归一化三特征确保"语义相似的关系产生相似的实体变换"(关系语义一致性),在距离模型和张量分解模型上均显著超越 SOTA,并从理论和实验上验证了一致性保持率。

SimGRAG: Leveraging Similar Subgraphs for Knowledge Graphs Driven Retrieval-Augmented Generation

提出 SimGRAG 方法,通过"查询→模式图→子图"两阶段对齐策略,利用 LLM 将查询转化为图模式,再用图语义距离(GSD)度量在知识图谱中高效检索语义最相似的子图,实现即插即用的 KG 驱动 RAG,在问答和事实验证任务上超越所有现有方法。


🏥 医学图像

A Retrieval-Based Approach to Medical Procedure Matching in Romanian

提出基于检索的罗马尼亚语医疗程序名称匹配架构——将诊所的非标准程序描述匹配到保险公司标准化术语表,比较 BM25 稀疏检索、mE5/RoBERT/BioClinicalBERT 密集嵌入及 RRF 混合方法,在 14 万+映射对上评估,度量学习微调后 mE5 表现最佳。

AfriMed-QA: A Pan-African, Multi-Specialty, Medical Question-Answering Benchmark Dataset

构建了首个大规模泛非洲多专科医学问答基准 AfriMed-QA(15,275 题,来自 16 个国家 60+ 医学院,涵盖 32 个专科),评估 30 个 LLM 发现:大模型在非洲医疗问题上的准确率显著低于 USMLE,生物医学专用 LLM 反而不如通用模型,消费者盲评时更偏好 LLM 回答而非临床医生回答。

The Impact of Auxiliary Patient Data on Automated Chest X-Ray Report Generation and How to Incorporate It

本文研究如何将急诊科患者数据(生命体征、药物、分诊信息等)整合到多模态语言模型中用于自动胸部X光报告生成,提出将异构表格数据、文本和图像转化为统一嵌入的方法,在MIMIC-CXR + MIMIC-IV-ED数据集上显著提升了报告的诊断准确性,超越了包括CXRMate-RRG24在内的多个基准模型。

Improving Automatic Evaluation of LLMs in Biomedical Relation Extraction via LLMs-as-the-Judge

本文首次系统研究了 LLM-as-Judge 在生物医学关系抽取评估中的表现,发现其准确率通常低于 50%,并提出结构化输出格式(JSON)和域适应技术来提升约 15% 的评估准确率。

CheXalign: Preference Fine-tuning in Chest X-ray Interpretation Models without Human Feedback

CheXalign 提出了一种无需放射科医生反馈的自动化偏好数据生成管线,利用公开数据集中的参考报告和基于参考的评估指标(如 GREEN、BERTScore)构造偏好对,通过 DPO 等直接对齐算法对胸部X光报告生成模型进行偏好微调,在 MIMIC-CXR 上取得 SOTA CheXbert 分数。

Aligning AI Research with the Needs of Clinical Coding Workflows: Eight Recommendations Based on US Data Analysis and Critical Review

这篇 position paper 通过对 MIMIC 数据集和现有自动化临床编码研究的深入分析,指出当前评估方法(如仅关注前50个高频编码、使用不恰当指标)与真实临床场景严重脱节,并提出八条具体建议来改进评估方法和研究方向。

CliniDial: A Naturally Occurring Multimodal Dialogue Dataset for Team Reflection in Action During Clinical Operation

构建了 CliniDial 数据集,收集自模拟临床手术中的自然对话,包含音频转录、双角度视频和患者生理信号等多模态数据,标注了团队反思行为编码,揭示了现有 LLM 在处理标签不均衡、自然对话交互和领域多模态数据方面的显著不足。

CSTRL: Context-Driven Sequential Transfer Learning for Abstractive Radiology Report Summarization

提出 CSTRL,一种基于顺序迁移学习的放射学报告摘要生成方法,通过优化的间隔句生成(GSG)预训练、Fisher 矩阵正则化防止灾难性遗忘,并结合知识蒸馏实现模型压缩,在 MIMIC-CXR 和 Open-I 数据集上大幅超越现有方法。

Enhancing Medical Dialogue Generation through Knowledge Refinement and Dynamic Prompt Adjustment

提出 MedRef,一种融合知识精炼机制和动态 Prompt 调整策略的医学对话系统,通过隐变量过滤无关知识图谱三元组、实体-行为联合预测、以及三元组过滤器和示例选择器动态构建系统 Prompt,在 MedDG 和 KaMed 两个基准上取得 SOTA 性能。

Evaluation of LLMs in Medical Text Summarization: The Role of Vocabulary Adaptation in High OOV Settings

系统性基准研究发现 LLM 在高 OOV(词汇外词)和高新颖性医学文本摘要场景下性能显著下降,并通过多种词汇适配策略(MEDVOC、MEDVOC-LLM、ScafFix)证明即使 Llama-3.1(128K 词汇量)仍受过度分片问题困扰,词汇适配可带来显著改善。

MultiMed: Multilingual Medical Speech Recognition via Attention Encoder Decoder

发布 MultiMed——首个多语言医学 ASR 数据集(150小时,5种语言,10种录制场景,16种口音),配套小到大规模的端到端 Whisper 模型基线,首次系统研究医学领域的多语言 ASR:单语 vs 多语微调、AED vs Hybrid 架构对比,发现多语联合训练在小模型上有收益但大模型上可能退化。

Online Iterative Self-Alignment for Radiology Report Generation

提出在线迭代自对齐(OISA)方法用于放射学报告生成——四阶段循环(自生成多样数据→自评估多目标偏好→自对齐多目标优化→自迭代进一步提升),无需额外人工标注即可迭代提升报告质量,在多个评估指标上达到 SOTA。

Towards Omni-RAG: Comprehensive Retrieval-Augmented Generation for Large Language Models in Medical Applications

针对医疗 LLM 需要多类型多结构知识源(教科书/指南/论文/知识图谱等)的特殊需求,提出 MedOmniKB 多源知识库和 Source Planning Optimization 方法——让模型学会"该从哪个源检索什么信息",优化后的小模型在多源医疗知识利用上达到 SOTA。

RADAR: Enhancing Radiology Report Generation with Supplementary Knowledge Injection

提出 Radar 框架,通过"内部知识提取+外部补充知识检索+聚合注入"三步策略增强放射学报告生成——先提取 LLM 已有的与专家分类一致的知识,再检索缺失的补充知识,最终聚合两者生成更准确的放射学报告,在 MIMIC-CXR/CheXpert-Plus/IU X-ray 三个数据集上超越 SOTA。

RedactX: An LLM-Powered Framework for Automatic Clinical Data De-Identification

提出 RedactX——一个全自动、多模态的临床数据去标识化框架,结合 LLM 多轮抽取、规则处理和检索式再词汇化,在 i2b2 数据集上实现了与专用商业系统可比的 F1(0.9646),同时优化了 token 使用效率。

ReflecTool: Towards Reflection-Aware Tool-Augmented Clinical Agents

ReflecTool 提出了一个反思感知的工具增强临床 Agent 框架,通过优化阶段积累成功轨迹和工具级经验,推理阶段检索相似案例并用验证器改进工具使用,在涵盖 18 个任务的 ClinicalAgent Bench 上超越纯 LLM 10+ 分、超越已有 Agent 方法 3 分。

Query-driven Document-level Scientific Evidence Extraction from Biomedical Studies

本文提出 URCA(Uniform Retrieval Clustered Augmentation)框架,通过均匀检索+聚类+知识提取的 RAG 流程,从 RCT 研究全文中自动提取与临床问题相关的科学证据结论,在新构建的 CochraneForest 数据集上比最佳基线提升了 8.81% F1。


🔎 AIGC 检测

A Rose by Any Other Name: LLM-Generated Explanations Are Good Proxies for Human Explanations to Collect Label Distributions on NLI

研究 LLM 生成的解释能否替代昂贵的人工解释来近似 NLI 的人工判断分布(HJD)——发现在提供人工标签的条件下,LLM 生成的解释与人工解释在近似 HJD 方面效果相当("名字不重要,玫瑰依然芬芳"),且方法可推广到无人工解释的数据集和域外测试集。

Are We in the AI-Generated Text World Already? Quantifying and Monitoring AIGT on Social Media

首次大规模量化社交媒体上 AI 生成文本(AIGT)的占比变化——收集 Medium/Quora/Reddit 上 240 万帖子,构建 AIGTBench 训练最佳检测器 OSM-Det,发现 2022-2024 年间 Medium 和 Quora 的 AIGT 占比从~2% 飙升至~37-39%,而 Reddit 仅从 1.3% 增至 2.5%。

People who frequently use ChatGPT for writing tasks are accurate and robust detectors of AI-generated text

通过 1,740 条标注实验发现,经常使用 LLM 进行写作任务的人类标注者可以极高精度(5人投票仅错 1/300)检测 AI 生成文本,即使面对改写和人性化逃逸策略也显著优于大多数自动检测器。

Iron Sharpens Iron: Defending Against Attacks in Machine-Generated Text Detection with Adversarial Training

提出 GREATER 对抗训练框架,同步训练对抗攻击器(Greater-A)和 MGT 检测器(Greater-D),对抗器通过代理模型梯度识别关键 token 并在嵌入空间扰动生成对抗样本,检测器从课程式对抗样本中学习泛化防御,在 16 种攻击下 ASR 降至 5.53%(SOTA 为 6.20%),攻击效率比 SOTA 快 4 倍。

Comparing LLM-generated and human-authored news text using formal syntactic theory

首次使用形式句法理论(HPSG)系统比较六个 LLM 生成的纽约时报风格文本与真实人类撰写的 NYT 文本,发现 LLM 和人类写作在 HPSG 语法类型分布上存在系统性差异,揭示了 LLM 句法行为与人类的本质不同。

MultiSocial: Multilingual Benchmark of Machine-Generated Text Detection of Social-Media Texts

构建首个多语言(22种语言)、多平台(5个社交媒体)、多生成器(7个LLM)的社交媒体机器生成文本检测基准 MultiSocial(47万文本),填补了社交媒体短文本+非英语场景下 MGT 检测研究的空白,发现微调检测器可在社交媒体文本上有效训练且训练平台选择很重要。

Who Writes What: Unveiling the Impact of Author Roles on AI-generated Text Detection

揭示作者的社会语言学属性(性别、CEFR水平、学科领域、语言环境)会系统性地影响AI生成文本检测器的准确率,其中语言水平和语言环境的偏差最为显著且一致,提出了基于多因素WLS+ANOVA的偏差量化框架。


🤖 机器人/具身智能

CHEER-Ekman: Fine-grained Embodied Emotion Classification

本文提出CHEER-Ekman数据集,将CHEER数据集的二元具身情感标注扩展为Ekman六类基础情绪,并采用基于LLM的自动Best-Worst Scaling(BWS)技术实现无需任务特定训练的细粒度情感分类,性能超越有监督BERT。

Rolling the DICE on Idiomaticity: How LLMs Fail to Grasp Context

提出 DICE 数据集,通过严格控制习语表面形式不变而仅改变上下文,揭示 LLM 在习语消歧任务上的高准确率很大程度来自对表面线索的依赖而非真正的上下文理解,并发现句子概率和搭配频率对模型表现有复杂影响。

Do Emotions Really Affect Argument Convincingness? A Dynamic Approach with LLM-based Manipulation Checks

提出一种受心理学操控检验启发的动态框架,利用LLM调节论证的情感强度,系统考察情感对论证说服力的因果影响,发现超过半数情况下人类的说服力判断不受情感变化影响,而当情感有影响时更多是增强而非削弱说服力。

DRAE: Dynamic Retrieval-Augmented Expert Networks for Lifelong Learning and Task Adaptation in Robotics

提出 DRAE 框架,整合动态 MoE 路由、参数化 RAG(P-RAG)、三层认知控制架构(ReflexNet-SchemaPlanner-HyperOptima)和 DPMM 终身知识保留,在机器人操作和自动驾驶任务上平均成功率达 82.5%,有效缓解灾难性遗忘。

Task-aware MoILE: Hierarchical-Task-Aware Multi-modal Mixture of Incremental LoRA Experts for Embodied Continual Learning

提出层次化具身持续学习设置(HEC),将 agent 学习分为高层指令和低层动作两级,并设计 Task-aware MoILE 方法——通过跨模态聚类识别任务、双路由器选择 LoRA 专家、SVD 正交训练保留旧知识,在 5 种增量学习场景中遗忘率降至 3.37%(vs 前 SOTA 7.44%)。

SELF-PERCEPT: Introspection Improves LLMs' Detection of Multi-Person Mental Manipulation in Conversations

提出 SELF-PERCEPT 两阶段 prompting 框架,借鉴心理学自我知觉理论(Self-Perception Theory),引导 LLM 先观察对话参与者的行为线索再推断内在态度,显著提升多人多轮对话中心理操纵的检测效果。

Vulnerability of LLMs to Vertically Aligned Text Manipulations

本文系统揭示了LLM对垂直排列文本输入的严重脆弱性:仅将少量关键词垂直排列即可导致文本分类准确率下降25-45个百分点,CoT推理无法缓解此问题,但精心设计的few-shot learning可有效恢复性能。


🎁 推荐系统

CoVE: Compressed Vocabulary Expansion Makes Better LLM-based Recommender Systems

提出 CoVE 框架,通过扩展 LLM 词表为每个物品分配唯一 token ID 和嵌入,将序列推荐任务转化为 next-token prediction,相比现有方法推荐准确率提升最高 62%,推理速度提升约 100 倍,并通过哈希嵌入压缩解决大规模场景的内存问题。

GRAM: Generative Recommendation via Semantic-aware Multi-granular Late Fusion

提出 GRAM 生成式推荐模型,通过语义到词汇的翻译(将隐式物品关系编码到 LLM 词汇空间)和多粒度迟融合(分别编码不同粒度提示后在解码时融合),在四个基准上比八个 SOTA 方法在 Recall@5 上提升 11.5-16.0%。

KERL: Knowledge-Enhanced Personalized Recipe Recommendation using Large Language Models

提出 KERL 统一食品推荐系统,结合 FoodKG 知识图谱和 Phi-3-mini 多 LoRA 微调,实现个性化食谱推荐(F1=0.973)、食谱生成和微量营养素估算三个功能,大幅超越基线 LLM 和传统嵌入方法。

LOTUS: A Leaderboard for Detailed Image Captioning from Quality to Societal Bias and User Preferences

提出 LOTUS 排行榜,从描述质量(对齐性、描述性、语言复杂度)、副作用(幻觉、有害性)和社会偏见(性别、肤色)三个维度统一评估大型视觉语言模型的详细图像描述能力,并支持基于用户偏好的定制化评估。

MIRA: Empowering One-Touch AI Services on Smartphones with MLLM-based Instruction Recommendation

提出 MIRA 框架,通过结构化推理、模板增强推理和前缀树约束解码,让用户在智能手机上长按文本或图片即可获得上下文相关的 AI 服务指令推荐,在 7B 模型上超越 GPT-4V(F1: 0.9121 vs 0.879),token 使用量仅为 1/7。

RecLM: Recommendation Instruction Tuning

提出 RecLM,一个模型无关的推荐指令微调框架,通过两轮对话式指令微调将协同过滤信号注入 LLM 生成的用户/商品画像,再用 RLHF(PPO)精炼画像质量,在 MIND/Netflix/工业数据集上作为即插即用组件为 BiasMF/NCF/LightGCN/SGL/SimGCL 一致带来提升,尤其在冷启动场景效果显著。


🎮 强化学习

Align-SLM: Textless Spoken Language Models with Reinforcement Learning from AI Feedback

首次将偏好优化(DPO + RLAIF)应用于无文本口语语言模型(SLM)——从预训练 TWIST 模型生成多个语音续写候选,通过 ASR→LLM 评分自动创建偏好数据对,用 DPO 训练 SLM 一致性地生成语义更好的语音续写,结合课程学习进一步提升。在 ZeroSpeech/StoryCloze 基准上达到 SLM SOTA(sWUGGY 77.9%、S-StoryCloze 61.1%、T-StoryCloze 86.8%)。

An Efficient Task-Oriented Dialogue Policy: Evolutionary Reinforcement Learning Injected by Elite Individuals

提出 EIERL 方法,将进化算法(EA)的全局搜索能力与深度强化学习(DRL)的局部优化能力结合用于任务导向对话策略学习,并设计精英个体注入(EII)机制自适应地将高性能个体注入 EA 种群以加速进化,在 4 个数据集上显著提升探索-利用平衡。

LLM-Enhanced Self-Evolving Reinforcement Learning for Multi-Step E-Commerce Payment Fraud Risk Detection

将电商支付欺诈检测建模为多步 MDP,用 LLM(Mixtral/LLaMA/Gemma)通过进化算法自动生成和优化 RL 奖励函数,在 eBay 真实交易数据上比人工设计奖励函数和传统 SL 基线显著提升 dollar-wise precision。

Prompt-based Personality Profiling: Reinforcement Learning for Relevance Filtering

提出RL-Profiler方法,用强化学习训练一个帖子相关性过滤器(SelNet),从用户Profile的大量帖子中筛选出与人格特征相关的少量帖子,再交给LLM零样本预测人格,在大幅减少上下文长度的同时保持接近使用全部帖子的预测效果。

TreeRL: LLM Reinforcement Learning with On-Policy Tree Search

提出 TreeRL,将基于熵引导的树搜索(EPTree)直接集成到 LLM 的 on-policy 强化学习训练中,通过在高不确定性 token 处分叉来扩展推理路径多样性,并利用树结构提供的全局+局部优势作为过程监督信号,在数学和代码推理任务上超过传统的多链采样 RL。


🔄 自监督/表示学习

Improving Low-Resource Morphological Inflection via Self-Supervised Objectives

系统探索 13 种自监督辅助目标(自编码、CMLM、T5-style 等)在极低资源形态变化任务中的效果,发现无标注数据极少时自编码最优,数据增多后字符级 MLM 更好,按形态素边界采样掩码是最有前景的方向。

Contrastive Learning on LLM Back Generation Treebank for Cross-domain Constituency Parsing

提出 LLM 反向生成方法自动构建跨领域成分句法树库——给定只有领域关键词叶节点的不完整句法树,用 LLM 填充缺失词汇生成完整的跨领域句法树库,结合 span 级对比学习预训练,在 MCTB 五个目标领域上达到跨领域成分句法分析 SOTA。

QAEncoder: Towards Aligned Representation Learning in Question Answering Systems

提出 QAEncoder,一种免训练方法通过蒙特卡洛采样估计文档对应查询的期望嵌入作为文档表示的代理,配合文档指纹保持区分性,在 BEIR 上将 bge-large 从 58.5 提升到 61.8 NDCG@10,零额外存储和延迟开销。

SHuBERT: Self-Supervised Sign Language Representation Learning via Multi-Stream Cluster Prediction

提出 SHuBERT(Sign Hidden-Unit BERT),将语音自监督学习模型 HuBERT 的 masked cluster prediction 范式迁移到手语视频——对手部、面部、身体姿态四个流分别聚类并同时预测 masked 帧的聚类标签,在约 984 小时 ASL 视频上预训练后,在翻译/孤立识别/指拼检测多任务上达到公开数据 SOTA。

WhiSPA: Semantically and Psychologically Aligned Whisper with Self-Supervised Contrastive and Student-Teacher Learning

提出 WhiSPA,通过对比学习将 Whisper 音频编码器的潜在空间与 SBERT 语义表征和心理学维度(情感、人格)对齐,消除语音处理中对额外文本 LM 的依赖,在心理学评估任务上误差降低 73-84%。


📈 时间序列

Context-Aware Sentiment Forecasting via LLM-based Multi-Perspective Role-Playing Agents

提出一个基于 LLM 的多视角角色扮演框架(MPR),通过主观 Agent 模拟用户发帖、客观 Agent(微调的"心理学家"LLM)审查行为一致性,以迭代纠正的方式预测社交媒体用户对实时事件的未来情感反应,在宏观和微观层面均大幅超越传统方法。

CTPD: Cross-Modal Temporal Pattern Discovery for Enhanced Multimodal Electronic Health Records Analysis

提出 CTPD 框架,利用 Slot Attention 从多模态 EHR 数据(不规则时间序列+临床笔记)中发现跨模态共享的时序原型模式,通过 TP-NCE 对比损失对齐两模态的时序语义,在 MIMIC-III 的死亡率预测和表型分类任务上取得 SOTA。

G2S: A General-to-Specific Learning Framework for Temporal Knowledge Graph Forecasting with Large Language Models

提出 G2S 框架,将时序知识图谱(TKG)预测中的通用模式(时序结构规律)与场景信息(具体实体/关系)解耦,先在匿名化时序结构上学习通用模式,再注入场景信息,有效提升 LLM 在 TKG 预测中的泛化能力。

LETS-C: Leveraging Text Embedding for Time Series Classification

提出 LETS-C——将时间序列数字化为文本字符串后用 text embedding 模型编码,与原始时间序列元素级相加融合后送入轻量 CNN+MLP 分类头,在 UEA 10 个多变量时间序列数据集上以仅 14.5% 的可训练参数量超越 OneFitsAll(GPT-2 微调)等 27 个 baseline 达到 SOTA。

Time-MQA: Time Series Multi-Task Question Answering with Context Enhancement

提出Time-MQA框架和TSQA数据集(~200k QA对),将时间序列的预测、填补、异常检测、分类和开放式推理问答统一到自然语言问答范式下,通过持续预训练LLM使其具备时间序列理解和推理能力。


🎬 视频理解

Generative Frame Sampler for Long Video Understanding

提出 GenS,一个基于 VideoLLM 的生成式帧采样模块,用自然语言输出question-aware的相关帧时间段和置信度分数,作为即插即用模块在 LongVideoBench/MLVU/HourVideo 上为多种 VideoLLM 带来 2-4 个点的一致提升。

ICR Probe: Tracking Hidden State Dynamics for Reliable Hallucination Detection in LLMs

提出 ICR Score(Information Contribution to Residual Stream),通过测量 MHSA 和 FFN 模块对隐状态更新的贡献一致性来量化残差流动态,构建仅 16K 参数的 ICR Probe,在 4 个数据集 × 3 个 LLM 上幻觉检测 AUROC 全面超越基线。

Improving Dialogue State Tracking through Combinatorial Search for In-Context Examples

提出 CombiSearch 方法,通过组合式评分为对话状态追踪(DST)选择最优 in-context 示例组合,在仅用 5% 训练数据的情况下超越所有使用 100% 数据的 baseline,理想设置下 JGA 上界比传统方法高 12%。

RAVEN: Robust Advertisement Video Violation Temporal Grounding via Reinforcement Reasoning

本文提出RAVEN框架,将课程强化学习与多模态LLM结合,通过分层奖励机制和渐进式训练策略,实现广告视频违规内容的精确时序定位和类别预测,无需显式推理标注数据即可激发涌现推理能力。

VidCapBench: A Comprehensive Benchmark of Video Captioning for Controllable Text-to-Video Generation

提出 VidCapBench,首个专为可控文生视频(T2V)设计的视频描述评估 benchmark,从美学/内容/运动/物理规律四个维度评估 caption 质量,643 个视频+10,644 个 QA 对,实验证明 VidCapBench 分数与 T2V 生成质量高度正相关。


🔗 因果推理

CausalRAG: Integrating Causal Graphs into Retrieval-Augmented Generation

提出 CausalRAG,将因果图集成到 RAG 的检索过程中——从文档构建文本图并识别因果关系,在查询时通过因果路径发现和因果摘要生成来检索上下文,在文档问答中显著提升上下文精度(92.86%)和检索召回率。

IRIS: An Iterative and Integrated Framework for Verifiable Causal Discovery

提出 IRIS 框架——仅需一组初始变量名作为输入,即可自动检索文档、提取变量值构建结构化数据、通过混合因果发现(GES 统计算法 + LLM 因果关系验证)构建因果图,并通过缺失变量提议组件迭代扩展变量集合,放松了传统方法的无环和因果充分性假设,在 Cancer、Diabetes、Obesity、ADNI、Insurance 等 6 个数据集上 F1 全面超越 0-shot/CoT/RAG 基线。

On the Reliability of Large Language Models for Causal Discovery

利用开源 LLM(OLMo、BLOOM)可访问的预训练语料库,实证验证了"因果鹦鹉"假说——LLM 识别因果关系的能力与预训练数据中该关系的出现频率高度相关(Spearman r=0.9),且错误因果关系的存在和上下文变化都会显著影响预测可靠性。

Reasoning is All You Need for Video Generalization: A Counterfactual Benchmark with Sub-question Evaluation

提出 COVER(COunterfactual VidEo Reasoning),一个多维度视频反事实推理 benchmark,将评估任务按抽象-具体和感知-认知两个维度分为四象限共 13 类任务,并通过将复杂问题分解为子问题(必要条件)来揭示——子问题准确率与反事实推理能力强相关,提升推理能力是改善视频理解鲁棒性的关键。


🎨 图像生成

D-GEN: Automatic Distractor Generation and Evaluation for Reliable Assessment of Generative Models

提出 D-GEN——首个开源干扰项生成模型(LLaMA微调,8B/70B),自动将开放式评测题转为多选题格式,配套排名对齐+熵分析两种评估方法验证干扰项质量,在 MMLU 上 Spearman's ρ=0.99 保持模型排名一致性。

Planning with Diffusion Models for Target-Oriented Dialogue Systems

DiffTOD 将对话规划建模为轨迹生成问题,利用掩码扩散语言模型实现非顺序对话规划,并设计三种引导机制(词级/语义级/搜索级)灵活控制对话朝目标推进,在谈判/推荐/闲聊三种场景上显著超越基线。

FlashAudio: Rectified Flows for Fast and High-Fidelity Text-to-Audio Generation

将整流流(Rectified Flow)引入文本转音频生成,通过双焦采样器优化时间步分布、不混溶流减少数据-噪声总距离、锚定优化修正 CFG 引导误差,实现单步生成 FAD=1.49 超越百步扩散模型,生成速度达实时 400 倍。

R-VC: Rhythm Controllable and Efficient Zero-Shot Voice Conversion via Shortcut Flow Matching

R-VC 是首个实现节奏可控的零样本语音转换系统,通过 Mask Transformer 时长模型建模目标说话人的节奏风格,结合 Shortcut Flow Matching 的 DiT 解码器实现仅 2 步采样的高效高质量语音生成,在 LibriSpeech 上 WER 3.51、说话人相似度 0.930。


🎯 目标检测

Anchored Answers: Unravelling Positional Bias in GPT-2's Multiple-Choice Questions

首次对 GPT-2 系列在选择题中的"锚定偏差"(始终偏好选项 A)进行全面机械可解释性分析——通过 Logit Lens 定位导致偏差的 MLP 值向量和注意力头,然后更新值向量+重校准注意力权重,以最小干预消除偏差并将 MCQ 准确率平均提升 70%+。

Dolphin: Document Image Parsing via Heterogeneous Anchor Prompting

提出 Dolphin,一个轻量级(322M)的文档图像解析模型,采用"先分析后解析"(analyze-then-parse)两阶段范式——先进行页面级布局分析生成阅读顺序的元素序列,再利用异构锚点提示(heterogeneous anchor prompting)并行解析各元素内容,以仅 322M 参数在页面级和元素级解析任务上超越 7B+ 模型和商业系统。

Weed Out, Then Harvest: Dual Low-Rank Adaptation is an Effective Noisy Label Detector for Noise-Robust Learning

提出Delora框架,通过引入clean LoRA和noisy LoRA双模块构建噪声标签检测器,将样本选择与模型训练解耦,打破传统"小损失"方法中样本选择与训练互相影响的恶性循环。

Why Safeguarded Ships Run Aground? Aligned Large Language Models' Safety Mechanisms Tend to Be Anchored in The Template Region

揭示了安全对齐LLM的一个普遍现象:安全机制过度锚定在chat template区域(TASA),导致越狱攻击可通过干扰template区域的信息处理来绕过安全防线,并提出通过将安全探针从template区域迁移到生成阶段来缓解该漏洞。


🧑 人体理解

I See What You Mean: Co-Speech Gestures for Reference Resolution in Multimodal Dialogue

提出自监督预训练方法学习表征性共语手势(co-speech iconic gestures)的嵌入表示,将骨骼动作 grounded 到语言中,在面对面对话的指称消解任务上证明手势与语音的互补性——手势+语音准确率 31% 远超单独语音 24% 或手势 19%。

TransBench: Breaking Barriers for Transferable Graphical User Interface Agents in Dynamic Digital Environments

提出首个系统评估 GUI Agent 迁移性(跨版本/跨平台/跨应用)的 benchmark TransBench,涵盖 81 个中文 App、1459 张截图、22K+ 标注指令,实验表明在旧版本上微调可有效迁移到新版本和其他平台,而跨平台迁移中 Android 数据的泛化性最强。


🖼️ 图像恢复

DiffuseDef: Improved Robustness to Adversarial Attacks via Iterative Denoising

DiffuseDef 提出了一种将扩散层作为去噪器插入编码器和分类器之间的对抗防御方法,通过扩散训练学会预测隐状态噪声,推理时对对抗隐状态加噪+迭代去噪+集成,在黑盒和白盒攻击下达 SOTA 鲁棒性。

PreP-OCR: A Complete Pipeline for Document Image Restoration and Enhanced OCR Accuracy

提出 PreP-OCR 两阶段流水线:先用合成退化数据训练的 ResShift 模型修复历史文档图像(多方向 patch 提取+中值融合),再用 ByT5 做 OCR 后语义纠错,在 13,831 页真实历史文档上降低 CER 63.9-70.3%。


✂️ 语义分割

DEF-DTS: Deductive Reasoning for Open-domain Dialogue Topic Segmentation

提出 DEF-DTS,一种基于 LLM 多步演绎推理的对话话题分割方法——通过双向上下文摘要 → 话语意图分类(5 类) → 演绎话题转移判断三步 pipeline,在 TIAGE、SuperDialseg、Dialseg711 三个数据集上取得无监督/prompt 方法 SOTA,在 Dialseg711 上超越监督方法。

InstructPart: Task-Oriented Part Segmentation with Instruction Reasoning

提出 InstructPart,首个将任务导向指令与部件级分割结合的真实世界 benchmark——2400 张图像、48 类物体、44 类部件、9600 条人工标注的任务指令,评估发现当前 VLM 在指令驱动的部件分割上严重不足,基于 LISA+DINOv2 的 baseline 微调后性能提升约 100%。


📡 信号/通信

ToolSpectrum: Towards Personalized Tool Utilization for Large Language Models

提出 ToolSpectrum benchmark,首次评估 LLM 在用户画像和环境因素双维度下的个性化工具选择能力,发现现有 SOTA 模型在联合推理两个维度时表现显著下降。

WirelessMathBench: A Mathematical Modeling Benchmark for LLMs in Wireless Communications

本文提出WirelessMathBench,一个包含587道题目的无线通信数学建模基准,从40篇前沿论文中提取,系统评估LLM在领域特定数学推导上的能力,揭示即使最强的DeepSeek-R1平均准确率也仅38.05%,完整公式推导仅7.83%。


🧊 3D 视觉

Slamming: Training a Speech Language Model on One GPU in a Day

提出 Slam 训练配方,通过系统化的模型初始化、架构选择、合成数据、偏好优化等环节优化,在单张 A5000 GPU 上 24 小时内训练出性能媲美大规模 SLM 的语音语言模型。


🚗 自动驾驶

Embracing Large Language Models in Traffic Flow Forecasting

提出 LEAF 框架,用图分支(pair-wise关系)和超图分支(non-pair-wise关系)的双分支预测器生成候选预测,再用冻结的 LLM 作为选择器(判别而非生成)挑选最优预测,通过 ranking loss 反馈优化预测器,在 PEMS 数据集上取得 SOTA。


📐 优化/理论

ScaleBiO: Scalable Bilevel Optimization for LLM Data Reweighting

ScaleBiO 提出基于罚函数重构的全一阶双层优化算法,首次将双层优化应用于 30B+ 参数 LLM 的数据源重加权,在 Qwen-2.5-32B 上实现 GSM8K +9%、MATH +5.8% 的提升。


📂 其他

Towards Robust ESG Analysis Against Greenwashing Risks: A3CG

提出 A3CG 数据集和方面-行动分析任务(从可持续性声明中提取方面及其行动类型:已实施/计划中/不确定),通过跨类别泛化设置评估 NLP 方法抵御漂绿风险的鲁棒性,发现监督学习(GRACE F1=47.51)优于 LLM(Claude 3.5 F1=42.03)但泛化效率更差。

A Conformal Risk Control Framework for Granular Word Assessment and Uncertainty Calibration of CLIPScore Quality Estimates

提出基于保形风险控制(Conformal Risk Control)框架校准 CLIPScore 的方法——通过对 CLIP 视觉/文本编码器的注意力掩码采样生成 CLIPScore 分布,然后利用保形风险控制 (1) 检测图像描述中的干扰词(foil words),(2) 生成校准置信区间,在 FOIL-it/FOIL-nocaps/Rich-HF 基准上以简单方法达到与复杂专用方法相当的干扰词检测性能,同时提供形式化风险保证。

A Dual-Perspective NLG Meta-Evaluation Framework with Automatic Benchmark and Better Interpretability

揭示传统 NLG 元评估的局限(人工评分平均聚合不合理、相关系数选择模糊),提出双视角元评估框架:全局视角(序数分类,评估粗粒度评级能力)+ 局部视角(相邻成对比较,评估细粒度区分能力),并引入基于可控错误注入的自动基准构建方法,在 16 个 LLM 上验证不同模型在两个视角上的能力分布差异显著。

GKI-ICD: A General Knowledge Injection Framework for ICD Coding

提出 GKI-ICD,首个无需额外专用网络模块即可同时注入三种 ICD 编码知识(描述、同义词、层级结构)的通用框架——通过合成知识引导文本(Guideline Synthesis)+ 多任务学习实现知识注入,在 MIMIC-III 和 MIMIC-III-50 上大多数指标达到 SOTA。

Barec: A Large and Balanced Corpus for Fine-grained Arabic Readability Assessment

构建 Barec(Balanced Arabic Readability Evaluation Corpus)——首个大规模细粒度阿拉伯语可读性评估语料库,包含 69K+ 句子(100万+词),覆盖 19 个可读性等级(从幼儿园到研究生),由 6 名专业阿拉伯语教育者标注,并在多种分级粒度(19/7/5/3级)上基准测试自动可读性评估模型。

A Little Human Data Goes A Long Way

首次系统研究合成数据在事实验证和问答中能否替代人工标注——替换 90% 仅轻微下降,但替换最后 10% 严重退化;仅 125 条人工数据可显著提升纯合成模型,等效增益需 10 倍以上合成数据。

MisMatched: A Benchmark for Scientific Natural Language Inference

引入 MisMatched——首个覆盖非 CS 领域(心理学、工程、公共卫生)的科学 NLI 评估基准,2700 对人工标注句子对,最佳基线 Macro F1 仅 78.17%,且发现训练时加入隐式关系句子对可提升性能。

A Practical Approach for Building Production-Grade Conversational Agents with Workflow Graphs

提出基于有向无环图(DAG)工作流的混合对话 Agent 框架——每个图节点有独立系统提示/工具/执行规则以处理特定场景约束。结合原型 Agent 数据收集、状态感知的响应掩码微调策略,在 Kakao 移动电商场景中任务准确率提升 52%、格式遵从度提升 50%,超越 GPT-4o。

SSUF: A Semi-supervised Scalable Unified Framework for E-commerce Query Classification

提出电商查询分类的半监督可扩展统一框架 SSUF——三个可插拔模块:知识增强(LLM 世界知识+后验点击)解决短查询信息不足、标签增强(语义编码+半监督信号)打破对后验标签的依赖、结构增强(共现+语义+层级图 GCN)传播长尾标签梯度。已在 JD.COM 部署,离线和在线 A/B 实验均显著超越 SOTA。

A Spatio-Temporal Point Process for Fine-Grained Modeling of Reading Behavior

提出基于标记时空点过程(Marked Spatio-Temporal Point Process)的阅读行为概率模型——用 Hawkes 过程建模跳视(何时何处注视),用对数正态分布+卷积建模注视时长(持续多久),避免传统聚合测量的信息丢失。实证发现:Hawkes 模型比基线更好拟合跳视数据,但上下文 surprisal 作为预测因子仅带来边际改善——surprisal 理论难以解释细粒度眼动。

IDR²: Accelerating Adaptive RAG via Instruction-Driven Representation Reduction of Retrieval Overlaps

首次识别自适应 RAG(A-RAG)中多轮检索结果重叠导致的冗余计算问题,提出 IDR²(Instruction-Driven Representation Reduction)框架:跨迭代 KV 缓存共享(CICS)加速预填充 2.79 倍、指令引导去重增强(IDGR)帮助 LLM 正确处理缓存vs新文档、信息引导并行生成(IGPG)加速解码 2.33 倍,总体 A-RAG 流程加速 2.0 倍且不损失生成质量。

Access Denied Inc: The First Benchmark Environment for Sensitivity Awareness

提出敏感性感知(Sensitivity Awareness, SA)概念——评估 LLM 是否能遵守基于角色的访问控制规则——并构建首个评估基准 Access Denied Inc:模拟企业数据库 + 多用户组权限 + 自动化问卷+半自动评分(99.9%自动),揭示模型在拒绝未授权请求和响应合法查询上的显著差异。

AceCoder: Acing Coder RL via Automated Test-Case Synthesis

构建 AceCode-87K(87K 编码题 + 138 万自动合成测试用例),训练代码专用 Reward Model(7B 超越 340B Nemotron),Best-of-N 提升 Llama-3.1-8B 平均 8.9 分,R1 风格从 base 直接 RL 仅 80 步 HumanEval+ 提升 22.5%。

ACORD: An Expert-Annotated Retrieval Dataset for Legal Contract Clause Retrieval

构建首个面向合同起草的专家标注条款检索基准 ACORD——114 个律师编写的查询、126,000+ 查询-条款对、1-5 星相关性评分,聚焦责任限制/赔偿/控制权变更/最惠国等复杂条款;bi-encoder 检索 + LLM 点式重排序表现有前景但距律师需求仍有显著差距。LLM 直接起草对比律师修改暴露了多种缺陷。

NTIL: Advancing Sequential Numerical Prediction in Autoregressive Models

提出 NTIL(Numerical Token Integrity Loss)解决自回归模型数值预测的两大缺陷——(1) token 级用 EMD 替代交叉熵保留数字间序数关系+指数位置加权,(2) 序列级通过可微数值构建+相对偏差度量评估整体数值误差。首次将 EMD 用于自回归模型优化,在目标检测/文本识别/数学推理上显著提升。

AIDE: Attribute-Guided Multi-Hop Data Expansion for Data Scarcity in Task-Specific Fine-tuning

提出 AIDE——属性引导的多跳数据扩展框架,从仅 10 个种子数据点出发,通过提取主题/属性/关系三元组引导 LLM 多跳递归合成新数据,加入 Persona 增加多样性和残差连接防止偏离,在 Mistral-7B/Llama-3.1-8B/Llama-3.2-3B 上超越人工标注数据微调,比 Evol-Instruct 等 SOTA 提升 30%+。

AIR-Bench: Automated Heterogeneous Information Retrieval Benchmark

提出 AIR-Bench——首个自动化、异构、动态的信息检索评测基准,通过 LLM 自动从真实语料生成高质量测试数据(三阶段管线:语料准备→候选生成→质量控制),覆盖 2 类任务、9 个领域、13 种语言共 69 个数据集,与人工标注数据高度一致,且持续动态更新避免数据泄露。

Aligned but Blind: Alignment Increases Implicit Bias by Reducing Awareness of Race

揭示对齐训练的"种族盲视"副作用:对齐使 LLM 在歧义上下文中不再将 black/white 表征为种族概念,安全护栏因此无法激活,导致隐式偏见从 64.1% 飙升至 91.4%;反直觉地,在早期层注入种族感知激活(而非遗忘)可将隐式偏见从 97.3% 降至 42.4%。

AmbiK: Dataset of Ambiguous Tasks in Kitchen Environment

提出 AmbiK,一个专门用于厨房环境中歧义指令检测的纯文本数据集,包含 1000 对歧义/非歧义指令,按三种歧义类型(用户偏好/常识/安全)分类标注,并评估了多种基于 conformal prediction 的歧义检测方法,发现现有方法在该基准上表现很差。

AnalyticKWS: Towards Exemplar-Free Analytic Class Incremental Learning for Small-footprint Keyword Spotting

提出 AnalyticKWS,一种无需存储历史样本的关键词检测增量学习方法,通过冻结特征提取器 + 递归最小二乘解析解更新分类器,在 GSC 和 SC-100 数据集上超过了所有基于样本回放的方法,且训练时间和内存开销极低。

AntiLeakBench: Preventing Data Contamination by Automatically Constructing Benchmarks with Updated Real-World Knowledge

提出 AntiLeakBench——自动化反泄露基准框架,通过识别 LLM 知识截止后更新的真实世界新知识自动构建 QA 测试样本(而非简单收集新发布数据),确保测试知识严格不在训练集中,全自动流程无需人工标注,实验证实截止后性能普遍下降验证了数据污染的普遍存在。

Anything Goes? A Crosslinguistic Study of (Im)possible Language Learning in LMs

跨语言研究 LM 能否区分可能语言和不可能语言——在 12 种语言(4 个语系)上训练 GPT-2 Small 的可能/不可能/未见证变体,发现模型大体上能区分可能 vs 不可能语言(单语言内),但跨语言时区分能力减弱,且对类型学未见证语言(Greenberg Universal 20 的未见证词序)的区分仅在泛化测试中有效而在困惑度上无效——LM 有部分人类样的归纳偏置但弱于人类。

Are Bias Evaluation Methods Biased?

严格控制变量后比较三种主流偏见评估方法(结构化问答 BBQ、LLM-as-a-Judge、情感分析),发现不同方法对同一组 LLM 产生显著不同的偏见排名——偏见评估方法本身就是有偏的,企业不应依赖单一偏见基准来选择模型。

ARise: Towards Knowledge-Augmented Reasoning via Risk-Adaptive Search

提出 ARise 框架,将贝叶斯风险评估与动态 RAG 集成到蒙特卡洛树搜索中,解决知识增强推理中的错误传播和验证瓶颈问题,在多跳QA任务上平均准确率超 SOTA KAR 方法 23.10%,超 RAG-equipped 推理模型(DeepSeek-R1)25.37%。

Attention Entropy is a Key Factor for Parallel Context Encoding

发现并行上下文编码导致 query token 的注意力熵异常升高是性能下降的关键因素,并提出 Attention Sink 共享前缀和 Selective Attention 两种免微调方法有效缓解该问题。

AutoDS: Autonomous Data Selection with Zero-shot Generative Classifiers for Mathematical Texts

提出 AutoDS——用基座 LLM 自身作为零样本"生成分类器"自动评估数学文本质量。通过两个 yes/no 问题的 logits 计算连续 LM-Score(而非二分类),筛选高质量数学文本做持续预训练,在 MATH/GSM8K/BBH 上大幅提升并实现约 2 倍 token 效率提升。发布 AutoMathText 数据集。

Behavioural vs. Representational Systematicity in End-to-End Models: An Opinionated Survey

区分行为系统性(模型能否正确处理新组合)与表征系统性(模型内部表征是否结构化),指出当前基准和模型主要测试行为系统性却常声称解决了 Fodor-Pylyshyn 对表征系统性的挑战。基于 Hadley (1994) 的三级分类(弱/准/强系统性)分析语言和视觉关键基准的测试范围,最终呼吁用机械可解释性方法在行为评估之上补充表征分析。

Better Embeddings with Coupled Adam

从理论上证明 Adam 优化器的逐 token 二阶矩是导致 LLM 词嵌入各向异性(均值偏移)的根因,提出 Coupled Adam——对嵌入层的二阶矩取词汇平均——消除了各向异性问题,并在大规模实验中提升了嵌入质量和下游性能。

Beyond Frameworks: Unpacking Collaboration Strategies in Multi-Agent Systems

本文系统化地将多智能体协作分解为四个维度(治理模式、参与控制、交互模式、上下文管理),通过两个上下文依赖任务的大量实验证明:集中治理+指导者控制参与+有序交互+指导者摘要的组合最优,在保持甚至提升准确率的同时减少高达 93% 的 token 消耗。

Beyond True or False: Retrieval-Augmented Hierarchical Analysis of Nuanced Claims

提出 ClaimSpect 框架,将复杂声明自动分解为层次化的方面(aspect)树,并通过区分性检索从语料库中发现各方面的支持/中立/反对观点及其共识程度。

Bone Soups: A Seek-and-Soup Model Merging Approach for Controllable Multi-Objective Generation

提出 Bone Soup 模型合并方法,通过先构造"骨架奖励"(多目标奖励的组合)训练骨架模型、再用对称循环矩阵映射确定合并系数,解决了 Rewarded Soup 中单目标模型合并的次优性问题,在三个多目标生成任务上实现更好的 Pareto 前沿和可控性。

Bregman Conditional Random Fields: Sequence Labeling with Parallelizable Inference

提出 Bregman CRF (Bcrf),一种基于均值正则化(mean regularization)的新型序列标注判别模型,使用迭代 Bregman 投影实现可并行化的推理算法,替代传统 CRF 中固有顺序的 Viterbi/Forward 算法,在 POS/NER/分词任务上性能与标准 CRF 持平但更快,且在有禁止标签转移约束的场景下优于 Mean Field 方法。

Byte Latent Transformer: Patches Scale Better Than Tokens

Meta FAIR提出BLT——首个在大规模(8B参数/4T字节)上匹配基于tokenizer的LLM性能的字节级架构,通过基于下一字节熵的动态分组(patching)将字节聚合为可变长度patch,在保持性能的同时实现最高50%推理FLOP节省,并开辟了"同时增大模型和patch尺寸"的全新scaling维度。

CADReview: Automatically Reviewing CAD Programs with Error Detection and Correction

提出 CAD 程序审查任务及 ReCAD 框架,基于参考图像自动检测 CAD 程序中的错误并生成修正反馈,构建了包含 20K+ 样本(8 类错误)的 CADReview 数据集。

Can Community Notes Replace Professional Fact-Checkers?

通过大规模分析 Twitter/X 的 Community Notes 数据(66.4 万条),发现社区笔记对专业事实核查的依赖远超此前报告(至少 5-7%),证明高质量社区审核离不开专业事实核查,尤其在涉及阴谋论和更广泛虚假叙事的高风险内容上。

Can Uniform Meaning Representation Help GPT-4 Translate from Indigenous Languages?

探索将统一意义表示(UMR)语义图纳入 GPT-4 提示中,翻译三种原住民语言(纳瓦霍语、阿拉帕霍语、库卡马语),发现在大多数情况下 UMR 的加入带来统计显著的性能提升。

Capacity Matters: A Proof-of-Concept for Transformer Memorization on Real-World Data

本文以SNOMED医学知识图谱为数据源,系统研究了decoder-only Transformer在结构化数据上的记忆容量,发现嵌入维度是决定学习速度和容量的主要因素,而增加层数收效甚微,Softmax激活函数表现最稳定。

Causal Estimation of Tokenisation Bias

本文首次将 tokeniser 选择对语言模型输出的影响定义为"分词偏差"(tokenisation bias),并利用因果推断中的断点回归设计(RDD)来量化这一效应——发现当一个 subword 被纳入词表时,其对应字符串的概率最高可提升 17 倍(小模型),揭示分词是语言建模中一个被低估的关键设计选择。

Cautious Next Token Prediction

提出 Cautious Next Token Prediction (CNTP),一种无需训练的自适应解码策略:在模型预测熵较高(不确定)时采样多条候选路径至标点处,选择困惑度最低的路径作为最终续写,从而在不牺牲多样性的前提下显著提升准确性。

ChartLens: Fine-Grained Visual Attribution in Charts

提出图表的事后细粒度视觉归因(Post-Hoc Fine-grained Visual Attribution)任务,设计 ChartLens 算法利用分割技术标记图表元素并通过 Set-of-Marks 提示多模态 LLM 进行精确归因,同时构建 ChartVA-Eval 基准,在三类图表上取得 26-66% 的 F1 提升。

ChatBench: From Static Benchmarks to Human-AI Evaluation

通过用户实验将 MMLU 静态基准转换为用户-AI 对话,构建 ChatBench 数据集(396 道题、7336 段对话),发现 AI-alone 准确率无法预测 user-AI 准确率,并训练用户模拟器使相关性提升 22-26 个百分点,为可扩展的交互式评估奠基。

CoachMe: Decoding Sport Elements with a Reference-Based Coaching Instruction Generation Model

提出 CoachMe,通过对比学习者动作与参考动作的差异(时间+物理两个维度),自动生成运动特异性的教练指导文本,在花样滑冰和拳击上分别超过 GPT-4o 31.6% 和 58.3%(G-Eval)。

Collapse of Dense Retrievers: Short, Early, and Literal Biases Outranking Factual Evidence

本文首次系统研究稠密检索器中多种启发式偏见(简短偏见、前置偏见、字面偏见、重复偏见)的个体和组合效应,发现当多种偏见叠加时,检索器选择包含答案的文档的概率低于10%,且这些偏见可被利用来操纵RAG系统,导致34%的性能下降。

Com2: A Causal-Guided Benchmark for Complex Commonsense Reasoning

提出Com2基准,利用因果事件图和因果理论(干预/反事实)构建复杂常识推理任务,发现LLM在推理深度和广度上存在不足,后训练和慢思考可部分缓解。

Commonsense Reasoning in Arab Culture

构建首个阿拉伯文化特定常识推理数据集 ArabCulture(3482 道由母语者原创的题目,覆盖 13 国×54 主题),评估多种 LLM 发现即使 32B 参数模型也在文化常识推理上表现不佳,且不同地区表现差异显著,地理/文化上下文线索的加入仅部分有效。

Completing A Systematic Review in Hours instead of Months with Interactive AI Agents

提出 InsightAgent,一个以人为中心的交互式多 Agent 系统,通过语义聚类分区、多 agent 并行阅读和实时用户交互,将医学系统综述的撰写时间从数月缩短到约 1.5 小时,达到人类撰写质量的 79.7%。

CORAL: Learning Consistent Representations across Multi-step Training with Lighter Speculative Drafter

CORAL 通过跨步表示对齐(CSRA)改进多步训练中 draft 模型的特征一致性,并用权重分组机制压缩大词表 LM head 的推理延迟,在 LLaMA3/Qwen2.5 上实现 2.50-4.07× 加速,超越 EAGLE-2 和 HASS。

Cramming 1568 Tokens into a Single Vector and Back Again: Exploring the Limits of Embedding Space Capacity

通过逐样本优化方法将文本压缩到可训练的 [mem] 向量中,发现 Llama-3.1-8B 可以将 1568 个 token 无损压缩到单个输入向量中,揭示了现有方法(约 x10 压缩比)与实际可达极限(x1500+)之间存在两个数量级的差距。

Generating Plausible Distractors for Multiple-Choice Questions via Student Choice Prediction

提出选择题干扰项生成的三步流水线:(1) 训练配对排序器预测学生误选哪个干扰项;(2) 用排序器构造偏好数据集;(3) 用 DPO 训练生成器产生更具迷惑性的干扰项。在 CS 领域(Python/DB/ML)实验中,生成的干扰项更难以区分,且题目鉴别指数(DI)更高。

Divide-Then-Align: Honest Alignment based on the Knowledge Boundary of RAG

DTA 提出将 RAG 查询按参数知识边界和检索知识边界划分为四个象限,对"两者都不知道"的查询构造偏好数据用 DPO 训练模型回答"我不知道",解决了 RAFT 模型即使在检索完全噪声时也强行生成答案的问题,在准确率和适当弃权之间实现了有效平衡。

DoMIX: An Efficient Framework for Exploiting Domain Knowledge in Fine-Tuning

提出 DoMIX,将各领域知识用独立 LoRA 模块存储后通过对角初始化的 bridge 矩阵在微调时灵活组合利用,在持续领域适应预训练场景下减少 58% 预训练时间和 87% GPU 内存,同时性能超越 SOTA。

Principled Content Selection to Generate Diverse and Personalized Multi-Document Summaries

用行列式点过程(DPP)替代 LLM 的隐式内容选择来生成多样化多文档摘要——将任务分解为"提取原子关键点→DPP 选择多样子集→LLM 重写为摘要"三步,解决了 LLM 的"lost in the middle"问题,在 DiverseSumm 基准上一致提升了源覆盖率。

DREsS: Dataset for Rubric-based Essay Scoring on EFL Writing

发布 DREsS——一个面向 EFL(英语作为外语)写作教育的大规模标准化评分量规数据集(48.9K 样本),并提出基于文本损坏的 CASE 数据增强策略,将基线性能提升 45.44%。

Divide-Then-Aggregate: An Efficient Tool Learning Method via Parallel Tool Invocation

提出 DTA-Llama,将传统树搜索的串行工具调用路径转换为有向无环图(DAG)结构实现并行调用,设计 Process/Thread 推理框架使 LLM 在每轮中可分解任务并并行执行多个工具,在 StableToolBench 上使 Llama2-7B 达到 GPT-3.5 Parallel Function Calling 的水平。

An Effective Incorporating Heterogeneous Knowledge Curriculum Learning for Sequence Labeling

提出面向序列标注任务的双阶段课程学习(DCL)框架,通过数据级和模型级两阶段的由易到难训练策略以及基于贝叶斯不确定性的动态难度度量,在提升性能的同时加速训练超过 25%。

EcomScriptBench: A Multi-task Benchmark for E-commerce Script Planning via Step-wise Intention-Driven Product Association

提出电商脚本规划(EcomScript)任务及其首个大规模benchmark EcomScriptBench(605K脚本、2.4M产品),通过购买意图(purchase intention)桥接用户行动步骤与产品检索的语义鸿沟,实验发现当前LLM在涉及产品的子任务上表现显著不足,注入意图知识可提升性能。

Efficient Knowledge Editing via Minimal Precomputation

证明了 MEMIT/ROME/EMMET 等知识编辑方法的预计算步骤(缓存 4400 万隐向量)可以减少到理论最小值的 2-10 倍(不到原来的 0.3%),将预计算时间从数十小时降到几分钟,且编辑性能基本无损。

Enhancing Transformers for Generalizable First-Order Logical Entailment

系统性研究 Transformer 在一阶逻辑蕴涵任务中的泛化推理能力,揭示了查询语法、token 嵌入和 Transformer 架构(特别是位置编码)的影响,并提出 TEGA(Transformer Encoder with Guided Attention)在相对位置编码设定下显著提升逻辑推理性能。

Model Extrapolation Expedites Alignment

基于"对齐训练仅产生微小参数变化"的观察,提出ExPO方法——通过放大SFT→DPO的参数变化方向(\(\theta_2 = \theta_1 + \alpha\Delta\theta\)),在零额外训练开销下提升对齐性能,使仅训练20%步骤的DPO模型超越完整训练的版本。

FaithfulRAG: Fact-Level Conflict Modeling for Context-Faithful Retrieval-Augmented Generation

发现现有忠实 RAG 方法通过强制抑制参数知识来实现上下文忠实,但这增加了误解上下文的风险(不忠实错误减少 6.65% 的同时错误匹配增加 6.42%)。提出 FaithfulRAG,通过事实级冲突识别(自事实挖掘)和冲突推理(自思考模块)解决知识冲突,在 FaithEval/SQuAD/MuSiQue/RealtimeQA 上超越最强基线 8-9 个百分点。

Towards Robust and Efficient Federated Low-Rank Adaptation with Heterogeneous Clients

提出 LoRA-A²(Low Rank Adaptation with Alternating freeze and Adaptive rank selection),通过交替冻结 A/B 矩阵解决联邦 LoRA 聚合不一致问题,并结合自适应秩选择机制在大幅压缩上传参数量(最高减少 99.8%)的同时保持鲁棒性,尤其在低秩+高数据异构场景下显著优于现有方法。

FinanceReasoning: Benchmarking Financial Numerical Reasoning More Credible, Comprehensive and Challenging

提出 FinanceReasoning benchmark,通过重标注公开数据集、构建 3,133 个 Python 金融函数库和新增 908 道专家标注难题,在可信度、全面性和挑战性三个维度提升金融数值推理评估能力。

Behind Closed Words: Creating and Investigating the forePLay Annotated Dataset for Polish Erotic Discourse

构建了首个波兰语色情内容检测数据集 forePLay(24,768 句,5 类标签),提出涵盖模糊性、暴力和社会不可接受行为的多维标注体系,评估发现专用波兰语模型显著优于多语言模型,且 Transformer 编码器模型在不平衡类别处理上表现最强。

Frictional Agent Alignment Framework: Slow Down and Don't Break Things

提出摩擦对齐框架 FAAF(Frictional Agent Alignment Framework),通过双策略(frictive state policy + intervention policy)目标函数,训练 LLM 在协作对话中识别信念冲突并生成促进反思与审议的"摩擦"干预,超越 DPO/IPO/PPO 等对齐方法。

GainRAG: Preference Alignment in Retrieval-Augmented Generation through Gain Signal Synthesis

发现 RAG 中检索器的"相关性"与 LLM 的"偏好"存在偏差——含正确答案的段落仍可能导致错误生成,而间接相关段落反而有用。提出 GainRAG,用基于对比解码困惑度的"增益"信号量化 LLM 偏好,训练轻量选择器在检索结果中选择真正有"增益"的段落,在 6 个 QA 数据集上显著超越 Standard RAG 和 Rerank 基线。

Controllable and Reliable Knowledge-Intensive Task-Oriented Conversational Agents with Declarative Genie Worksheets

Genie 提出了一个可编程的知识密集型任务导向对话框架,通过声明式 Worksheet 规范定义 Agent 策略,将 LLM 限制在语义解析和回复生成两个角色,由算法化运行时系统强制执行策略,实现从 21.8% 到 82.8% 的真实任务完成率提升。

Gumbel Reranking: Differentiable End-to-End Reranker Optimization

将 RAG 系统中的重排序过程重新建模为文档级 Top-k 注意力掩码问题,利用 Gumbel 技巧和松弛 Top-k 采样实现端到端可微优化,直接最小化最终语言建模损失,在 HotpotQA 上 Recall@5 提升 10.4%。

HateDay: Insights from a Global Hate Speech Dataset Representative of a Day on Twitter

HateDay 构建了首个全球代表性仇恨言论数据集——24 万条随机采样的 Twitter 推文覆盖 8 种语言和 4 个英语国家,揭示了学术数据集大幅高估了检测模型在真实场景中的表现,尤其对非欧洲语言检测能力极差。

Hierarchical Bracketing Encodings for Dependency Parsing as Tagging

提出层次化括号编码家族用于依存句法分析的序列标注范式,证明现有4-bit编码是该家族的非最优特例,推导出仅需12个标签的最优编码,并将其推广到处理任意非投射性。

Hierarchical Memory Organization for Wikipedia Generation

提出 Memory Organization-based Generation(MOG)框架,从网页文档中提取细粒度记忆单元(factoid),通过递归聚类-摘要算法组织为层次化 Wikipedia 大纲结构,使每个章节都有直接的记忆支撑,在 FreshWiki 和 WikiStart 数据集上信息量、引用率和可验证性全面超越 RAG 和 STORM 基线。

Hierarchical Level-Wise News Article Clustering via Multilingual Matryoshka Embeddings

本文提出利用多语言 Matryoshka 嵌入的分层特性进行新闻文章聚类:低维捕捉主题级相似度、中维捕捉叙事级相似度、高维捕捉事件级相似度,结合改良的 RAC 层级聚类算法,在 SemEval 2022 Task 8 上达到 SOTA(Pearson ρ = 0.816)。

Counterspeech the Ultimate Shield! Multi-Conditioned Counterspeech Generation through Attributed Prefix Learning

提出 HiPPrO 两阶段框架用于多条件反仇恨言论生成——第一阶段通过层次化前缀学习在多个属性(策略+情感)空间中优化反言论生成,第二阶段用无参考无奖励的偏好优化提升建设性,策略一致性提升 ~38%,ROUGE 指标提升 2-3%。

HybGRAG: Hybrid Retrieval-Augmented Generation on Textual and Relational Knowledge Bases

提出 HybGRAG 方法,通过检索器库(Retriever Bank)同时利用文本和关系信息,配合 Critic 模块的自反思迭代纠正问题路由错误,在半结构化知识库上的混合问答任务中 Hit@1 平均提升 51%。

Enhancing Hyperbole and Metaphor Detection with Their Bidirectional Dynamic Interaction and Emotion Knowledge

提出 EmoBi 框架,通过情感分析→情感引导的域映射→双向动态交互三阶段 prompting 流程,利用 LLM 挖掘夸张和隐喻背后的情感线索及二者的互促关系,在四个数据集上大幅超越 SoTA(TroFi 上夸张检测 F1 提升 28.1%,HYPO-L 上隐喻检测 F1 提升 23.1%)。

If Attention Serves as a Cognitive Model of Human Memory Retrieval, What is the Plausible Memory Representation?

通过将 Transformer Grammar(TG)的注意力机制与人类阅读时间数据关联,首次证明在句法结构上操作的注意力比在 token 序列上操作的普通 Transformer 注意力能更好地预测人类阅读行为,揭示人类句子处理涉及"句法结构+词序列"的双重记忆表征。

Predicting Implicit Arguments in Procedural Video Instructions

提出 Implicit-VidSRL 数据集与 iSRL-Qwen2-VL 模型,针对过程性视频指令中省略的隐含论元(食材成分)进行预测,通过 SRL 框架将多步指令分解为 {verb, what, where/with} 三元组,在银标数据上微调后在隐含论元 F1 上超越 GPT-4o 达 17%。

ImpliHateVid: Implicit Hate Speech Detection in Videos

首次提出视频中隐性仇恨言论检测任务,构建2009个视频的ImpliHateVid数据集,并设计两阶段对比学习框架融合文本、图像、音频三模态特征。

Ewe: Improving Factuality with Explicit Working Memory

提出 Ewe(Explicit Working mEmory),在 LLM 解码过程中引入由多个 KV cache 单元组成的显式工作记忆,实时接收检索知识反馈和事实核查反馈,检测到错误时删除错误句子并用更新后的记忆重新生成,在 4 个事实性长文本生成基准上将 VeriScore F1 提升 2–6 分且不损失回答有用性。

Improving Language and Modality Transfer in Translation by Character-level Modeling

提出基于字符级编码器 charSONAR 的跨语言跨模态翻译方法,通过 teacher-student 训练获得字符级文本编码器,再用轻量适配器连接 1000+ 语言的 CTC ASR 模型(MMS),在 75 语言文本翻译和 33 语言语音翻译上实现 SOTA,零资源低资源场景表现尤其突出。

InSerter: Speech Instruction Following with Unsupervised Interleaved Pre-training

提出 InSerter(交错语音-文本预训练)方法,通过 TTS 将大规模文本语料合成为交错的语音-文本序列进行预训练,大幅提升 SpeechLLM 的语音指令遵循能力,并构建首个全面的语音指令遵循基准 SpeechInstructBench。

InspireDebate: Multi-Dimensional Evaluation-Guided Reasoning for Debating

提出双组件框架:InspireScore(融合4个主观维度+2个客观维度的辩论评估系统)和 InspireDebate(通过CoT-SFT + 多维DPO + Web-RAG 三阶段优化的辩论框架),评估系统与专家判断相关性提高 44%,辩论性能超越基线 57%。

Intuitive Fine-Tuning: Towards Simplifying Alignment into a Single Process

通过MDP框架将SFT和偏好优化统一建模为"偏好估计+转移优化"两个子过程,揭示SFT本质上是偏好优化的特殊退化形式(使用偏差先验),提出IFT方法通过时间残差连接在仅使用SFT格式数据的条件下实现接近或超越SFT+PO顺序训练的对齐效果。

KnowShiftQA: How Robust are RAG Systems when Textbook Knowledge Shifts in K-12 Education?

构建了 KnowShiftQA 数据集(3,005 道题,覆盖 5 个学科),通过假设性知识更新模拟教科书与 LLM 参数知识的差异,系统评估 RAG 系统面对知识偏移时的鲁棒性,发现现有 RAG 系统在知识偏移下性能下降 22-27%。

KokoroChat: A Japanese Psychological Counseling Dialogue Dataset Collected via Role-Playing by Trained Counselors

提出 KokoroChat,一个通过训练有素的咨询师角色扮演收集的日语心理咨询对话数据集,包含 6,589 段长对话及详细的客户反馈评分,用于提升 LLM 的心理咨询回复生成和对话评估能力。

LAQuer: Localized Attribution Queries in Content-grounded Generation

提出 Localized Attribution Queries (LAQuer) 任务——将生成文本中用户选定的片段精确定位到源文档的对应片段,实现比句子级归因更精细、比子句级归因更用户导向的溯源,在多文档摘要和长文本问答上显著减少了归因文本长度。

Length-Induced Embedding Collapse in PLM-based Models

发现并严格证明了 PLM 文本嵌入模型中的"长度坍缩"现象——长文本嵌入趋于聚集,源于 self-attention 作为低通滤波器随文本长度增加而滤波率增强,高频信息被过度抑制;提出 TempScale 方法通过降低 attention 温度来缓解长短文本嵌入分布差异,在 MTEB 上提升 0.94%、LongEmbed 上提升 1.10%。

Literature Meets Data: A Synergistic Approach to Hypothesis Generation

提出首个将文献驱动和数据驱动假设生成进行协同整合的方法,通过 Refinement 和 Union 两种策略让 LLM 从论文摘要和观测数据中联合生成更具泛化性的假设,在五个社会科学分类任务的 OOD 数据集上比纯数据驱动方法平均提升 3.37%,并首次通过人类实验证明 LLM 生成的假设能显著改善人类决策准确率(+7.44% / +14.19%)。

LoGU: Long-form Generation with Uncertainty Expressions

定义"长文本不确定性生成"(LoGU)任务,识别不确定性抑制和不确定性错位两个子挑战,提出基于分解的数据构造框架和 SFT+DPO 两阶段训练流水线,使 LLM 在长文本生成中对不确定事实显式表达不确定性,在三个数据集上将 Llama3-8B 的事实准确率从 51.9% 提升到 71.6%,错误声明数从 20.4 降到 5.81。

Read it in Two Steps: Translating Extremely Low-Resource Languages with Code-Augmented Grammar Books

将语法书辅助的极低资源翻译(XLR MT)分解为语法规则检索和规则应用两步,并提出用代码格式表示语法规则以提升 LLM 在两步中的表现,在壮语翻译上实现了 13.1% BLEU 的提升。

Micro-Act: Mitigate Knowledge Conflict in QA via Actionable Self-Reasoning

提出 Micro-Act 框架,通过层次化动作空间(导航/功能/桥接动作)和自适应粒度分解,让 LLM 自动感知上下文复杂度并逐层拆解知识对比,在 5 个知识冲突基准上全面超越 SOTA,同时在无冲突场景下也保持鲁棒。

MindRef: Mimicking Human Memory for Hierarchical Reference Retrieval with Fine-Grained Location Awareness

提出 MindRef 框架,模拟人类先回忆文档标题再定位具体段落的两阶段记忆模式,通过 Trie 和 FM-Index 约束解码让 LLM 独立召回参考段落,无需额外检索模型或预分段。

InterpoLL: Mitigating Shortcut Learning with InterpoLated Learning

提出 InterpoLL,通过将多数样本的表征与同类少数样本的表征做插值 \(z_i = (1-\lambda)f_{enc}(x_i) + \lambda f_{enc}(x_j)\) 来弱化捷径特征影响,在 MNLI/FEVER/QQP 等 NLU 任务上少数样本泛化显著超越 ERM 和 SOTA 捷径缓解方法,且不损失多数样本准确率。

Modular Sentence Encoders: Separating Language Specialization from Cross-Lingual Alignment

本文提出模块化多语言句子编码器训练方案:先训练语言特定模块(embedding + 语言适配器 + 句子编码适配器)缓解多语言诅咒,再训练跨语言对齐适配器同时使用平行和释义数据解决不同跨语言任务间的性能权衡,在 4 个任务和 23 种语言上全面优于单体模型训练。

MOSAIC: Multiple Observers Spotting AI Content

基于信息论中的通用压缩原理,提出 MOSAIC——多 LLM 集成的 AI 生成文本检测方法,通过 Blahut-Arimoto 算法为多个 detector LLM 计算最优组合权重,构建混合分布作为观察者,比较文本的实际 surprisal 与混合模型的期望交叉熵差异来判断是否为 AI 生成,在多个域/语言/生成器上鲁棒优于单模型和双模型(如 Binoculars)方法。

Data Quality Issues in Multilingual Speech Datasets: The Need for Sociolinguistic Awareness and Proactive Language Planning

对三大公开多语言语音数据集(Common Voice、FLEURS、VoxPopuli)进行系统质量审计,发现低资源语言存在严重的微观和宏观质量问题,并提出基于社会语言学意识的数据集创建指南。

Unifying Continuous and Discrete Text Diffusion with Non-simultaneous Diffusion Processes

提出 NeoDiff,通过引入"外在时间"(句子级扩散进度)和"内在时间"(token 级扩散进度)的双时间框架,利用 Poisson 过程为每个 token 独立分配细粒度噪声水平,并用上下文感知的时间预测器自适应调节去噪进度,统一了离散和连续文本扩散模型的理论框架,在机器翻译、复述、文本简化等多个任务上超越现有扩散基线。

Normalized AOPC: Fixing Misleading Faithfulness Metrics for Feature Attribution Explainability

本文揭示了广泛使用的 AOPC(扰动曲线下面积)忠实度指标在跨模型比较时会产生误导性结论(因为不同模型的 AOPC 上下界差异巨大),提出 Normalized AOPC (NAOPC) 通过 min-max 归一化消除模型间的不可比性,实验表明归一化可以根本性地改变模型忠实度排名。

Enhancing Automated Interpretability with Output-Centric Feature Descriptions

提出两种以输出为中心的特征描述方法(VocabProj 和 TokenChange),弥补现有基于输入激活的自动可解释性流程只能捕获"什么激活了特征"而忽略"特征如何影响输出"的缺陷,并证明输入+输出方法的集成能生成最忠实的特征描述。

Towards Better Evaluation for Generated Patent Claims

提出首个专利权利要求评估基准 Patent-CE(1228 个专家标注的比较评估数据点)和专用评估方法 PatClaimEval(基于 Longformer + 对比学习变体),在特征完整性、概念清晰度、术语一致性、逻辑连接和整体质量五个维度上与人类专家评估的相关性全面超越 13 种现有指标(包括 G-Eval-4),整体质量维度的 Spearman 提升 58%。

Personalized Generation In Large Model Era A Survey

首篇跨模态个性化生成(PGen)综合综述,提出统一的用户中心视角将 NLP/CV/IR 社区的研究纳入一个框架,系统化梳理了文本/图像/视频/音频/3D/跨模态六大模态下的个性化技术、数据集和评估指标,涵盖 200+ 篇文献,并指出可扩展性、偏好演化、隐私公平等关键挑战。

All That Glitters is Not Novel: Plagiarism in AI Generated Research

在对自主科研 Agent(如 AI Scientist)生成的研究文档进行专家审查后发现,24% 的文档是"智能剽窃"——方法论与已有工作一一对应但不引用原始来源,且现有剽窃检测工具无法识别这种"改头换面"的抄袭。

Principled Understanding of Generalization for Generative Transformer Models in Arithmetic Reasoning Tasks

建立首个统一理论框架来理解 Transformer 在算术任务(加法/乘法/模运算)上的泛化行为——从任务性质(平移不变性)和位置编码类型(APE/RPE)的交互出发,解释了之前困扰领域的多个泛化谜题(如加法能泛化但乘法不能,模100能泛化但模101不能),实验验证了理论预测。

PRISM: A Framework for Producing Interpretable Political Bias Embeddings

提出PRISM框架——首个专为政治偏见嵌入设计的方法,通过争议性话题偏见指标挖掘和Cross-Encoder政治偏见评分两阶段,生成可解释的偏见感知嵌入,在政治偏见分类上超越通用文本嵌入模型。

Substance over Style: Evaluating Proactive Conversational Coaching Agents

通过健康教练领域的专家访谈和用户研究(31 名参与者、155 段对话),系统评估了五种不同对话风格(Directive、Interrogative、Facilitative)的 LLM 教练 Agent,发现用户高度重视核心功能性(substance)而对缺乏功能性时的风格修饰(style)持负面态度,同时揭示了用户第一人称评价与专家/LLM 第三方评价之间的显著不一致。

ProxAnn: Use-Oriented Evaluations of Topic Models and Document Clustering

ProxAnn 设计了一个面向实际使用场景的主题模型/文档聚类评估协议——标注者先从模型输出推断类别再将类别应用到新文档——并证明 LLM 代理标注者可以统计不可分辨地替代人类标注者,同时发现经典 LDA 在此评估下表现不弱于现代方法。

Uncovering Visual-Semantic Psycholinguistic Properties from the Distributional Structure of Text Embedding Space

提出 Neighborhood Stability Measure (NSM),仅通过文本嵌入空间中邻域的"尖锐度"来无监督估计词汇的可意象性(imageability)和具体性(concreteness),无需视觉模态或生成模型即可超越现有方法。

PVP: An Image Dataset for Personalized Visual Persuasion with Persuasion Strategies, Viewer Characteristics, and Persuasiveness Ratings

构建了首个大规模个性化视觉说服数据集 PVP(28,454 张图像、596 条消息、9 种说服策略、2,521 位标注者的心理特征),并提出说服图像生成和评估两个任务,发现融入观看者的心理特征能显著提升说服图像的生成和评估效果。

Quantifying Lexical Semantic Shift via Unbalanced Optimal Transport

将 Unbalanced OT 应用于上下文化词嵌入来量化词义变迁,提出 Sense Usage Shift (SUS) 指标在每个用法实例级别量化语义变化(义项使用频率增减),统一解决实例级变化检测、词级变化幅度量化、词义扩展/缩小判定。

ReflectDiffu: Reflect between Emotion-intent Contagion and Mimicry for Empathetic Response Generation via a RL-Diffusion Framework

提出轻量级共情对话框架 ReflectDiffu,融合情感传染(捕捉情绪)、意图二次机制(Exploring-Sampling-Correcting将情绪映射为行动意图)和扩散模型生成,在相关性、可控性和信息量上全面超越现有基线和 Llama-3.1-8B。

Re-identification of De-identified Documents with Autoregressive Infilling

提出一种基于 RAG 的再识别攻击方法,通过稀疏检索+稠密检索+自回归填充的三阶段流程,对去标识化文档进行逆向攻击,在三个数据集上高达 80% 的被遮蔽文本片段可被成功恢复,揭示了当前去标识化方法的脆弱性。

Identifying Reliable Evaluation Metrics for Scientific Text Revision

系统分析了传统相似度指标(ROUGE、BERTScore 等)在科学文本修订评估中的局限性,发现它们强相关于编辑距离且惩罚深度修改,并证明结合 LLM-as-Judge 和任务特定指标的混合方法最能对齐人类评判。

REP: Keys to Robust Edits — From Theoretical Insights to Practical Advances

揭示locate-and-edit知识编辑方法中语义键的根本缺陷——内部表示无法同时满足鲁棒性和特异性,提出REP模块通过对比学习解耦编辑键,在鲁棒性测试上提升最高66.4%。

Retrieve to Explain: Evidence-driven Predictions for Explainable Drug Target Identification

提出 R2E (Retrieve to Explain),一种基于检索的架构,通过从文献语料库中检索证据来评分和排序所有候选答案,并利用 Shapley 值将预测忠实地归因到支撑证据,在药物靶点识别任务上超越了遗传学基线和 GPT-4 基线。

Revisiting Weak-to-Strong Generalization: Reverse KL vs. Forward KL

在 Weak-to-Strong Generalization (W2SG) 框架中,提出用 reverse KL 替代 forward KL 作为损失函数——理论证明 reverse KL 的 mode-seeking 特性可保证强模型超过弱监督者至少"分歧量"的幅度,实验在 GPT-2/Pythia/Qwen2.5 系列上验证 reverse KL/CE 在 12/12 设置中超越 forward KL 且噪声鲁棒性更好。

Rubrik's Cube: Testing a New Rubric for Evaluating Explanations on the CUBE Dataset

提出 Rubrik——受教育评估启发的解释质量评价量规,基于三层嵌套类型体系(Commentary⊆Justification⊆Argument)+ 8 维质量维度,配套 CUBE 数据集(26K 条由人类和 6 个 LLM 生成的解释),发现 LLM 解释低质主因是缺乏简洁性而非连贯性。

SCAR: Data Selection via Style Consistency-Aware Response Ranking for Efficient Instruction-Tuning

SCAR 识别出回复的"语言形式"和"指令惊奇度"是影响 LLM 指令微调效果的两个关键风格因素,并提出基于风格一致性的排序方法自动选择高质量训练数据,仅用 0.7% 的原始数据就能让微调后的 LLM 匹配甚至超越全数据集训练的性能。

SEOE: A Scalable and Reliable Semantic Evaluation Framework for Open Domain Event Detection

针对开放域事件检测(ODED)评估的两大痛点——有限 benchmark 缺乏真实世界代表性、token 级匹配指标无法捕捉语义相似性——提出 SEOE 框架,构建包含 564 种事件类型覆盖 7 大领域的可扩展 benchmark,并引入基于 LLM 的语义 F1 评估指标。

Shifting from Ranking to Set Selection for Retrieval Augmented Generation

提出从"逐个排序"到"集合选择"的 RAG 检索范式转换——SetR 通过 CoT 推理显式识别查询的信息需求,然后选择一组能共同满足这些需求的段落(而非逐个评分最相关的),在多跳 RAG 基准上超越 GPT-4o 级别的重排器。

SHARE: An SLM-based Hierarchical Action CorREction Assistant for Text-to-SQL

提出 SHARE 框架,通过三个专用小语言模型(SLM)组成的顺序管道,将 SQL 查询转换为逐步动作轨迹并分别修正 schema 错误和逻辑错误,从而以低成本高效辅助 LLM 进行 Text-to-SQL 自纠正。

ShifCon: Enhancing Non-Dominant Language Capabilities with a Shift-based Multilingual Contrastive Framework

提出 ShifCon 框架,通过将非优势语言的表示 shift 到优势语言子空间以获取更丰富的模型知识,再 shift 回原语言子空间进行生成,结合多语言对比学习,显著提升低资源语言的表现。

Statistical Deficiency for Task Inclusion Estimation

基于统计缺陷性(statistical deficiency)理论,提出一种理论驱动的任务包含关系(task inclusion)定义与度量框架,以信息充分性(information sufficiency, IS)作为可计算代理指标,通过比较微调模型的中间层表征来估计任务间的包含程度,并在合成数据和真实NLP任务上成功重建了经典NLP pipeline的层次关系。

STRICTA: Structured Reasoning in Critical Text Assessment for Peer Review and Beyond

提出 STRICTA 框架,基于结构因果模型(SCM)将文本评审建模为显式的逐步推理图(workflow),在生物医学论文评审中收集 40+ 位专家的 4000+ 推理步骤数据集,发现先验知识差异是专家分歧主因、写作风格对最终评审有因果影响,LLM 存在错误传播但人类监督可有效缓解。

SudoLM: Learning Access Control of Parametric Knowledge with Authorization Alignment

SudoLM 提出了一种 LLM 参数化知识访问控制框架,通过"SUDO key"机制让授权用户解锁受限知识(如医学领域知识),未授权用户则只能访问公开知识,用 DPO 的 authorization alignment 在一个模型内实现了传统需要多版本模型才能完成的分级访问控制。

The Harmonic Structure of Information Contours

提出 Harmonic Surprisal (HS) 假说——文本中 surprisal 曲线呈周期性波动且周期与语篇结构(EDU/句子/段落)对齐,用带时间缩放的谐波回归检验,在 6 种语言上发现一致的周期模式,精化了经典的 Uniform Information Density 假说。

Learning to Reason Over Time: Timeline Self-Reflection for Temporal Reasoning

提出 TISER 框架,通过"推理→时间线构建→自反思→答案生成"四阶段管道实现LLM时间推理的test-time scaling,配合合成推理轨迹数据微调,让 7B 开源模型在多个时间推理基准上超越 GPT-4,在TGQA等任务上达到 SOTA。

TokAlign: Efficient Vocabulary Adaptation via Token Alignment

提出 TokAlign,基于 Token 共现信息学习两个词表之间的一对一映射矩阵,高效替换 LLM 的词表,实现跨语言知识迁移和跨模型 token 级蒸馏。

Did Translation Models Get More Robust Without Anyone Even Noticing?

通过合成噪声和社交媒体文本的系统性实验,证明现代大规模预训练翻译模型(LLM)在未经任何专门鲁棒性训练的情况下,对多种输入噪声的鲁棒性已远超传统 NMT 模型,鲁棒性随模型规模增长自然提升。

TROVE: A Challenge for Fine-Grained Text Provenance via Source Sentence Tracing and Relationship Classification

提出TROVE文本溯源挑战,将目标文本中每个句子追溯到源文档中的具体源句,并分类其细粒度关系(引用、压缩、推理等),覆盖多文档和长文档场景。

Tuna: Comprehensive Fine-grained Temporal Understanding Evaluation on Dense Dynamic Videos

本文提出 Tuna,一个面向密集动态视频的细粒度时序理解基准,包含 1000 个精心标注的视频和两个互补任务(Tuna-cap 字幕生成和 Tuna-mcq 视频问答),覆盖相机状态、场景、动作、属性四大动态要素,评估 21 个模型后发现即使 GPT-4o 也仅达 58.5% F1,揭示了当前模型在时序理解上的重大不足。

USDC: A Dataset of User Stance and Dogmatism in Long Conversations

构建 USDC——首个用户级长对话立场和教条主义数据集,764 个多用户 Reddit 对话(22 子版块),用 {Mistral Large, GPT-4} × {zero/one/few-shot} 共 6 设置多数投票标注立场(5级)+教条程度(4级),并用 7 个 SLM 微调/指令微调建立基线。

VITAL: A New Dataset for Benchmarking Pluralistic Alignment in Healthcare

本文构建了首个面向医疗健康领域的多元化对齐(pluralistic alignment)基准数据集 VITAL,包含 13.1K 价值观情境和 5.4K 多选题,并通过对 8 个 LLM 的广泛评估表明,现有多元化对齐技术(尤其是 ModPlural)在医疗场景下表现不佳,简单的 prompting 反而效果更好。

When to Speak, When to Abstain: Contrastive Decoding with Abstention

提出 CDA(Contrastive Decoding with Abstention),一种免训练解码方法,通过熵校准的不确定性估计让 LLM 在参数/上下文知识可用时生成正确回答、在两者都不可靠时主动弃权,覆盖全部四种知识可用性场景。

X-Turing: Towards an Enhanced and Efficient Turing Test for Long-Term Dialogue Agents

提出 X-Turing 框架,通过引入 burst 对话模式和伪对话生成技术来增强和高效化图灵测试,能够评估 LLM 在长期对话中的人类模仿能力,发现 LLM 随着对话轮次增加表现显著下降。