🔍 信息检索/RAG¶
🧠 NeurIPS2025 · 31 篇论文解读
- Benchmarking Retrieval-Augmented Multimodal Generation for Document Question Answering
-
提出 MMDocRAG 基准(4055 个专家标注的 QA 对),系统评估了 60 个 VLM/LLM 和 14 个检索器在多模态文档检索增强生成中的引用选择和交错图文回答能力,揭示当前最强模型 GPT-4.1 的 Quote Selection F1 仅 70.2%,微调可显著提升性能。
- Chain-of-Retrieval Augmented Generation (CoRAG)
-
提出 CoRAG 框架,通过拒绝采样自动生成中间检索链(子查询→子答案),微调 LLM 学习迭代检索和推理,并支持多种测试时解码策略(贪心 / Best-of-N / 树搜索)灵活扩展计算量,在多跳 QA 上 EM 提升 26+ 点,KILT 基准 9/10 任务达到 SOTA。
- Compress, Gather, and Recompute: REFORMing Long-Context Processing in Transformers
-
提出 REFORM 推理框架,通过"压缩—检索—重算"三阶段流水线高效处理超长上下文(百万级 token),在 RULER 和 BABILong 上相比最强基线分别提升 52% 和 34%,同时降低 30% 推理时间和 5% 峰值显存。
- Cooperative Retrieval-Augmented Generation for Question Answering: Mutual Information Exchange and Ranking by Contrasting Layers
-
提出CoopRAG框架,通过问题展开、基于检索器层对比的重排、以及推理链补全,实现检索器与LLM的双向合作,在多跳QA上超越HippoRAG2 5.3%,单跳QA上提升35.2%。
- Deep Research Brings Deeper Harm
-
揭示 Deep Research (DR) 智能体的严重安全隐患——即使底层 LLM 能正确拒绝有害请求,部署为 DR 智能体后仍能生成详细专业的危险报告;提出 Plan Injection 和 Intent Hijack 两种针对性越狱方法,以及 DeepREJECT 评估指标,在 6 个 LLM 上验证了 DR 智能体系统性地削弱了对齐机制。
- DICE: Discrete Interpretable Comparative Evaluation with Probabilistic Scoring for RAG
-
提出 DICE 框架,通过两阶段评估(证据耦合深度分析 + 概率化 {A,B,Tie} 打分)和瑞士赛制锦标赛实现 RAG 系统的可解释、鲁棒、高效评估,在中文金融 QA 数据集上达到 85.7% 人类专家一致率,远超 RAGAS(45.7%)。
- Generalized Contrastive Learning for Universal Multimodal Retrieval
-
提出 Generalized Contrastive Learning (GCL)——在 mini-batch 内对所有 6 种模态对组合(image↔text, image↔image+text, text↔image+text)执行对比学习,无需构建新的三元组数据集,仅用现有图文对即可在 M-BEIR 上将 VISTA 的平均检索精度从 21.18 提升到 34.06(+60.8%),在 MMEB 的 text→image+text 任务上从 10.1% 提升到 31.1%。
- Hierarchical Retrieval: The Geometry and a Pretrain-Finetune Recipe
-
研究双编码器(Dual Encoder)在层次化检索(Hierarchical Retrieval)中的可行性,理论证明嵌入维度只需与层次深度线性、文档数对数增长即可求解,并发现"远距离丢失"现象后提出预训练-微调策略,在 WordNet 上将远距离召回率从 19% 提升至 76%。
- HiFi-RAG: Hierarchical Content Filtering and Two-Pass Generation for Open-Domain RAG
-
通过分离轻量级 Flash 模型的过滤能力与 Pro 模型的推理能力,构建多阶段管道(查询优化→分层过滤→两阶段生成→引文验证),在 MMU-RAGent 竞赛中实现 SOTA 性能。
- How Should We Evaluate Data Deletion in Graph-Based ANN Indexes?
-
针对图基ANN索引缺乏统一数据删除评估方法的问题,形式化定义了逻辑删除、物理删除和重建三种基准方法,提出面向实际部署的评估框架和指标体系,并基于实验分析提出Deletion Control算法在精度约束下动态切换删除策略。
- HyperGraphRAG: Retrieval-Augmented Generation via Hypergraph-Structured Knowledge Representation
-
提出 HyperGraphRAG,首个基于超图 (hypergraph) 结构的 RAG 方法,通过超边 (hyperedge) 建模 n 元关系(n≥2),克服了现有图谱 RAG 方法受限于二元关系的瓶颈,在医学、农业、计算机科学和法律等领域的问答任务中全面超越 StandardRAG 和 GraphRAG 系列方法。
- Improving Consistency in Retrieval-Augmented Systems with Group Similarity Rewards
-
提出 Con-RAG 框架,通过 Paraphrased Set GRPO (PS-GRPO) 在语义等价查询的多次生成之间计算组相似度奖励,训练 RAG 系统的生成器在释义输入下产生信息一致的输出,无需显式真实标签监督即可同时提升一致性和准确性。
- Is PRM Necessary? Problem-Solving RL Implicitly Induces PRM Capability in LLMs
-
系统研究表明纯 RL 训练(无需显式 PRM 监督)能隐式诱导出强大的过程判断能力,且现有 PRM 在 DeepSeek-R1/QwQ-32B 等强推理模型上甚至不如简单多数投票有效;提出 Self-PRM 让模型用自身的内部奖励信号重排输出,一致性地优于外部 PRM。
- Learning Task-Agnostic Representations through Multi-Teacher Distillation
-
提出基于互信息最大化的任务无关多教师蒸馏框架,通过高斯核估计教师嵌入的条件分布来训练学生模型,使其在不依赖任何下游任务标签的情况下学到高信息密度的通用表示,在文本、视觉和分子建模三个领域均取得了同体量最优性能。
- Mind the Gap: Aligning Knowledge Bases with User Needs to Enhance Mental Health Retrieval
-
提出一种基于"需求差距"分析的知识库增强框架,通过叠加真实用户数据(论坛帖子)与现有心理健康资源库来识别内容空白,并用定向增强策略以最少的文档增量达到接近完整语料库的 RAG 检索质量。
- MIR-Bench: Can Your LLM Recognize Complicated Patterns via Many-Shot In-Context Reasoning?
-
提出 MIR-Bench,首个大规模多样化的 many-shot 上下文推理基准,通过从编程题中自动生成输入输出对来测试 LLM 的模式识别能力,发现 LLM 在 many-shot 场景下存在注意力分散导致的性能饱和现象,且转导推理普遍优于归纳推理。
- MITRA: An AI Assistant for Knowledge Retrieval in Physics Collaborations
-
提出 MITRA,一个面向大型物理实验协作(如 CERN CMS)的本地化 RAG 系统,采用两层向量数据库架构(摘要库 + 全文库)和完全本地部署策略,在语义检索任务上显著优于传统关键词搜索(BM25),Precision@1 从 0.13 提升至 0.75。
- MuRating: A High Quality Data Selecting Approach to Multilingual Large Language Model Pretraining
-
提出 MuRating,一个可扩展的多语言数据选择框架:先通过配对比较聚合多个英文数据质量评分器,再借助翻译将质量信号迁移到 17 种语言,训练出语言无关的多语言质量评估模型,在 1.2B 和 7B 规模 LLM 预训练中取得了持续的性能提升。
- RAG-IGBench: Innovative Evaluation for RAG-based Interleaved Generation in Open-domain Question Answering
-
提出 RAG-IGBench,一个专门评估基于检索增强生成的交错图文内容质量的 benchmark,设计了覆盖文本质量、图像质量和图文一致性三个维度的创新自动评估指标,并验证了与人类评估的高度相关性。
- Reliable Decision Making via Calibration Oriented Retrieval Augmented Generation
-
提出 CalibRAG 框架,通过训练一个温度条件化的 forecasting function 来确保 RAG 辅助决策过程中的置信度校准,不仅改善校准质量还提升了准确率。
- Retrieval-Augmented Generation for Reliable Interpretation of Radio Regulations
-
针对无线电法规这一法律敏感的高风险领域,设计了专用 RAG 管道并构建了首个 ITU 无线电法规多选题评估集,检索准确率达 97%,在 GPT-4o 上实现 +11.9% 的问答准确率提升,远超直接将文档塞入 prompt 的方式。
- Retrieval is Not Enough: Enhancing RAG Reasoning through Test-Time Critique and Optimization
-
提出 AlignRAG 框架,将 RAG 重新定义为"检索增强推理",通过训练专用 Critic Language Model (CLM) 在测试时迭代批评和修正推理过程,解决推理与检索证据之间的错位问题,8B CLM 在 OOD 任务上超越 72B 标准 CLM。
- RMIT-ADM+S at the MMU-RAG NeurIPS 2025 Competition
-
提出Routing-to-RAG (R2RAG)系统,通过LLM查询分类器将简单查询路由到单轮Vanilla RAG、复杂查询路由到迭代式Vanilla Agent,全部基于Qwen3-4B(未量化)和Qwen3-Reranker-0.6B两个轻量模型在单块消费级GPU上运行,获NeurIPS 2025 MMU-RAG竞赛开源赛道Best Dynamic Evaluation奖。
- Scale-invariant Attention
-
借鉴自然图像的尺度不变性,提出对 attention logits 做位置相关的乘性缩放和加性偏移变换,使注意力在不同 token 范围上的总权重和稀疏度满足尺度不变性,从而实现从短序列训练到长序列推理的零样本泛化(4k→64k 仅需一个超参数 \(\tau\))。
- Scaling Language-Centric Omnimodal Representation Learning
-
提出 LCO-Emb 框架,发现多模态大模型(MLLM)在生成式预训练中已隐式建立跨模态对齐,仅需轻量级的纯文本对比学习微调即可激活全模态表示能力,并发现生成能力与表示性能正相关的 Generation-Representation Scaling Law (GRSL)。
- SeCon-RAG: A Two-Stage Semantic Filtering and Conflict-Free Framework for Trustworthy RAG
-
提出 SeCon-RAG 两阶段防御框架,第一阶段用聚类+语义图联合过滤毒化文档,第二阶段在推理时做冲突感知过滤,在5个LLM和3个QA数据集上全面超越现有RAG防御方法,在100%投毒率下仍保持高准确率和极低攻击成功率。
- SuperCLIP: CLIP with Simple Classification Supervision
-
在CLIP对比学习框架中引入一个超简单的分类损失(仅需添加一个轻量线性层,FLOPs增加仅0.077%),利用原始文本token的分类信号恢复CLIP未充分利用的细粒度文本监督,在零样本分类、图文检索和纯视觉任务上一致提升性能。
- The Atlas of In-Context Learning: How Attention Heads Shape In-Context Retrieval Augmentation
-
通过 AttnLRP 归因方法系统解剖 LLM 在 in-context retrieval augmented QA 中的内部机制,发现三类功能特化的注意力头——Task heads(中间层,解析指令/问题)、Retrieval heads(后层,逐字复制上下文答案)、Parametric heads(编码参数化知识),并通过 Function Vector 注入和来源追踪探针验证其功能,在 Llama-3.1/Mistral/Gemma 上 ROC AUC ≥94%。
- The Narrow Gate: Localized Image-Text Communication in Native Multimodal Models
-
通过系统性的可解释性分析发现,原生多模态VLM(Chameleon、Emu3)中图像到文本的跨模态信息传递集中于单一的end-of-image [EOI] token——形成"narrow gate"瓶颈,删除[EOI]的注意力导致性能崩溃;而非原生VLM(LLaVA等)的信息传递是分布式的。这一机制差异可被利用于语义操控和鲁棒性改进。
- Windsock is Dancing: Adaptive Multimodal Retrieval-Augmented Generation
-
提出Windsock+DANCE双组件框架解决多模态RAG的三个核心问题:Windsock模块根据查询自适应决定何时检索和检索什么模态(文本/图像/不检索),DANCE指令微调策略通过动态选择模型薄弱模态进行噪声鲁棒训练来提升如何利用检索信息的能力,整体性能提升17.07%同时减少8.95%检索次数。
- Worse than Zero-shot? A Fact-Checking Dataset for Evaluating the Robustness of RAG Against Misleading Retrievals
-
提出 RAGuard 基准数据集,首次系统评估 RAG 系统对误导性检索内容的鲁棒性。通过从 Reddit 构建包含支持性、误导性和无关文档的真实检索语料库,揭示所有测试的 LLM-RAG 系统在面对误导性检索时表现比零样本基线更差,而人类标注者能保持一致判断。