跳转至

Teaming LLMs to Detect and Mitigate Hallucinations

会议: NeurIPS 2025 / arXiv: 2510.19507 / 代码: 未公开 / 领域: llm_nlp / 关键词: 幻觉检测, 幻觉缓解, 多模型一致性, 语义熵, 集成方法

一句话总结

提出 Consortium Consistency 方法,将单模型一致性方法(Self-Consistency 和 Semantic Entropy)扩展到多模型协作设置,通过聚合多个异构 LLM 的响应来实现更可靠的幻觉检测和缓解,同时降低推理成本。

研究背景与动机

LLM 幻觉问题是当前大语言模型的核心挑战之一。现有基于一致性的方法(如 Self-Consistency 和 Semantic Entropy)通过对单个 LLM 采样多个响应并进行聚合来检测和缓解幻觉,已取得了 SOTA 水平的效果。

然而,单模型一致性方法存在根本性缺陷:当模型对某个查询产生相对一致的幻觉时(即模型在某一话题上系统性地犯错),错误答案可以赢得多数投票(幻觉缓解失败),语义熵也可能偏低(幻觉检测失败)。

核心假设是:不同的 LLM 由于使用不同的训练数据、训练方法和模型架构,不太可能共享相同的训练数据缺陷或做出相同的"有根据的猜测"。因此,将单模型一致性方法扩展到多模型设置应当能进一步提升性能。

方法详解

整体框架

给定输入查询,一组模型集合,以及总采样预算 N 个响应,方法流程如下:

  1. 均匀分配采样:从每个模型采样等量响应
  2. 语义聚类:将所有响应按语义等价关系聚类
  3. Consortium Voting:通过多数投票选择最终答案
  4. Consortium Entropy:计算语义熵作为幻觉置信度估计

关键设计

Consortium Voting(幻觉缓解):跨多个模型进行多数投票,从所有模型的响应中选择落入最大语义等价类的答案。核心思想是让一致性正确的答案胜出。

Consortium Entropy(幻觉检测):先估计联盟在等价类上的分布,然后计算语义熵。高语义熵表示更大的不确定性和更高的幻觉概率。

语义聚类策略: - 选择题任务:选择相同选项即为等价 - 数学任务:最终答案数学等价即可 - 通用任务:可用另一个 LLM 判断语义等价

基线设计

针对每个联盟的 M 个模型,设计了三级基线: - Hard baseline:M 个模型中单模型一致性得分最高的(需要先验知识) - Standard baseline:M 个模型的中位数得分(实际场景常见情况) - Worst-case baseline:M 个模型中得分最低的

采样策略

默认每个查询生成 N=40 个响应,均匀分配到联盟模型。使用 nucleus sampling(top-p=0.9,temperature=0.5),结合 Chain-of-Thought 提示。使用 100 次 bootstrap 采样进行不确定性估计。

实验关键数据

主实验

实验使用 15 个 LLM 池(6B 至 141B 参数,涵盖 LLaMA、Mistral、Qwen、Gemma 等系列),在 11 个任务上评估(GSM8K、GPQA-Diamond、8个 MMLU 子集、TruthfulQA)。

匹配模型联盟性能(标准差 ≤5,均值 ≥70 的 586 个联盟):

指标 基线类型 平均得分变化(%) 胜出比例
Accuracy Hard +1.33 ± 1.03 92%
Accuracy Standard +3.70 ± 1.20 99%
Accuracy Worst-case +9.67 ± 3.44 100%
AUROC Hard +1.84 ± 1.48 92%
AUROC Standard +5.63 ± 1.46 100%
AURAC Hard +2.75 ± 0.69 100%
AURAC Standard +5.39 ± 1.09 100%

消融实验

模型强度的影响:模型平均强度越高,consortium consistency 相对于 hard baseline 的优势越可靠。假设是更强的模型更可能产生"有智慧的猜测",从而产生更一致的幻觉。

模型能力方差的影响:联盟内模型能力差异越小,性能提升越可靠。但即使在高方差联盟中,许多联盟在 Accuracy 上仍有显著提升。

成本-性能权衡:Consortium consistency 在成本-性能前沿线上同时实现了更高性能和更低成本。因为最强的单模型通常也是最贵的,将部分采样预算重新分配给更便宜的模型可以同时降低成本和提升性能。

关键发现

  1. 联盟组合敏感:性能增益对联盟组成敏感,需要选择合适的模型组合
  2. 弱模型也有价值:有时强模型与弱模型的组合也能在降低推理成本的同时提升性能
  3. 规模效应:相似能力的强模型组合效果最好,强模型更善于互补

亮点与洞察

  1. 极具实践价值:方法是完全黑盒的,不需要模型内部访问,可以直接与任何 LLM API 组合使用
  2. 双赢局面:在多数情况下,consortium consistency 同时实现性能提升和成本降低
  3. 理论洞察深刻:更强的模型反而更受益于多模型集成,因为它们的幻觉更"一致"——这与直觉相反
  4. 实验设计严谨:三级基线设计合理,586 个联盟的大规模评估增强了结论可靠性

局限性 / 可改进方向

  1. 效率瓶颈未完全解决:虽然多模型方法减少了推理成本,但仍比轻量级方法要贵得多
  2. 仅限可算法化等价判断的任务:当前仅评估了选择题和数学题,通用开放生成场景需要 LLM 判断等价性
  3. 模型选择需要先验知识:如何自动选择最佳联盟组合是未解决的问题
  4. 专家知识可能被淹没:少数模型在特定领域有专长时,错误的多数投票可能覆盖正确答案
  5. 权重投票未探索:当前使用均匀分配和简单多数投票,基于置信度的加权聚合可能进一步提升

相关工作与启发

  • Self-Consistency(Wang et al., 2023)的多模型扩展,思路自然但效果显著
  • Multi-Agent Debate(Du et al., 2024)等方法正交,可以组合使用
  • Semantic Entropy(Kuhn et al., 2023; Farquhar et al., 2024)的直接推广
  • 与 RAG 方法互补,未来可以结合检索增强和多模型一致性

评分

  • 创新性: ⭐⭐⭐ — 核心想法(多模型集成)并不新颖,但在一致性幻觉检测框架下的形式化和系统性评估有贡献
  • 技术深度: ⭐⭐⭐ — 方法本身简单直接,但实验设计(三级基线、大规模联盟评估、成本分析)非常扎实
  • 实验质量: ⭐⭐⭐⭐ — 15 个 LLM、11 个任务、586 个联盟的大规模评估,统计量充分
  • 实用性: ⭐⭐⭐⭐ — 完全黑盒、即插即用,对 LLM 部署具有直接指导意义
  • 总体评分: ⭐⭐⭐⭐ (7.5/10)