跳转至

CiteEval: Principle-Driven Citation Evaluation for Source Attribution

会议: ACL 2025
arXiv: 2506.01829
代码: https://github.com/amazon-science/CiteEval (有)
领域: others
关键词: 引用评估, RAG, 源归因, NLI, 自动评价指标

一句话总结

本文提出 CiteEval,一个基于原则驱动的引用评估框架,通过考虑完整检索上下文、超越检索的多种上下文以及细粒度评价标准,构建了 CiteBench 基准和 CiteEval-Auto 自动指标,在引用质量评估上显著优于基于 NLI 的现有方法。

研究背景与动机

检索增强生成(RAG)系统在信息搜索中扮演着越来越重要的角色,其中准确的源归因(即引用)对于建立用户信任和内容可验证性至关重要。然而,当前的引用评估方法存在明显不足:

现有痛点:以 AIS(Attributable to Identified Sources)为代表的评估框架主要基于自然语言推理(NLI),仅关注被引用的段落能否"蕴含"目标语句。这种方法存在三个核心问题:

上下文不充分:仅看被引段落,忽略了未被引用但可能更好的检索源。这导致当存在更可靠的源但未被引用时,评分被高估;当没有完美源但部分支持的引用被标为不合格时,评分被低估。

评估范围狭窄:回答中很多语句来自用户查询的复述、前文推理、或模型参数知识,这些本不应被要求提供引用,但被现有框架隐式惩罚或忽略。

粒度不够细:二元或三元的支持度评分无法捕捉引用质量的多维度特征,如冗余引用、来源可信度等。

核心矛盾:NLI 作为引用评估的代理指标,无法准确反映人类对引用质量的真实判断。

切入角度:从评估原则出发重新设计框架,分别从上下文完整性、上下文范围和评价粒度三个维度改进。

方法详解

整体框架

CiteEval 将引用评估问题形式化为 \(r_i = f_\theta(\mathcal{C}_i; \mathcal{S}, R, Q)\),即引用评分不仅依赖被引段落 \(\mathcal{C}_i\),还依赖完整检索源 \(\mathcal{S}\)、回答 \(R\) 和用户查询 \(Q\)。整个评估流程分为三步:上下文归因 → 引用编辑 → 引用评分。

关键设计

  1. 原则 1 — 基于完整检索源评估引用

    • 核心思路:引用质量应在所有检索到的段落中相对评估,而非仅看被引段落本身
    • 动机:一个引用即使能蕴含目标语句,但如果存在更可靠的未被引用源,引用质量仍应被降级
    • 同理,部分支持的引用在没有更好替代的情况下仍有价值,不应直接判为不合格
  2. 原则 2 — 超越检索上下文的评估

    • 将回答语句归因到四种上下文类型:检索上下文、用户上下文(查询复述)、回答上下文(基于前文推理)、参数知识上下文(模型内在知识)
    • 非检索上下文产生的语句标记为 N/A,不参与引用评估,避免被错误惩罚
    • 例如"你问的是关于牛顿第一定律的意义"这类复述语句,不应要求提供引用
  3. 原则 3 — 细粒度标准与场景

    • 引入 1-5 Likert 量表替代二元判断
    • 定义 6 种编辑动作:删除误导性引用、删除低质量引用、删除冗余引用、添加证据、添加改进、添加可信度
    • 区分 Full 场景(评估所有需引用的语句)和 Cited 场景(仅评估已引用的语句)

CiteBench 基准构建

  • 覆盖 ASQA、ELI5、MS MARCO、LFRQA 四个数据集,共 3,948 个查询
  • 三阶段标注流程:上下文归因 → 引用编辑 → 引用评分
  • 三名专业标注员独立完成,上下文归因 IAA 为 0.980,评分 IAA 为 0.774

CiteEval-Auto 自动评估

提出两种评分方法并进行集成:

  1. IterCoE(迭代编辑链):指导 LLM 先对每条语句进行上下文归因,然后生成编辑动作序列,最后基于编辑结果和评分指南给出 1-5 分
  2. EditDist(编辑距离):通过多元线性回归学习每种编辑动作的距离权重 \(r_i = \sum_{k=1}^K d(a_k) \cdot \frac{|\mathcal{A}_{i,k}^*|}{|\mathcal{A}_i^*|} + b\),发现添加类动作的惩罚权重高于删除类动作

最终 CiteEval-Auto 通过线性插值集成两种方法的评分。

实验关键数据

主实验 — 与人类评估的相关性

评估指标 模型 Statement Pearson Statement Spearman Response Pearson Response Spearman
AutoAIS-Recall T5-XXL 0.409 0.264 0.223 0.075
AttrScore-Strict GPT-4o 0.449 0.297 0.221 0.094
LQAC-Recall GPT-4o 0.607 0.423 0.526 0.447
CiteEval-Auto GPT-4o+MLR 0.731 0.559 0.668 0.589

消融实验

配置 Pearson 说明
CiteEval-Auto (完整) 0.731 集成 IterCoE + EditDist
去除上下文归因 显著下降 归因预测 F1=0.957,移除后两种评分方法均大幅下降
Vanilla 直接评分 远低于 IterCoE 无编辑推理的直接评分效果差
IterCoT(思维链) 中等 不如显式编辑推理有效

关键发现

  • Llama-3-70b 在 Full 场景下超越 GPT-4o(0.909 vs 0.898),因为 GPT-4o 生成更长回答但更容易遗漏引用
  • 回答长度与缺引率呈强正相关(Pearson=0.679)
  • CiteEval-Auto 的迭代编辑可持续改善引用质量,且不同大小模型收敛到相似水平
  • 更高检索召回率的上下文带来更好的引用质量,但更高精确率未必如此

亮点与洞察

  • 将引用评估从简单的 NLI 判断升级为原则驱动的多维度框架,思路清晰且有说服力
  • 上下文归因的引入非常巧妙——不可引用的语句不应参与评估,这解决了长期被忽视的问题
  • 编辑动作的显式推理比直接评分或 CoT 推理更有效,说明结构化中间步骤对评估任务的重要性
  • 迭代编辑改善引用质量的发现暗示了推理时间缩放在源归因中的潜力

局限与展望

  • CiteEval-Auto 依赖 GPT-4o 作为骨干模型,成本较高,需要探索蒸馏到小模型的方案
  • 上下文归因目前仅覆盖 RAG 的典型上下文类型,未考虑个性化等更复杂场景
  • 以句子为单位评估,更细粒度的 chunk 级别评估可能更准确
  • 未与端到端的检索阶段评估结合

相关工作与启发

  • 继承并超越了 AIS/Auto-AIS 的引用评估范式,将评估从"能否蕴含"升级为"引用是否最优"
  • 与 LQAC 相比,CiteEval 通过上下文归因避免了对 N/A 语句的过高评分
  • 编辑距离的学习方法可推广到其他需要细粒度评估的 NLP 任务
  • 对 RAG 系统的引用质量提供了可操作的改进路径(迭代编辑)

评分

  • 新颖性: ⭐⭐⭐⭐ 原则驱动的框架设计有新意,但本质仍是 LLM-as-judge 的变体
  • 实验充分度: ⭐⭐⭐⭐⭐ 多数据集、多模型、多对比方法、消融实验和应用探索都很充分
  • 写作质量: ⭐⭐⭐⭐⭐ 论文结构清晰,原则阐述有理有据,图表直观
  • 价值: ⭐⭐⭐⭐ 对 RAG 引用评估是重要贡献,但实际部署的成本问题需要解决

相关论文