跳转至

Principled Content Selection to Generate Diverse and Personalized Multi-Document Summaries

会议: ACL 2025
arXiv: 2505.21859
代码: 无
领域: 文本生成
关键词: 多文档摘要, 内容选择, 行列式点过程, 多样性, 个性化

一句话总结

用行列式点过程(DPP)替代 LLM 的隐式内容选择来生成多样化多文档摘要——将任务分解为"提取原子关键点→DPP 选择多样子集→LLM 重写为摘要"三步,解决了 LLM 的"lost in the middle"问题,在 DiverseSumm 基准上一致提升了源覆盖率。

研究背景与动机

  1. 领域现状:LLM 可处理更长上下文,但存在"注意力不均匀"问题——对中间部分的文档关注不足("lost in the middle"现象),导致多文档摘要中源材料覆盖不全。
  2. 现有痛点:直接提示 LLM 做多文档摘要会偏向开头和结尾的文档,中间文档的关键信息被忽略。
  3. 核心矛盾:LLM 的注意力机制天然有位置偏差,但多文档摘要需要均匀覆盖所有源文档。
  4. 本文要解决什么? 用有原则的内容选择方法(而非依赖 LLM 的隐式注意力)来确保源覆盖。
  5. 切入角度:将内容选择从 LLM 内部决策中分离出来,使用 DPP——一种天然鼓励多样性的概率模型——来选择应包含在摘要中的关键点。
  6. 核心idea一句话:用 DPP 做有原则的多样化内容选择,替代 LLM 的有偏注意力。

方法详解

整体框架

三步流水线:(1) 关键点提取——用 LLM 将每篇文档分解为原子关键点(key points);(2) DPP 内容选择——用行列式点过程在所有关键点中选择多样化子集,确保覆盖不同文档和主题;(3) 摘要重写——将选中的关键点用 LLM 重写为连贯摘要。

关键设计

  1. 原子关键点提取:
  2. 做什么:将每篇文档分解为独立的、自包含的关键点
  3. 核心思路:提示 LLM 从每篇文档提取 3-5 个不重叠的关键点,每个关键点是一句自包含陈述
  4. 设计动机:关键点比整段文本更便于比较和选择——DPP 需要元素级别的多样性度量

  5. DPP 多样化选择:

  6. 做什么:从所有关键点中选择覆盖面最广的子集
  7. 核心思路:DPP 核矩阵 \(L\) 编码关键点之间的相似度——DPP 天然倾向于选择彼此不相似的元素组合
  8. 可选扩展:在核矩阵中加入用户意图的相关性权重,实现个性化摘要
  9. 设计动机:DPP 是多样性选择的理论最优方法——有严格的概率保证

  10. 个性化扩展:

  11. 做什么:根据用户意图定制摘要内容
  12. 核心思路:在 DPP 核矩阵中融入关键点与用户意图的相关性分数,使选择偏向相关内容但保持多样性
  13. 设计动机:不同用户关心不同方面——投资者关心财务数据,研究者关心方法论

损失函数 / 训练策略

  • 无需训练——DPP 是概率推理方法,LLM 用于提取和重写
  • DPP 核矩阵用关键点嵌入的相似度构造

实验关键数据

主实验(DiverseSumm 基准)

方法 源覆盖率(↑) 摘要质量 说明
Naive LLM (单步) lost in the middle
LLM + 随机选择 无原则选择
LLM + DPP 最高 有原则的多样化选择

消融/关键发现

配置 效果 说明
DPP vs 随机选择 DPP 显著优于随机 多样性保证有效
+ 用户意图 相关性和覆盖率双提升 个性化有效
不同 LLM 骨干 一致提升 方法与 LLM 无关
关键点数量 K K=10-15 最佳 太多冗余太少遗漏

关键发现

  • DPP 选择一致优于 LLM 的隐式选择——证明了"外部化内容选择"的价值
  • 源覆盖率的改进在所有测试的 LLM 上一致——方法通用
  • 个性化扩展使摘要与用户意图更相关同时保持多样性——DPP 自然支持这种平衡
  • "分解+选择+重写"三步比"端到端"更可控

亮点与洞察

  • "有原则的内容选择"是对 LLM 多文档处理能力不足的优雅补救——不改 LLM,只改给 LLM 看什么。
  • DPP 是多样性选择的理论最优工具——有严格的数学保证,比启发式方法更可靠。
  • 三步分解使每步都透明可控——可以审查选了哪些关键点、为什么选。
  • 个性化通过修改 DPP 核矩阵即可实现——零额外成本。
  • 思路可迁移到任何需要从多源信息中选择子集的场景(如 RAG 的段落选择)。

局限性 / 可改进方向

  • DPP 的内核矩阵构造依赖嵌入质量——差的嵌入导致差的选择
  • 关键点提取本身可能遗漏重要信息
  • 仅在 DiverseSumm 基准上验证
  • 计算 DPP 的采样在大规模关键点集上可能较慢

相关工作与启发

  • vs SetR(集合选择RAG): SetR 用 CoT 分解需求再选段落;本文用 DPP 选关键点——类似的"外部化选择"思路但不同技术
  • vs GraphRAG 摘要: GraphRAG 用社区图做摘要;本文用 DPP 做多样化选择——不同方法
  • vs Map-Reduce 摘要: LangChain 等的分块摘要然后合并;本文在合并前做有原则的选择——更精细

评分

  • 新颖性: ⭐⭐⭐⭐ DPP 用于多文档摘要的内容选择新颖,个性化扩展自然
  • 实验充分度: ⭐⭐⭐⭐ 多 LLM+消融+个性化验证
  • 写作质量: ⭐⭐⭐⭐⭐ 方法动机清晰,三步分解直觉好
  • 价值: ⭐⭐⭐⭐ 对多文档摘要和 RAG 有实用价值