跳转至

Multi-document Summarization through Event Relation Graph Reasoning for Framing Bias Mitigation

会议: ACL 2025
arXiv: 2506.12978
代码: https://github.com/yuanyuanlei-nlp/multi_doc_summarization_acl_2025
领域: NLP理解
关键词: 多文档摘要, 事件关系图, 媒体偏见消除, 图注意力网络, 提示调优

一句话总结

提出基于多文档事件关系图的中立化摘要方法,通过构建包含文内事件关系(时间/因果/子事件/共指)、跨文档事件共指和事件级道德观点的知识图,以图文本化(硬提示)和图提示调优(软提示)两种方式引导 LLM 生成去偏见的中立摘要,在内容保持和偏见消除上均优于基线。

研究背景与动机

  1. 领域现状:新闻媒体越来越两极化,记者通过内容框架(content framing)将意识形态偏见嵌入新闻文章。大多数研究聚焦于检测媒体偏见,而消除偏见的研究较少。
  2. 现有痛点:现有的中立化摘要方法(如 NeuS)主要依赖基本的 text-to-text 生成,缺乏对偏见分布的感知。LLM 在没有偏见信息引导时,可能直接复制带偏见的表述。
  3. 核心矛盾:要生成中立摘要,模型需要理解不同文章之间的差异——哪些事件是共同报道的(客观事实),哪些是选择性报道的(选择偏见),以及相同事件被如何不同地框架化(框架偏见)。
  4. 本文要解决什么? 如何利用事件和事件关系来增强 LLM 对偏见的感知能力,从而更好地生成中立摘要?
  5. 切入角度:事件关系图天然编码了新闻的叙事结构——跨文档事件共指揭示选择偏见,文内事件关系反映框架偏见,事件级道德判断标记观点偏见。
  6. 核心idea一句话:用事件关系图作为"偏见地图"——跨文档共指标记共识,非共指标记选择偏见,道德判断标记观点偏见——以此引导 LLM 生成中立摘要。

方法详解

整体框架

输入是一组不同立场的新闻文章(如左、中、右),输出是一篇中立化摘要。流程为: 1. 从各文章中提取事件并预测事件级道德判断 2. 提取文内事件关系(时间、因果、子事件、共指) 3. 通过跨文档事件共指连接不同文章 4. 以硬提示(图文本化)和软提示(图编码+prompt tuning)方式融入 LLM

关键设计

  1. 多文档事件关系图构建:
  2. 节点:各文章中的事件触发词
  3. 节点属性:事件级道德判断(基于道德基础理论的10个维度,如 Care/Harm, Fairness/Cheating 等)
  4. 文内边:4种事件关系——时间(before/after/overlap)、因果(causes/caused-by)、子事件(contains/contained-by)、共指
  5. 跨文档边:跨文档事件共指——将不同文章中指代同一事件的节点连接起来
  6. 设计动机:文内关系反映各文章的叙事框架,跨文档共指区分共识事件和选择性事件,道德判断标记观点差异

  7. 图文本化(硬提示):

  8. 做什么:将图结构转换为自然语言表格——事件表(id/文本/道德判断)+ 关系表(源事件/关系/目标事件)
  9. 核心思路:表格格式的文本化图直接拼接到 LLM 的指令中作为额外上下文
  10. 设计动机:让 LLM 通过文本形式"看到"事件之间的关系和偏见分布

  11. 图提示调优(软提示):

  12. 做什么:用关系感知的图注意力网络编码事件关系图,生成图嵌入,通过投影层映射到 LLM 的表示空间
  13. 核心思路:Longformer 编码文章得到初始事件嵌入 → 拼接道德标签嵌入 → 关系感知GAT传播(对8种关系分别计算注意力) → 全局注意力聚合为图嵌入 → 投影层 → 作为 soft prompt 插入 LLM
  14. 设计动机:软提示可以编码结构信息而不增加输入长度,且支持端到端微调

  15. 硬+软提示互补:

  16. 硬提示通过文本描述提供图结构信息
  17. 软提示通过图嵌入实现端到端的梯度传播
  18. LLM 本身参数冻结,仅训练图注意力网络和投影层

实验关键数据

主实验(内容保持 + 偏见消除)

方法 Rouge-1 Rouge-2 BLEU-2 polarization↓ sum-arousal↓
LexRank 42.24 18.16 17.68 63.73 3.95
BART-Multi 39.60 16.26 17.60 54.47 5.10
GPT-3.5 42.01 16.25 18.77 77.25 5.52
GPT-3.5 + one-shot 41.95 16.77 18.33 44.29 4.08
GPT-3.5 + graph 43.20 18.06 18.99 32.37 3.62
GPT-4 42.36 16.49 19.04 75.86 5.34

关键发现

  • 图引导显著降低偏见:GPT-3.5 + graph 的 polarization 从 77.25 降至 32.37(降低 58%),同时内容保持(Rouge)反而提升
  • 内容保持和偏见消除不矛盾:事件关系图帮助模型识别核心事实(通过跨文档共指),同时避免复制带偏见的框架
  • 道德判断有助于去除观点偏见:从 sum-arousal 指标看,加入道德判断的事件节点属性有效降低了情感化表述

亮点与洞察

  • 事件关系图作为"偏见地图"的概念非常精巧——将媒体偏见分析问题转化为图结构分析问题,使偏见的三个维度(内容选择、框架、观点)都有对应的图特征
  • 硬+软提示互补是一种通用的图-LLM融合策略,可以迁移到其他需要结构化知识引导的生成任务

局限性 / 可改进方向

  • 事件抽取和关系抽取模型基于通用域训练(MAVEN),在新闻特定域可能不够准确
  • 仅在英语新闻媒体偏见上评估
  • 图构建依赖多个上游模型(事件检测、4种关系抽取、跨文档共指、道德分类),错误会级联

相关工作与启发

  • vs NeuS (Lee et al. 2022): NeuS 是首个中立化摘要工作,但依赖基本的 text-to-text 生成;本文首次引入偏见信息引导
  • vs Graph-based summarization: 传统图摘要关注实体-实体关系,本文关注事件-事件关系,更适合上下文叙事分析

评分

  • 新颖性: ⭐⭐⭐⭐ 将事件关系图用于偏见消除是全新的交叉视角
  • 实验充分度: ⭐⭐⭐⭐ 自动+人工评估,消融完整
  • 写作质量: ⭐⭐⭐⭐ 示例清晰,动机充分
  • 价值: ⭐⭐⭐⭐ 对新闻媒体偏见消除有实际应用价值