Multi-document Summarization through Event Relation Graph Reasoning for Framing Bias Mitigation¶
会议: ACL 2025
arXiv: 2506.12978
代码: https://github.com/yuanyuanlei-nlp/multi_doc_summarization_acl_2025
领域: NLP理解
关键词: 多文档摘要, 事件关系图, 媒体偏见消除, 图注意力网络, 提示调优
一句话总结¶
提出基于多文档事件关系图的中立化摘要方法,通过构建包含文内事件关系(时间/因果/子事件/共指)、跨文档事件共指和事件级道德观点的知识图,以图文本化(硬提示)和图提示调优(软提示)两种方式引导 LLM 生成去偏见的中立摘要,在内容保持和偏见消除上均优于基线。
研究背景与动机¶
- 领域现状:新闻媒体越来越两极化,记者通过内容框架(content framing)将意识形态偏见嵌入新闻文章。大多数研究聚焦于检测媒体偏见,而消除偏见的研究较少。
- 现有痛点:现有的中立化摘要方法(如 NeuS)主要依赖基本的 text-to-text 生成,缺乏对偏见分布的感知。LLM 在没有偏见信息引导时,可能直接复制带偏见的表述。
- 核心矛盾:要生成中立摘要,模型需要理解不同文章之间的差异——哪些事件是共同报道的(客观事实),哪些是选择性报道的(选择偏见),以及相同事件被如何不同地框架化(框架偏见)。
- 本文要解决什么? 如何利用事件和事件关系来增强 LLM 对偏见的感知能力,从而更好地生成中立摘要?
- 切入角度:事件关系图天然编码了新闻的叙事结构——跨文档事件共指揭示选择偏见,文内事件关系反映框架偏见,事件级道德判断标记观点偏见。
- 核心idea一句话:用事件关系图作为"偏见地图"——跨文档共指标记共识,非共指标记选择偏见,道德判断标记观点偏见——以此引导 LLM 生成中立摘要。
方法详解¶
整体框架¶
输入是一组不同立场的新闻文章(如左、中、右),输出是一篇中立化摘要。流程为: 1. 从各文章中提取事件并预测事件级道德判断 2. 提取文内事件关系(时间、因果、子事件、共指) 3. 通过跨文档事件共指连接不同文章 4. 以硬提示(图文本化)和软提示(图编码+prompt tuning)方式融入 LLM
关键设计¶
- 多文档事件关系图构建:
- 节点:各文章中的事件触发词
- 节点属性:事件级道德判断(基于道德基础理论的10个维度,如 Care/Harm, Fairness/Cheating 等)
- 文内边:4种事件关系——时间(before/after/overlap)、因果(causes/caused-by)、子事件(contains/contained-by)、共指
- 跨文档边:跨文档事件共指——将不同文章中指代同一事件的节点连接起来
-
设计动机:文内关系反映各文章的叙事框架,跨文档共指区分共识事件和选择性事件,道德判断标记观点差异
-
图文本化(硬提示):
- 做什么:将图结构转换为自然语言表格——事件表(id/文本/道德判断)+ 关系表(源事件/关系/目标事件)
- 核心思路:表格格式的文本化图直接拼接到 LLM 的指令中作为额外上下文
-
设计动机:让 LLM 通过文本形式"看到"事件之间的关系和偏见分布
-
图提示调优(软提示):
- 做什么:用关系感知的图注意力网络编码事件关系图,生成图嵌入,通过投影层映射到 LLM 的表示空间
- 核心思路:Longformer 编码文章得到初始事件嵌入 → 拼接道德标签嵌入 → 关系感知GAT传播(对8种关系分别计算注意力) → 全局注意力聚合为图嵌入 → 投影层 → 作为 soft prompt 插入 LLM
-
设计动机:软提示可以编码结构信息而不增加输入长度,且支持端到端微调
-
硬+软提示互补:
- 硬提示通过文本描述提供图结构信息
- 软提示通过图嵌入实现端到端的梯度传播
- LLM 本身参数冻结,仅训练图注意力网络和投影层
实验关键数据¶
主实验(内容保持 + 偏见消除)¶
| 方法 | Rouge-1 | Rouge-2 | BLEU-2 | polarization↓ | sum-arousal↓ |
|---|---|---|---|---|---|
| LexRank | 42.24 | 18.16 | 17.68 | 63.73 | 3.95 |
| BART-Multi | 39.60 | 16.26 | 17.60 | 54.47 | 5.10 |
| GPT-3.5 | 42.01 | 16.25 | 18.77 | 77.25 | 5.52 |
| GPT-3.5 + one-shot | 41.95 | 16.77 | 18.33 | 44.29 | 4.08 |
| GPT-3.5 + graph | 43.20 | 18.06 | 18.99 | 32.37 | 3.62 |
| GPT-4 | 42.36 | 16.49 | 19.04 | 75.86 | 5.34 |
关键发现¶
- 图引导显著降低偏见:GPT-3.5 + graph 的 polarization 从 77.25 降至 32.37(降低 58%),同时内容保持(Rouge)反而提升
- 内容保持和偏见消除不矛盾:事件关系图帮助模型识别核心事实(通过跨文档共指),同时避免复制带偏见的框架
- 道德判断有助于去除观点偏见:从 sum-arousal 指标看,加入道德判断的事件节点属性有效降低了情感化表述
亮点与洞察¶
- 事件关系图作为"偏见地图"的概念非常精巧——将媒体偏见分析问题转化为图结构分析问题,使偏见的三个维度(内容选择、框架、观点)都有对应的图特征
- 硬+软提示互补是一种通用的图-LLM融合策略,可以迁移到其他需要结构化知识引导的生成任务
局限性 / 可改进方向¶
- 事件抽取和关系抽取模型基于通用域训练(MAVEN),在新闻特定域可能不够准确
- 仅在英语新闻媒体偏见上评估
- 图构建依赖多个上游模型(事件检测、4种关系抽取、跨文档共指、道德分类),错误会级联
相关工作与启发¶
- vs NeuS (Lee et al. 2022): NeuS 是首个中立化摘要工作,但依赖基本的 text-to-text 生成;本文首次引入偏见信息引导
- vs Graph-based summarization: 传统图摘要关注实体-实体关系,本文关注事件-事件关系,更适合上下文叙事分析
评分¶
- 新颖性: ⭐⭐⭐⭐ 将事件关系图用于偏见消除是全新的交叉视角
- 实验充分度: ⭐⭐⭐⭐ 自动+人工评估,消融完整
- 写作质量: ⭐⭐⭐⭐ 示例清晰,动机充分
- 价值: ⭐⭐⭐⭐ 对新闻媒体偏见消除有实际应用价值