跳转至

ThreadSumm: Summarization of Nested Discourse Threads Using Tree of Thoughts

会议: ACL 2026
arXiv: 2604.17648
代码: 无
领域: 文本摘要 / 话语分析
关键词: 嵌套话语线程摘要, Tree of Thoughts, 原子内容单元, 多阶段LLM管道, 连贯性与覆盖性

一句话总结

本文提出 ThreadSumm,一个多阶段 LLM 管道框架,将嵌套话语线程摘要建模为层次推理问题——先提取方面和原子内容单元进行内容规划,再通过句子排序构建线程感知序列,最后用 Tree of Thoughts 搜索生成和评分多个段落候选,在 Reddit/StackExchange 数据集上优于基线。

研究背景与动机

领域现状:讨论论坛中的嵌套线程结构(回复、引用、转发交织)使得摘要远比标准文档摘要复杂。现有 LLM 摘要方法主要处理线性文档或相对结构化的对话。

现有痛点:(1) 嵌套线程的树状/图状结构导致离题回复与主题回复交织,关键内容被掩埋;(2) 现有方法不平衡多元观点——倾向于最频繁的话题而忽略少数但重要的视角;(3) 多说话者场景中的轮次重叠和打断使得简单的线性邻接模型无法推断回复关系。

核心矛盾:线程的图结构 vs 摘要的线性输出——需要在保持连贯性的同时覆盖分布在不同分支中的多元话题。

本文目标:(1) 解决话语覆盖问题(多个交织话题的均衡表示);(2) 解决连贯性问题(即使没有预定义线程顺序也能生成连贯摘要)。

切入角度:将摘要分解为内容规划(方面提取+ACU生成)和文本实现(句子排序+段落写作+ToT搜索)两个独立的推理层次。

核心 idea:用结构化的中间表示(方面+ACU)显式控制覆盖范围,用 Tree of Thoughts 搜索在连贯性和覆盖性之间找到最优平衡。

方法详解

整体框架

五步管道:(1) 方面提取——识别文档中的 who/what/where 元素;(2) ACU 生成——为每个方面生成不可再分的语义单元;(3) 句子排序——将 ACU 重新排列为逻辑连贯的序列;(4) 段落写作——将排序后的 ACU 写成流畅段落;(5) Tree of Thoughts——迭代生成多个段落候选,按连贯性和覆盖性评分选择最佳。

关键设计

  1. 方面+ACU 的内容规划层:

    • 功能:确保摘要覆盖源文档中的所有重要方面
    • 核心思路:先用 few-shot 提示提取方面(who/what/where),再为每个方面生成原子内容单元——不可再分的独立语义声明。ACU 比原文更细粒度,支持精确的覆盖度控制
    • 设计动机:直接摘要容易"跑偏"到最显著的话题。显式提取方面然后为每个方面生成 ACU,强制均衡覆盖
  2. LLM 驱动的句子排序:

    • 功能:将无序的 ACU 集合重组为逻辑连贯的叙事序列
    • 核心思路:用零样本提示让 LLM 重新排列 ACU 列表使其遵循逻辑和连贯的流程
    • 设计动机:嵌套线程中重要内容分布在不同分支和深度,位置/时间戳启发式不适用。LLM 排序能处理更全局的话语连贯性问题
  3. Tree of Thoughts 多候选搜索:

    • 功能:在连贯性和覆盖性之间找到最优平衡
    • 核心思路:给定排序后的 ACU,生成多个段落候选。用 LLM 评估每个候选的连贯性(想法连接性和逻辑流)和覆盖性(是否包含源文档中的重要信息),选择最高分的候选。迭代多步,每步的最佳候选的排序方案被带入下一步
    • 设计动机:单次生成容易陷入局部最优。ToT 的多候选+迭代精炼允许系统性地搜索更大的摘要空间

损失函数 / 训练策略

免训练管道。使用 GPT-4/Claude-3/LLaMA-3-70B 三个 LLM。在 Reddit(250 实例)、StackExchange(117 实例)和 Bitcoin 论坛(1 实例案例研究)上评估。

实验关键数据

主实验

Reddit 数据集(QAGS 一致性/ROUGE-1)

模型-方法 QAGS ROUGE-1
Claude-Vanilla 38.34 30.88
Claude-CHRONOS 45.43 26.35
Claude-ThreadSumm 55.66 34.37
GPT-4-Vanilla 36.46 30.54
GPT-4-ThreadSumm 50.34 33.30

关键发现

  • ThreadSumm 在 QAGS(事实一致性)上显著优于所有基线——ACU 的显式内容规划有效防止了幻觉
  • ROUGE-1 提升也一致,说明覆盖度确实提高
  • ToT 的迭代精炼对连贯性提升明显——多候选搜索比单次生成质量更高
  • 不同 LLM 上的趋势一致,证明框架的模型无关性

亮点与洞察

  • ACU 作为中间表示非常适合线程摘要——它天然支持跨分支的内容聚合和均衡覆盖
  • ToT 搜索在摘要任务中的应用是新颖的——将连贯性和覆盖性作为搜索目标的双优化
  • 句子排序步骤是被低估但重要的环节——好的排序是连贯段落的前提

局限与展望

  • 多步 LLM 调用增加了延迟和成本
  • 仅在英文讨论论坛上验证
  • Bitcoin 论坛只有 1 个实例作为案例研究,不够统计显著
  • 未与最新的长上下文 LLM 做直接对比

相关工作与启发

  • vs CHRONOS: 基于时间顺序处理线程,ThreadSumm 用 LLM 推理处理任意线程结构
  • vs arg-graph: 用论证图结构化对话,ThreadSumm 用 ACU 提供更通用的内容分解
  • vs mRedditSumm: 多文档摘要基线,ThreadSumm 通过 ToT 搜索取得更好的连贯性

评分

  • 新颖性: ⭐⭐⭐⭐ ACU+ToT搜索的组合在线程摘要中是新颖的
  • 实验充分度: ⭐⭐⭐ 3模型+3数据集但规模较小
  • 写作质量: ⭐⭐⭐⭐ 研究问题清晰,框架描述完整
  • 价值: ⭐⭐⭐⭐ 对嵌套话语摘要提供了实用的解决方案

相关论文