跳转至

PCoT: Persuasion-Augmented Chain of Thought for Detecting Fake News and Social Media Disinformation

会议: ACL 2025
arXiv: 2506.06842
代码: https://github.com/ArkadiusDS/PCoT
领域: LLM推理
关键词: 假新闻检测, 说服策略, Chain-of-Thought, 零样本分类, 社交媒体

一句话总结

提出 PCoT(说服增强的思维链)方法,通过两阶段推理——先让 LLM 分析文本中的说服策略,再结合说服分析结果判断是否为虚假信息——在零样本设置下,5 个 LLM 和 5 个数据集上平均提升 15% 的检测 F1。

研究背景与动机

  1. 领域现状:虚假信息检测是媒体素养的关键任务。传统方法依赖监督学习(如 BERT 微调),但面临标注数据稀缺和泛化困难。LLM 的零样本检测开始展现竞争力。

  2. 现有痛点:(a) 零样本 LLM 检测直接让模型判断真假,缺乏推理过程,性能不够稳定;(b) 监督方法在跨数据集/跨领域场景下泛化差;(c) 虚假信息与说服/操纵手法密切相关,但现有检测方法不利用这一关键线索。

  3. 核心矛盾:心理学研究已证明,了解说服谬误的人能更好地识别虚假信息。能否将这种"说服知识"注入 LLM 以提升检测能力?

  4. 本文要解决什么? 设计一种零样本方法,利用说服策略知识增强 LLM 的虚假信息检测推理过程。

  5. 切入角度:受心理学启发——人类通过识别说服手法来辨别虚假信息。将这种认知过程建模为两阶段 CoT:先检测说服策略,再基于说服分析判断真假。

  6. 核心idea一句话:用说服策略分析作为 CoT 的中间推理步骤,为 LLM 的虚假信息检测提供可解释的推理桥梁。

方法详解

整体框架

输入:待检测文本 \(T\)(新闻或社交媒体帖子)。输出:二分类结果 \(Y_T\)(虚假/可信)。两阶段流程:说服检测 → 虚假信息检测。

关键设计

  1. 说服检测阶段(Persuasion Detection Step):
  2. 做什么:让 LLM 分析文本中是否存在 6 种说服策略,并为每种生成解释
  3. 核心思路:基于 Piskorski 等的说服技术分类法,定义 6 大类说服策略:攻击声誉 (AR)、正当化 (J)、简化 (S)、分散注意力 (D)、号召 (C)、操纵措辞 (MW)。在 prompt 中注入每种策略的定义和关联技术的详细描述。LLM 对每种策略输出二分类标签 \(y_{p_i}\) 和解释 \(E_{p_i}\)
  4. 设计动机:(a) 说服与虚假信息高度共现——虚假信息几乎总是使用说服手法来误导受众;(b) 要求 LLM 先分析说服策略迫使它进行深层文本理解,而不是表面判断;(c) 生成的解释提供了可解释的推理链

  5. 虚假信息检测阶段(Disinformation Detection Step):

  6. 做什么:结合原始文本和第一阶段的说服分析结果,让 LLM 做最终的真假判断
  7. 核心思路:将先前的说服分析 \(A_T\) 作为额外上下文注入检测 prompt:\(Y_T \sim M(T, I_D, A_T, G_D)\)。LLM 不仅看到文本,还看到对其中说服手法的专业分析,从而做出更知情的判断
  8. 设计动机:说服分析相当于给 LLM 戴上了"虚假信息眼镜",让它能看到文本中的操纵痕迹。这比直接问"这是假新闻吗"的naive 零样本方法多了关键的推理步骤

  9. Prompt 工程:

  10. 做什么:设计最优的说服检测 prompt 方案
  11. 核心思路:比较了三种方案——详细多任务 (DMT)、详细逐任务 (DTAT)、基础多任务 (Base MT)。在 SemEval 2023 数据集上评测,DMT(单个 prompt 检测所有策略 + 注入详细知识)效果最好(F1 micro 0.722 vs 0.664)
  12. 设计动机:将所有说服策略放在一个 prompt 中让模型能看到全局,策略间的比较有助于更准确的判断

损失函数 / 训练策略

纯零样本方法,无需任何训练或微调。温度设为 0 以确保结果确定性。

实验关键数据

主实验

在 5 个数据集上用 5 个 LLM 评测(GPT-4o-mini, Llama 3.1 8B, Claude 3 Haiku, Llama 3.3 70B, Gemini 1.5 Flash)。特别引入两个新数据集 MultiDis 和 EUDisinfo,内容发布于 2024 年后,确保不在 LLM 训练数据中。

方法 CoAID F1 ISOT F1 ECTF F1 MultiDis F1 EUDisinfo F1 平均
基线零样本 - - - - - baseline
PCoT 提升 提升 提升 提升 提升 +15%
  • PCoT 平均跨 5 个 LLM 和 5 个数据集比竞争方法提升 15%
  • 在训练后数据(MultiDis/EUDisinfo)上同样有效,证明不依赖数据泄露

消融实验(说服检测 prompt 方案)

Prompt 方案 F1 micro 说明
DMT(详细多任务) 0.722 单 prompt + 完整知识注入
DTAT(详细逐任务) 0.689 分 6 个 prompt 逐策略检测
Base MT(基础多任务) 0.664 多任务但无详细知识

关键发现

  • 说服知识注入显著提升检测性能:PCoT 在所有 LLM 和数据集上一致优于纯零样本基线,验证了心理学假说——识别说服手法有助于辨别虚假信息
  • 在完全未见过的数据上同样有效:MultiDis 和 EUDisinfo 的内容发布于 LLM 知识截止后,排除了数据泄露,PCoT 仍有显著提升
  • 操纵措辞 (MW) 与虚假信息相关性最高:说服策略分析显示 MW 在虚假信息中最常出现
  • 适用于不同文本类型:从短社交媒体帖子到长新闻文章,PCoT 都有效
  • 超越监督方法:在跨数据集评估中,PCoT 的零样本性能优于在其他数据集上微调的 BERT

亮点与洞察

  • 心理学启发的 NLP 方法:将人类认知研究的发现(说服识别提升辨假能力)直接转化为 LLM 的推理策略。这种跨学科思路可迁移到其他需要专业知识辅助判断的任务
  • 说服分析作为通用推理中间步骤:不仅适用于虚假信息检测,还可用于宣传分析、社论偏向检测、广告策略分析等相关任务
  • 新数据集贡献:MultiDis(专家标注、多主题、2024 年后)和 EUDisinfo 是高质量的后知识截止虚假信息数据集,对领域有长期价值

局限性 / 可改进方向

  • 两阶段带来额外成本:每个文本需要两次 LLM 调用(说服检测 + 最终判断),推理成本翻倍
  • 说服分类法覆盖度有限:仅使用 6 大类说服策略,可能遗漏更细粒度或新出现的操纵手法
  • 零样本设置的天花板:虽然超越跨数据集微调的 BERT,但在充分标注数据的域内场景下可能不如专门微调的模型
  • 多语言适用性未验证:仅在英语数据上测试,说服策略的跨语言迁移效果不明

相关工作与启发

  • vs Lucas et al. (2023) 的零样本基线:PCoT 在其三个最佳方法基础上加入说服增强,成功提升了性能
  • vs 监督方法(BERT 微调):PCoT 在跨数据集场景下表现更好,因为说服知识提供了领域无关的推理能力
  • vs 标准 CoT:标准 CoT 让模型自由推理,PCoT 用说服知识约束推理方向,更有针对性

评分

  • 新颖性: ⭐⭐⭐⭐ 将心理学的说服识别研究与 LLM CoT 结合是创新点,但两阶段 prompt 范式本身不算新
  • 实验充分度: ⭐⭐⭐⭐⭐ 5 个 LLM、5 个数据集(含 2 个全新后截止数据集)、充分的统计检验
  • 写作质量: ⭐⭐⭐⭐ 结构清晰,数据集构建过程详实,但方法描述可更精炼
  • 价值: ⭐⭐⭐⭐ 实用性强,方法简单有效,数据集贡献有长期价值