跳转至

Detection of Human and Machine-Authored Fake News in Urdu

会议: ACL 2025
arXiv: 2410.19517
代码: GitHub
领域: 虚假新闻检测 / 低资源语言NLP
关键词: 假新闻检测, 乌尔都语, 机器生成文本, 层次化分类, 低资源语言

一句话总结

本文提出了乌尔都语四分类假新闻检测任务(人类假/人类真/机器假/机器真),构建了首个乌尔都语机器生成新闻数据集,并提出层次化检测方法将四分类分解为机器文本检测和假新闻检测两个子任务,在域内和跨域设置中均优于基线。

研究背景与动机

假新闻检测在社交媒体时代面临双重挑战:

LLM时代的新威胁:ChatGPT等模型能生成高质量、少错误的虚假信息,传统依赖语言学线索的检测方法逐渐失效。同时,记者和媒体组织也在使用LLM,进一步模糊了真假新闻的界限。

低资源语言的困境:当前检测器主要关注英文二分类任务,乌尔都语等低资源语言的研究严重不足。现有乌尔都语假新闻数据集仅包含人类撰写的文本,无法应对机器生成内容的挑战。

分类模式的局限:传统二分类(真/假)无法区分机器生成的真新闻与假新闻。在四分类场景下,直接的多类分类器对机器生成类别的检测效果很差。

本文的核心观察是:四分类问题本质上包含两个独立子任务——"谁写的"(人类/机器)和"是否真实"(真/假),将其拆分可以提升各自的精度

方法详解

整体框架

整体流程分为三阶段:(1) 利用GPT-4o为四个现有乌尔都语假新闻数据集生成机器版本,构建四分类数据集;(2) 对比基线(LSVM、xlm-RoBERTa四分类微调);(3) 提出层次化方法将四分类分解为两个二分类子任务。

关键设计

  1. 数据集构建——机器生成新闻:

    • 使用GPT-4o对四个现有数据集中的每篇文章进行改写,保持相同叙事立场
    • 设计5种不同prompt(1条人工撰写+4条GPT-4o生成),随机分配给每篇文章
    • 原标签从True/Fake变为Human True/Human Fake,机器生成版本获得Machine True/Machine Fake标签
    • 质量控制:母语者审查+token数量20%阈值过滤。发现三类问题:未改写(GPT-4o要求提供文章)、短文本幻觉、生成前缀。通过prompt工程修复
  2. 四数据集覆盖多样场景:

    • Dataset 1 (Ax-to-Grind): 10083条, 短标题, 15领域
    • Dataset 2 (UFN2023): 4097条, 短标题, 9领域
    • Dataset 3 (UFN Augmented): 2000条, 长文章, 翻译自英语
    • Dataset 4 (Bend the Truth): 1300条, 长文章, 记者反事实改写
  3. 层次化检测架构: 核心创新——将四分类分解为两个子任务:

    • 第一层:机器生成文本检测(MGT Detection):标签简化为Human/Machine,微调xlm-RoBERTa-base
    • 第二层:假新闻检测(Fake News Detection):标签简化为Fake/True,微调xlm-RoBERTa-base
    • 推理阶段:两个模型分别预测→拼接两个预测标签→映射回四分类标签
    • 两个子模型使用相同超参数(lr=2e-5, weight decay=0.01, 10 epochs)确保公平比较
  4. 跨域评估设计: 在4个独立数据集+短文本组合+长文本组合+全部组合上训练,对所有测试集进行49组交叉评估,全面测试泛化能力。

损失函数 / 训练策略

  • 基线和层次化模型均使用xlm-RoBERTa-base微调
  • 学习率2×10⁻⁵,weight decay 0.01,10 epochs
  • load_best_model_at_end=True选择最优模型
  • 推理使用softmax概率取argmax

实验关键数据

主实验——四分类检测(表3)

数据集 模型 HF F1 HT F1 MF F1 MT F1 Acc
Dataset1 LSVM 0.73 0.61 0.64 0.52 0.63
Dataset1 XLM-R 0.83 0.71 0.77 0.69 0.75
Dataset1 Hierarchical 0.85 0.69 0.80 0.74 0.77
Dataset2 XLM-R 0.93 0.66 0.88 0.70 0.82
Dataset2 Hierarchical 0.93 0.80 0.90 0.77 0.87
Dataset3 XLM-R 0.91 0.91 0.88 0.89 0.90
Dataset3 Hierarchical 0.96 0.95 0.92 0.91 0.94
Dataset4 XLM-R 0.76 0.73 0.58 0.65 0.68
Dataset4 Hierarchical 0.85 0.85 0.74 0.79 0.81

组合数据集实验

组合 模型 HF HT MF MT Acc
Short(1+2) XLM-R 0.88 0.68 0.83 0.72 0.78
Short(1+2) Hierarchical 0.93 0.85 0.91 0.86 0.89
Long(3+4) XLM-R 0.89 0.88 0.74 0.77 0.82
Long(3+4) Hierarchical 0.94 0.94 0.89 0.90 0.92
All XLM-R 0.89 0.77 0.83 0.74 0.81
All Hierarchical 0.91 0.85 0.88 0.83 0.87

关键发现

  1. 层次化方法一致优于基线:在所有4个数据集和所有组合上,层次化方法均超越基线,准确率提升2%-13%
  2. 有效弥合人类/机器F1差距:基线中Machine F1远低于Human F1,层次化方法大幅缩小了这一差距,说明分解策略确实解决了机器生成文本检测不充分的问题
  3. 跨域泛化仍是挑战:对角线外的准确率显著下降(如Dataset3训练→Dataset4测试仅32%),模型不能很好地泛化
  4. 文本长度成为误导特征:短文本训练的模型在长文本上失败,原因是短数据集中假新闻平均token数显著多于真新闻,模型不自觉地学到了长度特征
  5. 数据增强对MGT模块有效:用M4数据集增强Dataset1的MGT模块后,MGT准确率提升3%,整体准确率提升4%

亮点与洞察

  • 任务定义的前瞻性:在LLM生成内容泛滥的时代,四分类框架(区分人类/机器×真/假)比传统二分类更符合实际需求
  • 简单有效的分解思想:将复杂的四分类问题拆分为两个相对简单的二分类,不需要复杂模型架构就能显著提升性能
  • 低资源语言的关注:乌尔都语有2.3亿使用者,但NLP研究严重不足,本文填补了重要空白
  • 跨域分析揭示的现实问题:模型依赖文本长度作为特征这一发现,对实际部署中的鲁棒性提出了警示

局限与展望

  • 仅使用xlm-RoBERTa-base,未探索更强的多语言模型(如mBERT、XLM-R-large)
  • TFIDF特征对LSVM基线可能不够优化,NELA等新闻特征可能更好但实现成本高
  • 跨域泛化差,需要探索领域适应技术
  • 文本长度作为偷懒特征的问题未在方法层面解决
  • MGT模块仅覆盖GPT-4o的输出,未涵盖其他LLM生成的内容
  • 数据集规模相对较小(最大1万条),大规模场景的表现未知

相关工作与启发

  • Su et al. (2023):提出Structured Mimicry Prompting同时生成机器真/假新闻,本文采用类似思路生成乌尔都语数据
  • Zellers et al. (2019) GROVER:同时生成和检测假新闻文章的早期工作
  • Wang et al. (2024) M4:多语言机器生成文本检测数据集,本文用其乌尔都语子集进行数据增强
  • 层次化分类思想可以推广到其他多维度分类任务(如情感+主题联合分类)

评分

  • 新颖性: 7/10 — 四分类框架和层次化分解是合理的创新,但技术手段相对基础
  • 实验充分度: 8/10 — 四个数据集、多种组合、49组跨域评估非常充分,分析也很深入
  • 写作质量: 7/10 — 结构清晰,分析到位,但部分叙述稍显冗长
  • 价值: 7/10 — 对低资源语言假新闻检测有重要贡献,但方法的技术深度有限

相关论文