跳转至

MultiSocial: Multilingual Benchmark of Machine-Generated Text Detection of Social-Media Texts

会议: ACL 2025
arXiv: 2406.12549
代码: https://github.com/kinit-sk/multisocial
领域: 文本生成
关键词: 机器文本检测, 多语言, 社交媒体, 基准数据集, LLM生成文本

一句话总结

构建首个多语言(22种语言)、多平台(5个社交媒体)、多生成器(7个LLM)的社交媒体机器生成文本检测基准 MultiSocial(47万文本),填补了社交媒体短文本+非英语场景下 MGT 检测研究的空白,发现微调检测器可在社交媒体文本上有效训练且训练平台选择很重要。

研究背景与动机

  1. 领域现状:机器生成文本检测(MGTD)研究主要聚焦英语和长文本(新闻、论文、学生作文)。现有多语言基准(如 M4GT-Bench、MULTITuDE)也主要覆盖新闻领域。
  2. 现有痛点:(a) 社交媒体文本具有独特挑战——非常短小、非正式语言风格、含表情/标签/缩写/语法错误;(b) 缺乏多语言+社交媒体域的基准数据集,无法评估现有检测器在这些场景下的鲁棒性;(c) 现有社交媒体 MGT 数据集要么仅英语(TweepFake、Fox8-23)要么仅覆盖单一生成器(GPT)。
  3. 核心矛盾:社交媒体是 LLM 生成内容最容易传播的渠道(低门槛、高传播速度),但检测研究在这个领域最薄弱——相当于"最危险的地方防线最弱"。
  4. 本文要解决什么? 构建全面的社交媒体 MGT 检测基准并系统评估现有方法。
  5. 切入角度:大规模采集 5 个社交平台上 22 种语言的真实人工帖子,用 7 个多语言 LLM 生成风格匹配的对应文本,形成配对数据集。
  6. 核心idea一句话:首个覆盖 22 语言×5 平台×7 生成器的社交媒体 MGT 检测基准。

方法详解

数据集构建

  • 规模: 472,097 文本总量
  • 人工文本: ~58K 真实社交媒体帖子
  • 机器文本: 7 个 LLM 各生成 ~58K,高度模仿对应人工文本的风格和主题
  • 语言覆盖: 22 种语言(见 Figure 1),从高资源(英/法/德/中/日/韩)到低资源语言
  • 平台覆盖: Facebook、X/Twitter、Telegram、Reddit、YouTube
  • 生成器: 7 个多语言 LLM(包括 GPT-4、Claude、Llama、Mistral 等)
  • 采集方式: 从各平台 API 或公开数据集中采集真实帖子,用 LLM 生成风格匹配的对应文本

基准评估设计

评估三类检测方法: 1. 统计方法: 基于困惑度、排名等文本统计特征 2. 预训练检测器(Zero-shot): 直接使用已训练好的检测模型,不做社交媒体域适配 3. 微调检测器: 在 MultiSocial 数据上微调的检测器

评估维度: - 多语言检测能力(同语言训练+测试) - 跨语言迁移(一种语言训练,其他语言测试) - 跨平台泛化(一个平台训练,其他平台测试) - 跨生成器泛化(一个 LLM 的文本训练,检测其他 LLM 的文本)

损失函数 / 训练策略

  • 微调检测器使用标准二分类交叉熵
  • 基于 RoBERTa 和多语言 BERT 变体

实验关键数据

主实验

检测方法类别 社交媒体文本表现 说明
统计方法(PPL等) 效果有限 短文本统计特征不够区分性
Zero-shot检测器 英语好、非英语差 预训练检测器对非英语覆盖不足
微调检测器 高准确率 在社交媒体文本上训练无困难

跨维度分析

评估维度 关键发现
语言差异 英语 vs 非英语在 zero-shot 下差距显著,微调后差距缩小
平台差异 Telegram 训练集提供最佳跨语言迁移能力
跨平台泛化 不同平台训练的检测器泛化能力差异大——Reddit 训练的检测器泛化最差
文本长度影响 更短的文本确实更难检测
生成器差异 GPT-4 生成的文本最难检测,Llama 较容易
跨生成器泛化 在一个 LLM 文本上训练的检测器对其他 LLM 泛化尚可

关键发现

  • 微调检测器在社交媒体短文本上训练效果好——说明短文本不是不可检测,只是需要域内训练
  • Telegram 是最佳训练平台——可能因为 Telegram 帖子风格最多样,学到最通用的特征
  • 英语 vs 非英语的差异在 zero-shot 下最大但在微调后可控——说明多语言微调数据是关键
  • 跨生成器泛化是可行的——不需要对每个新 LLM 都重新训练
  • Reddit 文本最难跨平台泛化——可能因为 Reddit 风格最独特(长帖子+嵌套评论)

亮点与洞察

  • 填补重要痛点——社交媒体是 LLM 虚假信息传播的主战场,MGT 检测在此场景下的研究严重不足。MultiSocial 是第一个全面覆盖这一场景的基准。
  • 22语言覆盖为非英语 MGTD 研究提供了基础设施——之前的工作最多覆盖 9-11 种语言。
  • 平台选择影响训练效果是实用发现——实际部署时应优先选择泛化能力强的平台数据进行训练。
  • 多维度评估框架(跨语言/跨平台/跨生成器/跨长度)为后续研究提供了标准化的评估方法。
  • 该数据集可用于研究 LLM 虚假信息检测、自动化社交媒体内容治理等应用。

局限性 / 可改进方向

  • 数据集是静态的——LLM 持续进化,新模型的文本可能不在数据集覆盖范围内
  • 社交媒体文本的多样性可能无法被 7 个 LLM 完全覆盖
  • 部分低资源语言的样本量可能不足以训练鲁棒检测器
  • 未考虑对抗性攻击(如经过改写的机器文本)
  • 标注质量依赖于自动生成过程,未做人工验证

相关工作与启发

  • vs M4GT-Bench: M4GT 涵盖多语言多领域但社交媒体覆盖极少(仅英语 Reddit);MultiSocial 专注社交媒体且语言更多
  • vs MULTITuDE: MULTITuDE 专注新闻领域长文本,11 种语言;MultiSocial 专注社交媒体短文本,22 种语言
  • vs TweepFake: 仅英语+旧模型(GPT-2 级别);MultiSocial 覆盖最新 LLM
  • vs MAiDE-up: 仅酒店评论+GPT-4;MultiSocial 多平台多生成器
  • 该基准可与对抗性鲁棒性研究结合——测试改写/混合策略下的检测能力

评分

  • 新颖性: ⭐⭐⭐⭐ 首个多语言多平台社交媒体 MGT 检测基准,定位精准
  • 实验充分度: ⭐⭐⭐⭐⭐ 大规模数据集+多维度系统评估+三类方法对比
  • 写作质量: ⭐⭐⭐⭐ 数据集构建和实验描述详细,相关工作梳理全面
  • 价值: ⭐⭐⭐⭐⭐ 重要基础设施贡献,填补社交媒体MGT检测研究的关键空白