👥 社会计算¶
💬 ACL2025 · 27 篇论文解读
- A Survey on Proactive Defense Strategies Against Misinformation in Large Language Models
-
提出从被动检测到主动防御的范式转换,构建知识可信度、推理可靠性、输入鲁棒性"三支柱"框架,将 127 种防御技术系统映射到三支柱中,元分析 48 项基准研究表明主动防御相比传统方法提升 42-63%,同时识别了计算开销和跨域泛化的非平凡权衡。
- BanStereoSet: A Dataset to Measure Stereotypical Social Biases in LLMs for Bangla
-
构建 BanStereoSet,一个包含 1194 条填空式样本、覆盖 9 类偏见(种族/性别/宗教/职业/美貌/年龄/种姓/地区等)的孟加拉语刻板印象偏见数据集,用于评估多语言 LLM 在孟加拉语中的社会偏见,发现 GPT-4o 偏见最高,Mistral 最低。
- Beyond Negative Stereotypes -- Non-Negative Abusive Utterances about Identity Groups and Their Semantic Variants
-
本文研究了一种被忽视的仇恨言论类型——表面上不包含负面刻板印象但实际上针对身份群体的滥用性表达,系统分析了这类"非负面滥用话语"的语义变体,并评估了现有检测模型的处理能力。
- BiasGuard: A Reasoning-Enhanced Bias Detection Tool for Large Language Models
-
提出 BiasGuard,通过显式推理公平性规范来检测 LLM 输出偏见:第一阶段用教师模型生成推理轨迹做 SFT 初始化,第二阶段用 DPO 强化推理质量,在 5 个数据集上超越分类器和 LLM-as-Judge 方法且降低过度公平误判。
- Can Community Notes Replace Professional Fact-Checkers?
-
大规模分析 Twitter/X 社区笔记 66.4 万条,发现社区笔记对专业事实核查的依赖是此前报告的 5 倍(≥5-7%),涉及阴谋论/虚假叙事的内容引用事实核查来源的概率是其他内容的 2 倍,证明高质量社区审核与专业事实核查深度交织、不可替代。
- Conspiracy Theories and Where to Find Them on TikTok
-
首个TikTok阴谋论系统性分析:通过官方API收集美国150万条长视频,利用标签富集和远程监督识别阴谋论内容(每月约1000条新视频),评估TikTok创作者激励计划的影响,并测试开源LLM(Llama3、Mistral、Gemma)在基于音频转录的阴谋论检测上的效果(精确率高达96%但整体水平与微调RoBERTa相当)。
- Culture Matters in Toxic Language Detection in Persian
-
本文系统比较了多种方法(微调、数据增强、零样本/少样本学习、跨语言迁移学习)在波斯语有害语言检测中的效果,揭示了文化相似性是决定跨语言迁移学习成功与否的关键因素——来自文化相近国家的语言数据带来更好的迁移效果。
- Detection of Human and Machine-Authored Fake News in Urdu
-
本文提出了乌尔都语四分类假新闻检测任务(人类假/人类真/机器假/机器真),构建了首个乌尔都语机器生成新闻数据集,并提出层次化检测方法将四分类分解为机器文本检测和假新闻检测两个子任务,在域内和跨域设置中均优于基线。
- Explicit vs. Implicit: Investigating Social Bias in Large Language Models through Self-Reflection
-
借鉴社会心理学中隐式联想测验(IAT)和自我报告评估(SRA),提出自反思评估框架系统研究 LLM 的显式和隐式偏见,发现 LLM 与人类一样存在显式-隐式偏见不一致——显式偏见轻微但隐式偏见强烈,且模型越大/对齐训练越多,这种不一致越严重。
- Exploring Gender Bias in Large Language Models: An In-depth Dive into the German Language
-
本文针对德语场景构建了五个性别偏见评测数据集,并在八个多语言 LLM 上进行系统评估,揭示了德语特有的性别偏见挑战——包括阳性职业名词的歧义解读和看似中性的名词对性别感知的影响。
- Exploring Multimodal Challenges in Toxic Chinese Detection: Taxonomy, Benchmark, and Findings
-
这篇工作把中文毒性文本中的“形、音、义混合扰动”系统化为 3 类 8 种策略,构建了大规模扰动基准 CNTP,并证明当前中美主流 LLM 在这类中文多模态毒性检测上都明显不稳,而小样本 ICL / SFT 虽能抬高检出率,却容易把正常内容一起误杀。
- Exploring the Impact of Instruction-Tuning on LLMs' Susceptibility to Misinformation
-
首次系统研究指令微调如何影响 LLM 对虚假信息的易感性,发现指令微调使模型从偏信 assistant-role 转变为偏信 user-role,当虚假信息以独立 user-turn 呈现时易感性最高,揭示了指令微调的"副作用"。
- FairSteer: Inference Time Debiasing for LLMs with Dynamic Activation Steering
-
提出 FairSteer,一种推理时去偏框架,通过轻量线性分类器检测激活中的偏见信号,再用对比 prompt 对计算的去偏转向向量(DSV)动态调整隐藏层激活,无需重训即可在多任务上有效缓解 LLM 的社会偏见。
- GG-BBQ: German Gender Bias Benchmark for Question Answering
-
将英语BBQ偏见基准数据集的性别子集翻译为德语,经人工审校后创建GG-BBQ德语性别偏见评估基准,揭示了机器翻译在性别偏见评估数据集构建中的局限性,并评估了多个德语LLM的偏见表现。
- HateDay: Insights from a Global Hate Speech Dataset Representative of a Day on Twitter
-
HateDay 构建了首个全球代表性仇恨言论数据集——24 万条随机采样的 Twitter 推文覆盖 8 种语言和 4 个英语国家,揭示了学术数据集大幅高估了检测模型在真实场景中的表现,尤其对非欧洲语言检测能力极差。
- How does Misinformation Affect Large Language Model Behaviors and Preferences?
-
构建了目前最大的误信息评估基准 MisBench(1034 万条误信息),从知识冲突类型和文本风格两个维度系统分析 LLM 对误信息的行为和偏好,并提出 RtD 方法结合外部知识源提升误信息检测能力。
- ImpliHateVid: Implicit Hate Speech Detection in Videos
-
首次提出视频中隐性仇恨言论检测任务,构建2009个视频的ImpliHateVid数据集,并设计两阶段对比学习框架融合文本、图像、音频三模态特征。
- Is LLM an Overconfident Judge? Unveiling the Capabilities of LLMs in Detecting Offensive Language with Annotation Disagreement
-
系统评估了多个 LLM 在攻击性语言检测中面对标注分歧时的表现,发现 LLM 在标注者高度一致的样本上表现优异(GPT-4o F1 85.24%)但在低一致度样本上骤降至 57.06%,且模型对不确定样本表现出严重的过度自信;进一步通过 few-shot 和指令微调实验证明,在训练中引入分歧样本可同时提升检测准确率和人-AI 对齐度。
- K/DA: Automated Data Generation Pipeline for Detoxifying Implicitly Offensive Language in Korean
-
本文提出 K/DA,一个自动化的韩语攻击性语言配对数据生成管线,通过 RAG 从在线社区检索时下流行的俚语来增强中性句子生成毒性版本,配合两阶段过滤(配对一致性 + 隐性攻击性),生成了 7.5K 高质量中性-毒性配对数据集,训练的去毒化模型优于基于人工标注和翻译数据集训练的模型。
- Synergizing LLMs with Global Label Propagation for Multimodal Fake News Detection
-
提出 GLPN-LLM 框架,通过 mask-based 全局标签传播机制有效整合 LLM 生成的伪标签,解决了 LLM 伪标签直接组合效果不佳的问题,在 Twitter/PHEME/Weibo 三个数据集上全面超越 SOTA。
- Evaluation of LLM Vulnerabilities to Being Misused for Personalized Disinformation Generation
-
系统评估了 6 个主流 LLM 生成个性化虚假信息的能力,发现大多数 LLM 能生成高质量个性化虚假新闻,且个性化请求反而降低了安全过滤器的触发率(相当于一种 jailbreak),同时轻微降低了机器生成文本的可检测性。
- MDiT-Bench: Evaluating the Dual-Implicit Toxicity in Large Multimodal Models
-
提出"双模态隐式毒性"(dual-implicit toxicity)概念——仅当结合图文两个模态时才能被识别的偏见与歧视,构建了包含317K问题、12类23子类的MDIT-Bench基准,并通过长上下文越狱揭示了主流多模态大模型中大量可被激活的隐藏毒性。
- Measuring Social Biases in Masked Language Models by Proxy of Prediction Quality
-
提出了注意力加权的预测质量代理度量 Δpa 和 CRRA,在迭代掩码实验(IME)下评估 MLM 的社会偏见,并引入模型比较函数 BSRT 来估计重训练引入的偏见,发现所提方法比 CSPS、AUL、AULA 等现有方法更准确、更敏感。
- Silencing Empowerment, Allowing Bigotry: Auditing the Moderation of Hate Speech on Twitch
-
对 Twitch 平台的自动化内容审核工具 AutoMod 进行大规模审计,发送超过 10.7 万条消息,发现 AutoMod 在最严格设置下仅能标记 22% 的仇恨内容,高度依赖侮辱性词汇作为检测信号,同时错误屏蔽高达 89.5% 的教育性/赋权性内容。
- STATE ToxiCN: A Benchmark for Span-level Target-Aware Toxicity Extraction in Chinese Hate Speech Detection
-
构建了首个中文 span 级仇恨言论检测数据集 STATE ToxiCN(8029 条帖子、9533 个四元组标注),提出 Target-Argument-Hateful-Group 四元组标注体系,并首次建立了中文仇恨俚语标注词典(830 条),系统评估了多种 LLM 在 span 级中文仇恨言论检测上的能力。
- taz2024full: Analysing German Newspapers for Gender Bias and Discrimination across Decades
-
构建迄今最大的公开德语新闻语料库 taz2024full(180万+篇文章,1980-2024),并适配actor级语篇分析管线至德语,揭示四十余年间新闻报道中持续存在的性别表征失衡与情感偏差。
- Translate With Care: Addressing Gender Bias, Neutrality, and Reasoning in Large Language Model Translations
-
提出 Translate-with-Care (TWC) 数据集(3,950 条跨 6 种无性别语言的翻译挑战),系统揭示 GPT-4、Google Translate 等模型在无性别→有性别语言翻译中的性别偏见和推理错误,并通过微调 mBART-50 在偏见消除和翻译准确率上大幅超越闭源 LLM。