跳转至

A Multi-Agent Framework for Mitigating Dialect Biases in Privacy Policy Question-Answering Systems

会议: ACL 2025
arXiv: 2506.02998
代码: 无
领域: LLM Agent
关键词: 多智能体, 方言偏差, 隐私政策QA, 公平性, LLM协作

一句话总结

提出一个双 Agent 框架(Dialect Agent + Privacy Policy Agent),通过方言感知翻译和迭代协作来消除隐私政策QA系统在不同英语方言间的性能差距,无需重训练或方言特定微调,在 PrivacyQA 和 PolicyQA 上将方言间最大性能差距降低最高 82%。

研究背景与动机

  1. 领域现状:隐私政策 QA 系统旨在帮助用户理解复杂的数据隐私条款。现有系统基于 LLM(如 GPT-4o-mini、Llama 3.1)通过 zero-shot 或 few-shot 方式回答隐私相关问题。

  2. 现有痛点:NLP 系统对非标准英语方言(如非裔美国人方言 AAVE、牙买加英语、威尔士英语等)表现显著更差。在隐私政策领域这一问题尤为严重——边缘化社区本身就更容易受到数据收集和隐私侵犯的影响,如果他们的方言导致 QA 系统表现更差,就形成了双重不公平。

  3. 核心矛盾:要提升多方言公平性,传统方法需要方言特定的微调数据,但在敏感领域(如隐私政策)收集这类数据困难且成本高。如何在不重训练的前提下消除方言偏差?

  4. 本文要解决什么? 设计一个无需重训练的框架,让 LLM QA 系统在所有英语方言上表现一致且准确。

  5. 切入角度:利用 LLM 本身的多语言/多方言知识,通过结构化的 Agent 协作(翻译 + 审查 + 纠正)来弥补方言理解差距。

  6. 核心idea一句话:将方言偏差问题分解为"方言翻译→专业回答→一致性审查"的多 Agent 协作流程,通过引入方言背景知识实现零训练的公平性提升。

方法详解

整体框架

输入:方言用户提出的隐私问题 \(q_d\)(方言 \(d\))+ 隐私政策文本 \(p\)。输出:准确的回答 \(A\)。系统由两个 Agent 协作完成:Dialect Agent(方言专家)和 Privacy Policy Agent(隐私政策专家),通过最多 2 轮迭代对话达成一致。

关键设计

  1. Dialect Agent(方言翻译 + 审查 Agent):
  2. 做什么:将用户方言问题翻译成标准美式英语(SAE),并在后续验证 Privacy Agent 的回答是否符合用户原始意图
  3. 核心思路:在 prompt 中注入目标方言的语言学背景知识(语音、语法、词汇、文化特征),使 Agent 能够准确理解方言表达并转译为 SAE。翻译时保留方言特有的文化含义和语气细微差别
  4. 设计动机:LLM 在 SAE 上训练最充分,直接处理方言时可能误解语义。通过显式翻译+方言知识注入,避免了方言理解偏差。同时 Dialect Agent 承担审查角色,确保最终回答不丢失方言用户的意图

  5. Privacy Policy Agent(领域专家 Agent):

  6. 做什么:基于翻译后的 SAE 问题和隐私政策文本生成回答
  7. 核心思路:作为隐私政策领域专家被 prompt,理解隐私政策的结构和术语(如 First Party Collection、Data Retention 等分类),生成精确的回答及推理依据
  8. 设计动机:专业化分工——让 Privacy Agent 专注于领域知识,不需要同时处理方言理解的复杂性

  9. 迭代协作机制:

  10. 做什么:Dialect Agent 评审 Privacy Agent 的回答,如不满意则反馈修改意见,最多循环 2 次
  11. 核心思路:Dialect Agent 拿到原始方言问题、政策文本和 Privacy Agent 的答案,判断答案是否充分捕捉用户意图。如果 Privacy Agent 遗漏了方言特定的语义细微差别,Dialect Agent 给出具体反馈,Privacy Agent 据此修正
  12. 设计动机:单次翻译+回答不够——实验表明迭代后 PrivacyQA 的 F1 从 0.53 提升到 0.59(zero-shot)。方言的语义细微差别需要多轮交互才能充分处理

损失函数 / 训练策略

整个框架完全基于 prompting,无需任何训练或微调。few-shot 设置下每个 Agent 使用 8 个示例,涵盖多种方言和场景。

实验关键数据

主实验

在 PrivacyQA(1750 题,35 个移动应用隐私政策)和 PolicyQA(25017 题,115 个网站隐私政策)上评测,使用 Multi-VALUE 框架将问题转换为 50 种英语方言。

PrivacyQA 结果(F1 Score)

方法 SAE RAAVE 牙买加 原住民 威尔士 平均 最大差距↓
GPT-4o-mini Zero .394 .344 .332 .329 .312 .335 .093
GPT-4o-mini Few .605 .573 .562 .555 .547 .565 .058
GPT-4o-mini MA-zero .601 .588 .578 .587 .592 .587 .025
GPT-4o-mini MA-few .611 .595 .596 .602 .592 .598 .019
DeepSeek-R1 MA-zero .582 .579 .583 .579 .566 .577 .017

PolicyQA 结果(Token F1)

方法 SAE RAAVE 平均 最大差距↓
GPT-4o-mini Zero .352 .343 .337 .029
GPT-4o-mini Few .478 .423 .449 .055
GPT-4o-mini MA-few .484 .460 .471 .024

消融实验

配置 PrivacyQA 初始F1 PrivacyQA 最终F1 说明
Zero-shot 0.53 0.59 迭代协作提升 +6%
Few-shot 0.58 0.61 迭代协作提升 +3%
有方言背景知识 0.577 0.597 方言知识帮助初始翻译
无方言背景知识 0.521 0.589 无知识但迭代仍可部分弥补

关键发现

  • Zero-shot Multi-agent 可匹敌 Few-shot 基线:GPT-4o-mini 的 MA-zero(0.587)超过 few-shot 基线(0.565),说明结构化 Agent 协作比简单加示例更有效
  • 方言差距大幅缩小:最大性能差距从 0.093 降至 0.019(降低 80%),实现了更公平的跨方言表现
  • SAE 性能也同步提升:Multi-agent 框架不仅帮助弱势方言,对标准英语性能也有正向影响
  • 迭代协作很重要:从 Initial 到 Final 答案,两个数据集均有一致提升,说明单次翻译不够,多轮交互才能充分处理方言语义
  • 方言背景知识主要帮助初始阶段:有知识时初始 F1 更高,但经过迭代后差距缩小

亮点与洞察

  • 零训练的公平性提升:完全通过 prompting 和 Agent 协作实现,不需要任何方言特定数据或微调。这种模式可迁移到任何需要处理多方言/多语言用户的 NLP 系统
  • 分工设计巧妙:Dialect Agent 负责语言理解和意图保真,Privacy Agent 负责领域知识。同一个 Dialect Agent 既做翻译又做审查,一角两用,简洁高效
  • 实际应用价值高:隐私政策 QA 是真实需求场景,边缘化社区在隐私保护上本身就处于弱势,这个框架能直接部署提升可及性

局限性 / 可改进方向

  • 方言转换依赖规则系统:使用 Multi-VALUE 框架生成方言变体,是基于规则的合成数据,可能无法完全反映真实方言使用场景
  • 方言知识的质量和覆盖度:Dialect Agent 的方言背景知识是预写的简短摘要,覆盖深度有限,对于语法差异极大的方言可能不够
  • 仅测试了英语方言:框架是否对跨语言场景(如中文方言、西班牙语变体)有效还未验证
  • 计算成本翻倍:双 Agent + 迭代意味着每个问题需要多次 LLM 调用,延迟和成本都增加
  • 评估指标单一:只用 F1 衡量准确性,未评估用户体验、答案可读性等维度

相关工作与启发

  • vs Multi-VALUE:Multi-VALUE 提供了方言转换和评测框架,但不提供解决方案。本文在其基础上提出了实际的偏差缓解方法
  • vs DADA/TADA:这些方言适应框架需要方言特定训练数据和模型微调,本文的 Agent 方法零训练即可部署,更具可扩展性
  • vs LongAgent:同样是多 Agent QA 系统,但 LongAgent 处理长文档分割问题,本文处理语言多样性问题,两者可以互补

评分

  • 新颖性: ⭐⭐⭐⭐ 将方言公平性问题建模为 Agent 协作是新颖的切入角度,但双 Agent 协作模式本身不算新
  • 实验充分度: ⭐⭐⭐⭐ 三个 LLM、两个数据集、五种方言、消融分析齐全,但方言数据是合成的
  • 写作质量: ⭐⭐⭐⭐ 动机清晰,实验详实,但方法部分 prompt 描述过于冗长
  • 价值: ⭐⭐⭐⭐ 公平性+隐私是重要交叉议题,框架可直接部署,实用性强