跳转至

Data-Constrained Synthesis of Training Data for De-Identification

会议: ACL 2025
arXiv: 2502.14677
代码: 无
领域: 数据隐私 / 临床NLP / 命名实体识别
关键词: 合成数据, 去标识化, 数据约束, 领域适应, PII检测

一句话总结

本文系统研究了在数据受限条件下,如何利用领域适应的LLM生成合成临床文本,并通过机器标注训练NER模型进行个人身份信息(PII)检测,发现机器标注器的质量而非生成模型的规模是决定合成数据效用的关键因素。

研究背景与动机

在临床等敏感领域,由于隐私风险,广泛可用的数据集极为稀缺。传统的去标识化方法依赖人工标注PII(个人身份信息),成本高昂且耗时。自动去标识化通常依赖NER模型来检测需要移除的PII,但训练这些NER模型所需的PII数据集本身也是敏感的,形成了一个循环困境。

随着LLM生成能力的提升,利用合成数据集来解决数据稀缺问题成为可行方案。然而,以往研究主要关注合成数据的隐私评估或如何创建最强模型,很少系统地研究在资源受限条件下如何有效地生成合成数据。本文正是填补了这一空白,探索了以下核心问题:

  1. 领域适应所需的数据量有多少?
  2. 机器标注器的质量影响多大?
  3. 合成数据量对下游任务的影响如何?
  4. 生成模型的规模是否关键?

方法详解

整体框架

整体流程分为四步:(1) 使用敏感的金标准语料对通用LLM进行领域适应;(2) 用适应后的LLM生成合成临床文本;(3) 使用在金标准数据上训练的NER模型对合成文本进行机器标注;(4) 用机器标注的合成语料训练新的NER模型。

关键设计

  1. 生成模型的领域适应: 采用QLoRA(r=8, α=32)对GPT-SW3(瑞典语,6.7B参数)和FLOR(西班牙语,6.3B参数)进行领域微调。使用临床数据进行自回归语言建模训练,不使用指令微调,以保持方法的简洁性。使用验证集前三个词作为生成起始点。

  2. 合成文本生成: 使用vLLM库进行推理,采用nucleus sampling(p=0.95),温度设为1.0。每个起始点生成80个样本,使合成语料为原始数据的4倍大小。合成数据的优势在于其规模仅受计算资源限制。

  3. 机器标注: 使用SweDeClin-BERT(瑞典语)和roberta-base-bne(西班牙语)作为编码器模型,在金标准数据上微调后用于PII标注。文档按128词分块处理以适应模型上下文窗口。

  4. 跨语言验证: 在瑞典语(SEPR PHI,21553句)和西班牙语(MEDDOCAN,1000篇医疗文本)两种语言上验证,增强了结论的普适性。

损失函数 / 训练策略

  • 生成模型使用自回归语言建模损失进行QLoRA微调
  • NER模型训练6个epoch,batch size为16
  • 全部实验通过五折交叉验证进行
  • 评估指标为token级别的F1分数

实验关键数据

主实验——约束总数据量(表1)

数据比例 SEPR PHI Gold SEPR PHI Synthetic Δ MEDDOCAN Gold MEDDOCAN Synthetic Δ
5% 0.707 0.724 -0.017 0.931 0.309 0.622
25% 0.871 0.847 0.024 0.967 0.964 0.003
50% 0.908 0.885 0.023 0.973 0.970 0.003
95% 0.926 0.896 0.029 0.978 0.973 0.005

消融实验——各因素影响

领域适应数据量(表2):

领域适应数据 SEPR PHI MEDDOCAN
0% 0.547 0.295
5% 0.873 0.313
25% 0.877 0.970
50% 0.896 0.970
95% 0.896 0.973
Gold 0.926 0.978

模型规模影响(表4):

模型规模 SEPR PHI MEDDOCAN
小模型(~1.3B) 0.883 0.973
大模型(~6.5B) 0.896 0.973
Gold 0.926 0.978

合成数据量影响(表5):

合成量 SEPR PHI MEDDOCAN
5% 0.814 0.938
100% 0.889 0.968
400% 0.896 0.973

关键发现

  1. 领域适应存在边际递减效应:使用25%-50%的数据即可达到接近最优的领域适应效果,增加到95%几乎无提升
  2. 机器标注器质量是核心瓶颈:对比Table 2和Table 3,固定高质量标注器时合成模型性能紧跟金标准;而固定高质量域适应时,标注器质量的变化直接决定下游性能
  3. 小模型足以胜任:1.3B参数的生成模型与6.5B的效果几乎相同,尤其在MEDDOCAN上完全一致
  4. 合成数据量的边际收益有限:100%与400%的合成量差异在一个标准差以内
  5. 隐私方面:更多领域适应数据反而降低了n-gram recall(5-gram从0.328降至0.122),说明更充分的训练减少了记忆化

亮点与洞察

  • 反直觉发现:在合成数据管线中,生成模型的规模和数据量并非瓶颈,标注模型才是。这对资源受限机构意义重大——应优先投资于高质量标注模型
  • 隐私-效用权衡的新视角:使用更多数据反而降低记忆化风险,因为更多独特n-gram被学习,单个n-gram被记住的概率下降
  • 方法的实用性:为跨机构协作提供了可行方案——双方可以分享合成数据而非原始敏感数据

局限与展望

  • PII检测可能是对领域特异性要求较低的任务,结论能否迁移到更具领域特异性的任务(如诊断编码)有待验证
  • 未使用指令微调,对于需要文档级语义的任务可能需要不同策略
  • 隐私评估仅基于n-gram指标,对真实隐私风险的量化有局限
  • 仅测试了两种语言,更多语言的验证将增强普适性

相关工作与启发

  • Libbi et al. (2021) 使用GPT-2和100万文档进行类似流程,本文用更少数据和更现代技术达到了相似效果
  • Xu et al. (2023) 在关系抽取任务上做了数据约束实验,本文将视角转向NER/PII检测
  • 差分隐私学习(Yue et al., 2023; Igamberdiev et al., 2024)是另一条路线,但实现困难且效率低

评分

  • 新颖性: 7/10 — 方法本身并非全新,但系统性的消融研究设计和"标注器为王"的发现具有新意
  • 实验充分度: 9/10 — 双语言验证、五折交叉验证、多维度消融(数据量、模型规模、合成量、隐私)非常全面
  • 写作质量: 8/10 — 结构清晰,实验设计逻辑性强,图表直观
  • 价值: 8/10 — 对临床NLP和隐私保护社区有直接实用价值,资源受限机构的参考指南

相关论文