跳转至

Certification for Differentially Private Prediction in Gradient-Based Training

会议: ICML2025
arXiv: 2406.13433
代码: 待确认
领域: 隐私认证 (Privacy Certification)
关键词: 差分隐私, 隐私预测, 平滑敏感度, 参数空间界, 区间传播, 医学影像, 自然语言处理

一句话总结

提出 Abstract Gradient Training (AGT) 框架,通过凸松弛与界传播技术计算训练过程中模型参数的可达集上界,从而利用平滑敏感度机制大幅收紧隐私预测的隐私分析,在医学影像和 NLP 任务上实现比全局敏感度紧数个数量级的隐私界。

研究背景与动机

差分隐私 (DP) 是保护机器学习模型中用户数据隐私的核心工具。现有两条技术路线:

隐私训练 (如 DP-SGD):在训练过程中加噪,使最终模型参数满足 DP。缺点是隐私参数须预先固定,训练代价高,且可能引入对特定群体的偏差。

隐私预测 (Private Prediction):对非隐私模型的输出加噪。优势在于可动态调整隐私预算、易于与联邦学习等复杂训练范式结合。但现有方法依赖全局敏感度 \(\text{GS}(f)\),导致隐私-效用权衡远逊于隐私训练。

近期审计研究 (Chadha et al., 2024) 指出隐私预测的隐私分析存在大量松弛空间。本文正是针对这一松弛,提出基于验证 (verification-centric) 的框架来收紧隐私预测的隐私保证。

核心洞察:隐私预测松弛的主要根源在于使用全局预测敏感度——即所有可观测数据集之间预测的最大变化量。实际上对于给定数据集,局部敏感度可以远小于全局敏感度。

方法详解

1. 预测稳定性认证

定义预测稳定性 (Prediction Stability):对于训练在数据集 \(D\) 上的模型 \(f\),在查询点 \(x\) 处的预测 \(f_x(D)\) 在距离 \(k\) 处是稳定的,当且仅当:

\[\|f_x(D) - f_x(D')\|_1 = 0, \quad \forall D': d(D, D') \leq k\]

即在训练集中添加或移除至多 \(k\) 个样本不会改变预测结果。

2. 有效参数空间界 (Valid Parameter-Space Bounds)

关键思路是将数据集空间的优化问题转化为参数空间的认证问题。定义有效参数空间界 \(T^k \subseteq \Theta\):对所有与 \(D\) 距离不超过 \(k\) 的数据集 \(D'\),训练得到的参数都落在 \(T^k\) 中。

引理 4.4 指出:只要证明 \(\forall \theta \in T^k\)\(f^\theta(x)\) 的预测不变,就足以证明预测在距离 \(k\) 处稳定。

3. Abstract Gradient Training (AGT) 算法

AGT 算法(Algorithm 1)在标准 SGD 训练过程中同时维护参数区间界 \([\theta_L, \theta_U]\)

  • 初始化\([\theta_L, \theta_U] \leftarrow [\theta', \theta']\)(初始化参数的点区间)
  • 每个 batch
    • 计算标准梯度更新 \(\Delta\theta\)
    • 计算所有可能下降方向集合 \(\Delta\Theta\) 的上下界 \([\Delta\theta_L, \Delta\theta_U]\)
    • 用区间算术更新参数界:\(\theta_L \leftarrow \theta_L - \alpha \Delta\theta_U\)\(\theta_U \leftarrow \theta_U - \alpha \Delta\theta_L\)

定理 4.6 给出下降方向界的计算方法,核心使用 SEMax/SEMin 操作(取元素级 top/bottom-\(a\) 元素之和)并引入梯度裁剪 \(\text{Clip}_\gamma\) 来约束单样本梯度贡献:

\[\Delta\theta_L = \frac{1}{b}\left(\underset{b-k}{\text{SEMin}}\{\delta_L^{(i)}\}_{i=1}^b - k\gamma \mathbf{1}_d\right)\]
\[\Delta\theta_U = \frac{1}{b}\left(\underset{b-k}{\text{SEMax}}\{\delta_U^{(i)}\}_{i=1}^b + k\gamma \mathbf{1}_d\right)\]

其中 \(\delta_L^{(i)}, \delta_U^{(i)}\) 通过区间传播 (IBP) 计算得到的单样本梯度界。

4. 平滑敏感度上界

定理 5.1:若预测 \(f_x(D)\) 在距离 \(k'\) 处稳定,则 \(\beta\)-平滑敏感度满足:

\[\text{SS}^\beta(f_x, D) \leq e^{-\beta k'}\]

\(k' \gg 1\) 时,相比全局敏感度 \(\text{GS}(f_x) = 1\),平滑敏感度界可以指数级缩小。相应的隐私预测机制使用柯西噪声:

\[z \sim \text{Cauchy}\left(\frac{6 \exp(-\epsilon k'/6)}{\epsilon}\right)\]

5. 集成模型的隐私聚合

对于 \(T\) 个子模型的集成,定理 5.3 将单模型稳定距离聚合为集成稳定距离 \(K = \sum_{i \in S_n} k^{(i)} + n - 1\),其中 \(S_n\)\(n\) 个最小稳定距离的模型索引集,\(n = \lceil |n_1(x) - n_0(x)| / 2 \rceil\)

实验关键数据

实验设置

数据集 任务 模型
Blobs 合成二分类 逻辑回归
OctMNIST 视网膜OCT医学影像 CNN (微调最后全连接层)
IMDB 情感分类 神经网络 + GPT-2 嵌入

核心结果:Teacher 机制性能对比

隐私预算 \((ϵ,δ) = (10, 10^{-5})\)\(Q=100\) 次查询:

Teacher 机制 Blobs OctMNIST IMDB
单模型 + 全局敏感度 (GS) 82.8 12.7 54.4
单模型 + 平滑敏感度 (SS) 99.8 18.7 73.5
子采样聚合 + GS 99.5 14.1 73.0
子采样聚合 + SS 98.1 19.8 71.7
DP-SGD 1.0 81.2 70.5

关键发现

  • 单模型 + SS 在 Blobs 上从 82.8% 提升至 99.8%,在 IMDB 上从 54.4% 提升至 73.5%
  • 平滑敏感度界比全局敏感度紧 数个数量级
  • 对于少量查询场景 (\(Q < 100\)),隐私预测 + SS 可以超越 DP-SGD
  • 单模型 SS 在 IMDB 上将最大可用查询数提升约 一个数量级
  • 集成规模 \(T \leq 20\) 时 SS 与 GS 相当或更优;\(T\) 增大后每个子模型数据减少导致界变松

亮点与洞察

  1. 验证技术跨领域应用:首次将神经网络验证(对抗鲁棒性认证)中的区间传播技术应用于差分隐私分析,开辟了全新研究方向
  2. 实用性强:隐私预测允许动态调整隐私预算,适用于不同权限用户和敏感度场景,适合实际部署
  3. 理论基础坚实:从参数空间界到预测稳定性再到平滑敏感度,形成完整的认证链条,每一步都有严格的理论保证
  4. 计算可行:AGT 单次运行仅为标准训练的 2-4 倍,总计 20-40 倍即可获得大部分隐私收益

局限与展望

  1. 多分类性能有限:当前仅考虑二分类,多分类交叉熵的区间松弛特别松,推广到多分类后界可能显著变差
  2. 大 batch / 少 epoch 依赖:界传播在每次迭代中取最坏情况,要获得有意义的保证需使用更大 batch 或更少 epoch
  3. 集成规模瓶颈:集成规模增大后每个子模型数据减少,单模型稳定距离界变差
  4. OctMNIST 上效果有限:在数据不易分离或数据量小的场景下,SS 相比 GS 的提升不够显著
  5. 未与更紧的聚合机制结合:如 PATE 的 confident GNMax 等更先进的聚合策略可能带来进一步提升

相关工作与启发

  • DP-SGD (Abadi et al., 2016):隐私训练的标杆方法,本文的主要对比对象
  • PATE (Papernot et al., 2016):基于集成投票的隐私预测,本文在此基础上引入平滑敏感度
  • 平滑敏感度 (Nissim et al., 2007):本文的核心隐私工具,利用局部敏感度给出比全局敏感度更紧的噪声校准
  • 区间传播 (Gowal et al., 2018; Wicker et al., 2022):对抗鲁棒性验证中的界传播技术,被创造性地用于训练过程的可达集分析

评分

  • 新颖性: ⭐⭐⭐⭐⭐ — 首次将验证框架引入隐私预测,开辟新方向
  • 实验充分度: ⭐⭐⭐⭐ — 覆盖合成/医学/NLP 三类任务,但多分类和大规模实验缺失
  • 写作质量: ⭐⭐⭐⭐ — 理论推导清晰严谨,符号较多但组织合理
  • 价值: ⭐⭐⭐⭐ — 为隐私预测提供了切实可行的改进路径,有实际部署潜力

相关论文