Mitigating Privacy-Utility Trade-off in Decentralized Federated Learning via f-Differential Privacy¶
会议: NeurIPS 2025
arXiv: 2510.19934
代码: https://github.com/lx10077/PN-f-DP (有)
领域: AI Safety / Federated Learning
关键词: 去中心化联邦学习, f-差分隐私, 隐私放大, 随机游走, 关联噪声
一句话总结¶
提出基于 f-DP 框架的两种去中心化联邦学习隐私记账方法——PN-f-DP 和 Sec-f-LDP,通过更精细的假设检验隐私度量,一致性地获得比 Rényi DP 更紧的隐私界,从而在相同隐私保证下减少噪声注入、提升模型效用。
研究背景与动机¶
去中心化联邦学习(Decentralized FL)允许用户在无中心服务器的情况下协作训练模型,但模型更新仍可能泄露敏感信息。差分隐私(DP)是标准的形式化隐私保护框架,核心挑战在于隐私记账(privacy accounting)——精确量化多轮训练中的累计隐私损失。更精确的记账意味着可以在相同隐私保证下注入更少噪声,提升模型实用性。
现有的去中心化 FL 隐私分析主要依赖 Rényi DP (RDP),但 RDP 在迭代算法中的界往往较松。同时,去中心化场景中存在多种隐私放大机制(通信稀疏性、本地迭代、随机游走),如何统一地捕捉这些放大效应是关键难题。
本文的核心 idea 是:用 f-DP 框架(基于假设检验的隐私度量)替代 RDP 进行去中心化 FL 的隐私记账。f-DP 的优势在于其无损组合(lossless composition)特性和对混合机制的联合凹性(joint concavity),能更紧地捕捉去中心化通信、本地迭代和随机游走带来的隐私放大。
方法详解¶
整体框架¶
针对两种代表性的去中心化 DP-SGD 算法,分别提出对应的 f-DP 隐私分析: - Algorithm 1(随机游走通信的去中心化 DP-SGD):用 PN-f-DP(Pairwise Network f-DP)分析 - Algorithm 2(关联噪声的 DecoR):用 Sec-f-LDP(Secret-based f-Local DP)分析
关键设计¶
-
PN-f-DP(Pairwise Network f-DP, Definition 3.1/3.2):
- 量化用户对之间的隐私泄露,核心思想是:在去中心化网络中,攻击者 j 只能观察到特定时间传递到 j 的模型状态,而非所有中间状态
- 用户 i 到用户 j 的隐私泄露由 trade-off 函数 f_ij 下界刻画
- 支持用户级(整个数据集差异)和记录级(单条数据差异)两种粒度
-
随机游走的混合分布分析(Lemma 4.1):
- 模型通过随机游走从用户 i 传到用户 j,j 首次观察到模型的时间 t 服从 hitting time 分布
- 利用 trade-off 函数的联合凹性(joint concavity),将整体隐私损失下界为各时间步trade-off的凸组合
- 关键改进:用 hitting time 分布 w_ij^t = P[τ_ij=t] 作为权重,而非前人使用的矩阵幂 (W^t)_ij,更精确地建模通信时序
-
迭代隐私放大(Lemma 4.2/4.3):
- 强凸损失:利用 shifted interpolated process 方法,得到 GDP 界 f_ij^t ≥ G_{μ_t},其中 μ_t 随迭代时间 t 和收缩因子 c 衰减
- 非凸损失:使用标准组合规则,得到更保守但仍有效的界
- K≥1 的本地更新扩展了只分析 K=1 的前人工作
-
最终组合(Theorem 4.1):利用马尔可夫链的 Hoeffding 型集中不等式,以高概率约束用户 j 被访问的次数上限 ⌈(1+ζ)T/n⌉,然后通过 tensor product 组合各次访问的 trade-off 函数。
-
Sec-f-LDP(Theorem 4.2):针对 DecoR 算法,用户对共享秘密并注入关联噪声。在 honest-but-curious 威胁模型下,通过分析关联噪声和独立噪声的组合效应,得到 SecGDP 保证,其中 μ 依赖于图的 Laplacian 矩阵第二大特征值。
损失函数 / 训练策略¶
DP-SGD 训练过程中,每步对梯度进行裁剪(灵敏度 Δ)后加高斯噪声。本文不改变训练过程,而是通过更紧的隐私记账来减少所需噪声:在达到相同 (ε,δ)-DP 保证时,f-DP 方法计算出更小的噪声方差 σ²。
实验关键数据¶
主实验¶
| 数据集 / 图结构 | ε | RDP 准确率 | RDP (HT) 准确率 | PN-f-DP (本文) | 提升 |
|---|---|---|---|---|---|
| MNIST / Complete | 10 | 0.867 | 0.884 | 0.891 | +2.4% |
| MNIST / Complete | 5 | 0.813 | 0.852 | 0.869 | +5.6% |
| MNIST / Expander | 10 | 0.797 | 0.823 | 0.854 | +5.7% |
| MNIST / Expander | 5 | 0.647 | 0.706 | 0.792 | +14.5% |
消融实验¶
| 隐私记账方法 | Hypercube 图 ε (δ=10⁻⁵) | 说明 |
|---|---|---|
| PN-RDP | 较大 | 标准 Rényi DP 基线 |
| PN-RDP (Exact HT) | 中等 | 使用精确 hitting time 的改进 RDP |
| PN-f-DP (本文) | 最小 | f-DP 一致性地给出最紧界 |
关键发现¶
- 在几乎所有节点对上,PN-f-DP 给出的 ε 值都小于 PN-RDP,且差距在图连接稀疏时更大(如 Expander 图上提升最为显著)
- 隐私预算 ε 越小(隐私要求越严格),f-DP 的优势越明显,因为此时噪声减少带来的效用改善更加珍贵
- 关联噪声场景下,Sec-f-LDP 在 Ring 和 2D Torus 拓扑上都优于 SecLDP 和 Local DP
亮点与洞察¶
- 统一框架:f-DP 的假设检验视角为去中心化 FL 中多种隐私放大机制提供了统一且更紧的分析工具
- Hitting time 建模:用随机游走的首达时间分布替代矩阵幂作为混合权重,即使转回 RDP 也能得到改进的界
- 无损组合:f-DP 通过 tensor product 组合避免了 RDP 组合中的松弛损失
局限与展望¶
- 最终界缺乏闭式解,需要数值计算(使用 numerical composition 方法)
- 分析假设转移矩阵 W 不可约、非周期、对称,可能不适用于所有实际网络拓扑
- 目前专注于凸/非凸优化的理论分析,对现代大模型(如 LLM)的实际验证有待拓展
- 信息论下界(是否已达到最紧可能的界)仍是开放问题
相关工作与启发¶
- vs PN-RDP (Cyffers et al.): 同样使用 pairwise network 框架,但本文用 f-DP 替代 RDP,获得更紧的组合界和对隐私放大的更精细捕捉
- vs SecLDP (Allouah et al.): 扩展到 f-DP 框架后,在同等 collusion 模型下给出更紧的 GDP 界
- vs Federated f-DP (Zheng et al.): 本文的 PN-f-DP 额外捕捉了去中心化、随机游走和迭代通信带来的隐私放大
评分¶
- 新颖性: ⭐⭐⭐⭐ 将 f-DP 框架系统性地引入去中心化 FL,提出两种新隐私概念
- 实验充分度: ⭐⭐⭐⭐ 合成图和真实分类任务都有验证,但规模偏小
- 写作质量: ⭐⭐⭐⭐ 理论推导严谨但符号密集,需要较强的 DP 背景
- 价值: ⭐⭐⭐⭐ 为去中心化 FL 隐私分析提供了更优工具,实际影响取决于框架的可扩展性
相关论文¶
- [NeurIPS 2025] InvisibleInk: High-Utility and Low-Cost Text Generation with Differential Privacy
- [ICML 2025] Clients Collaborate: Flexible Differentially Private Federated Learning with Guaranteed Improvement of Utility-Privacy Trade-off
- [NeurIPS 2025] Sequentially Auditing Differential Privacy
- [NeurIPS 2025] Multi-Class Support Vector Machine with Differential Privacy
- [NeurIPS 2025] Unifying Re-Identification, Attribute Inference, and Data Reconstruction Risks in Differential Privacy