跳转至

Ascent Fails to Forget

会议: NeurIPS 2025
arXiv: 2509.26427
代码: 无
领域: 机器遗忘
关键词: machine unlearning, gradient ascent, statistical dependence, forget-retain sets, descent-ascent

一句话总结

挑战了机器遗忘领域的常见信念,证明梯度上升(gradient ascent)基于的无约束优化方法在遗忘/保留集之间存在统计依赖时会系统性失败——遗忘集指标的降低不可避免地损害整体测试性能,logistic 回归示例甚至展示了遗忘过程使模型比原始模型更远离 oracle 的灾难性情况。

研究背景与动机

  1. 领域现状:机器遗忘(machine unlearning)旨在从训练好的模型中移除特定训练样本的影响,应用场景包括数据隐私(GDPR)、有毒数据去除、版权保护等。从头重训是金标准但成本过高。
  2. 现有痛点:广泛使用的 Descent-Ascent (DA) 方法——在遗忘集上做梯度上升(忘记)+ 在保留集上做梯度下降(保持)——(1) 没有理论保证;(2) 对超参数极度敏感;(3) 缺乏明确的停止准则。近期 benchmark 表明这些方法高度不可靠。
  3. 核心矛盾:DA 方法隐含假设遗忘集和保留集可以被独立操纵,但实际上两者之间存在统计依赖——操纵一个必然影响另一个。
  4. 本文要解决什么? 识别 DA 方法失败的根本原因——遗忘/保留集之间被忽视的统计依赖。
  5. 切入角度:从随机遗忘集(相关性依赖)和 logistic 回归(结构化依赖)两个层面,理论+实证地展示依赖关系如何导致 DA 失败。
  6. 核心 idea 一句话:遗忘集和保留集的统计依赖(即使只是简单相关性)足以让基于梯度上升的遗忘方法系统性失败,甚至产生比不遗忘更差的结果。

方法详解

整体框架

这是一篇分析性工作,不提出新方法,而是揭示 DA 遗忘方法的根本缺陷。

关键设计

  1. 随机遗忘集分析:
  2. 做什么:分析当遗忘集是从训练集中随机选取时 DA 的行为。
  3. 核心思路:oracle(在保留集上重训的模型)在遗忘集上的表现应与测试集相似。DA 通过降低遗忘集上的指标来"遗忘",但因为遗忘集和测试集统计相关,这也不可避免地降低了测试集性能。
  4. 设计动机:随机遗忘集意味着遗忘/保留集共享相同的数据分布——相关性是固有的。

  5. Logistic 回归的灾难性失败:

  6. 做什么:在凸优化(logistic 回归)这个最简单的设置下分析 DA。
  7. 核心思路:理论证明 DA 迭代会使模型逐步远离 oracle,甚至可能收敛到比原始模型更远离 oracle 的解——遗忘过程实际上是"反向"的。
  8. 设计动机:如果在凸问题上都失败,在非凸深度网络上更不可能成功。这提供了 DA 方法失败的最清晰的理论说明。

  9. Toy example: 局部最小值陷阱:

  10. 做什么:展示统计依赖如何将模型困在劣质局部最小值中。
  11. 核心思路:构建一个例子,其中 DA 导致模型落入一个局部最小值,该最小值无法通过后续微调逃脱。遗忘过程不仅产生差的模型,还让模型陷入了结构性困境。
  12. 设计动机:说明问题不仅是"方向错误",还可能是"不可恢复的"。

损失函数 / 训练策略

分析性工作。评估在 CIFAR-10/100、ResNet/ViT 等上的 DA 方法。

实验关键数据

理论结果

设置 DA 行为 说明
随机遗忘集 遗忘集指标下降 → 测试性能下降 因统计相关性不可避免
Logistic 回归 模型偏离 oracle → 比原始更差 凸设置下的灾难性失败
Toy example 陷入劣质局部最小值 微调无法恢复

实证验证(深度网络)

配置 Oracle 距离 测试性能
原始模型 基线 基线
DA 遗忘后 增加(更远离 oracle) 下降
重训(oracle) 0 保持

关键发现

  • DA 在随机遗忘集上必然损害测试性能:理论和实验一致证明。
  • 在 logistic 回归上,DA 可以使模型比原始更远离 oracle:遗忘过程是"积极有害"的。
  • 深度网络实验验证了理论预测:ResNet 和 ViT 在 CIFAR 上表现出相同的失败模式。
  • 统计依赖的存在几乎是普遍的:除非遗忘集与保留集完全独立(几乎不可能在真实数据中实现),DA 都有失败风险。

亮点与洞察

  • 从统计依赖角度解释 DA 失败是根本性洞察:之前文献归咎于超参数敏感性或非凸性,本文指出即使在凸+最优超参时也会失败——本质原因是数据依赖。
  • 凸设置下的反直觉结果(遗忘后比不遗忘更差)非常有力地证明了问题的严重性。
  • 对 DA 方法的使用者来说是重要警示:这些广泛使用的方法可能根本不可靠。

局限性 / 可改进方向

  • 主要是负面结论,未提出替代的遗忘方法。
  • 理论分析集中在简单模型(logistic 回归),深度网络的理论扩展留作未来工作。
  • 非随机遗忘集(如特定类别遗忘)的分析不够深入。

相关工作与启发

  • vs 凸模型遗忘方法(noisy descent): 凸模型有无需上升步的可证明遗忘算法,但 DA 方法在凸设置下仍然失败。
  • vs Rewind 方法 (Mu & Klabjan): 提供理论保证但计算昂贵。
  • vs 实际 DA 方法 (Gradient Ascent + Fine-tuning): 本文从根本上质疑了这类方法的有效性。

评分

  • 新颖性: ⭐⭐⭐⭐⭐ 从统计依赖角度解释 DA 失败是全新视角
  • 实验充分度: ⭐⭐⭐⭐ 理论+深度网络实证,但缺少替代方案
  • 写作质量: ⭐⭐⭐⭐⭐ 论证逻辑清晰严密
  • 价值: ⭐⭐⭐⭐⭐ 对遗忘领域有深远影响的负面结论