CIARD: Cyclic Iterative Adversarial Robustness Distillation¶
会议: ICCV 2025
arXiv: 2509.12633
代码: https://github.com/eminentgu/CIARD
机构: NJUST, HKUST(GZ), INSAIT Sofia University, Peking University
领域: 模型压缩 / 对抗鲁棒蒸馏 / 知识蒸馏
关键词: adversarial robustness distillation, 知识蒸馏, 对抗训练, dual-teacher, contrastive push loss, 模型压缩
一句话总结¶
提出CIARD,通过对比推离损失(Contrastive Push Loss)解决双教师ARD框架中clean teacher和robust teacher的优化目标冲突,并设计迭代教师训练(ITT)策略持续更新robust teacher以防止性能退化,在CIFAR-10/100和Tiny-ImageNet上同时提升对抗鲁棒性+3.53%和干净准确率+5.87%。
背景与动机¶
领域现状¶
领域现状:边缘设备部署需要高效且鲁棒的模型。知识蒸馏(KD)可压缩教师到学生,但传统KD不关心鲁棒性。对抗训练(AT)增强鲁棒性但对小模型效果有限。对抗鲁棒蒸馏(ARD)将两者结合。
双教师ARD的两个关键挑战: 1. 优化目标冲突:clean teacher关注干净样本准确率,robust teacher关注对抗鲁棒性,学生难以调和 2. 对抗教师性能退化:训练中学生生成的对抗样本越来越强,持续侵蚀robust teacher性能
解决思路¶
本文目标:如何在双教师ARD框架中同时提升学生的对抗鲁棒性和干净准确率?
方法详解¶
整体框架¶
CIARD包含固定的clean teacher + 持续更新的robust teacher + push loss机制。
关键设计¶
-
对比推离损失(Contrastive Push Loss):
- 核心洞察:不是让学生同时靠近两个教师,而是让学生主动远离clean teacher的错误预测
- 当clean teacher在对抗样本上预测错误时,push loss让学生偏离错误方向
- 学生更有效地吸收robust teacher的专业知识
- 解耦了clean knowledge和robust knowledge的传递路径
-
迭代教师训练(ITT):
- 阶段1(预热):冻结两个教师参数,让学生建立基本知识
- 阶段2(迭代更新):周期性地用当前学生生成的对抗样本重训练robust teacher
- 持续对抗重训练确保robust teacher始终能有效防御当前最强对抗样本
- 类似GAN中判别器-生成器交替更新
-
训练流程:
- 用PGD等攻击方法对学生生成对抗样本
- 蒸馏损失 = KL(student, robust_teacher on adv) + push_loss + CE(student, GT)
- 周期性触发ITT更新robust teacher
实验关键数据¶
CIFAR-10上MobileNet-V2¶
| 框架类型 | 方法 | Clean(%) | Robust(%) |
|---|---|---|---|
| Single-Teacher | ARD | 83.43 | 57.03 |
| Dual-Teacher | MTARD | 89.26 | 57.84 |
| Dual-Teacher | B-MTARD | 89.09↓ | 58.79↑ |
| Dual-Teacher | CIARD | 89.51↑ | 59.10↑ |
- CIARD是唯一同时提升clean和robust accuracy的方法
跨数据集¶
- CIFAR-100:平均对抗防御率+3.53%
- Tiny-ImageNet:干净准确率+5.87%
- PGD-20/AutoAttack/C&W等多种攻击下均保持优势
消融¶
- Push loss去掉后clean accuracy -1.2%,robust accuracy -0.8%
- ITT去掉后robust accuracy在训练后期明显下降
- ITT更新频率需要平衡计算成本和收益
亮点与洞察¶
- 打破精度-鲁棒性权衡:同时提升两者对实际部署意义重大
- Push Loss的反直觉设计:推远清洁教师的错误预测——"负样本"思路简单有效
- 教师退化问题的识别和解决:首次明确指出并用ITT直接解决
- 理论分析+实证验证:清楚展示了教师退化现象
局限与展望¶
- ITT需要周期性重训练robust teacher,增加额外计算开销
- 仅在分类任务上验证
- Push loss权重系数需手动调节
- 未与最新对抗训练方法充分对比
相关工作与启发¶
- vs. ARD/RSLAD:单教师框架,鲁棒性提升有限且干净准确率低
- vs. MTARD/B-MTARD:双教师但未解决优化冲突和教师退化
- CIARD优势:push loss解耦 + ITT动态更新
相关工作与启发¶
- Push loss的"远离错误"策略可迁移到其他多教师蒸馏场景
- 教师模型动态退化问题在其他在线蒸馏/对抗学习中也可能存在
- 与curriculum learning有相似性:ITT本质上是让教师适应学生的"课程"难度
技术细节补充¶
- Clean teacher:标准训练的大模型(如WRN-34-10),仅在干净样本上训练
- Robust teacher:经PGD-AT训练的同架构大模型,具有对抗鲁棒性
- Student:轻量模型(MobileNet-V2/ResNet-18等)
- ITT更新周期:通常每10个epoch重训练robust teacher一次
- Push loss权重通过验证集上的鲁棒性指标自适应调整
- 对抗样本生成使用PGD-10(ε=8/255,步长2/255)
- CIARD的额外训练开销主要来自ITT的教师重训练,约增加15-20%总训练时间
- 但相比从头做adversarial training,ARD+CIARD仍然更高效
评分¶
- 新颖性: ⭐⭐⭐⭐ Push loss和ITT有效但每个单独看并非非常新颖
- 实验充分度: ⭐⭐⭐⭐ 多数据集+多攻击+消融,但学生架构多样性不足
- 写作质量: ⭐⭐⭐⭐ 问题定义清晰,Figure 1的框架对比图直观
- 价值: ⭐⭐⭐⭐ 同时提升精度和鲁棒性对实际部署有重要意义
相关论文¶
- [CVPR 2026] OPAD: Adversarial Concept Distillation for One-Step Diffusion Personalization
- [ICCV 2025] Knowledge Distillation with Refined Logits
- [CVPR 2026] Adversarial Concept Distillation for One-Step Diffusion Personalization
- [ICCV 2025] A Good Teacher Adapts Their Knowledge for Distillation
- [NeurIPS 2025] Heterogeneous Adversarial Play in Interactive Environments