SCOPE: Semantic Coreset with Orthogonal Projection Embeddings for Federated Learning¶
会议: CVPR 2026
arXiv: 2603.12976
代码: 无
领域: 联邦学习 / 数据选择
关键词: 联邦学习, coreset选择, VLM零样本, 长尾分布, 隐私保护
一句话总结¶
提出SCOPE——一个无需训练的联邦coreset选择框架,利用冻结VLM(MobileCLIP)的正交投影嵌入计算三个标量语义指标(表示性/多样性/边界接近度),实现全局感知的两阶段剪枝,在CIFAR-10/Tiny-ImageNet/UHCS上通信带宽降128-512倍的同时超越全数据训练。
背景与动机¶
科学联邦数据集存在极端类别不平衡和非IID分布,但现有coreset方法依赖局部启发式(不了解全局数据分布),导致剪枝时丢弃全局稀有样本。基于代理数据集的方法(GCFL)违反隐私,基于梯度/损失的方法(EL2N)在科学数据中会放大传感器噪声。
核心问题¶
如何在联邦设置下实现:(1)无需训练的coreset选择,(2)全局感知跨客户端类分布但不传输重量级嵌入,(3)对极端非IID和长尾不平衡鲁棒?
方法详解¶
整体框架¶
客户端用冻结MobileCLIP-S2提取每样本三个标量指标 → 只发送类级标量统计(均值/方差)到服务器 → 服务器聚合为Global Profile → 客户端据此执行两阶段本地剪枝 → 在剪枝后数据上做标准FedAvg训练。
关键设计¶
-
三指标正交投影打分: 表示性分数\(RS = v_{img} \cdot t_c\)(与GT文本原型余弦相似度),多样性分数\(DS = \|v_{res}\|_2\)(正交残差向量的模——量化超越类定义的新视觉特征),边界接近度\(S_{neg} = \max_{j \neq c} v_{img} \cdot t_j\)(与最近错误类的相似度)。
-
两阶段剪枝: Stage 1共识滤波:异常分数\(AS = \hat{Z}_{S_{neg}} - \hat{Z}_{RS}\)(高边界接近+低表示性=异常),剪除top-\(p_l\)异常。Stage 2动态平衡:冗余分数\(R = \hat{Z}_{RS} - \hat{Z}_{S_{neg}} - \hat{Z}_{DS}\)(高表示性+低边界+低多样性=冗余),仅对全局过度表示的类(Targeting Metric \(T_c > \beta\))剪除。
-
全局稀缺性感知+隐私保护: 全局稀缺性权重\(W_c \propto (1/(F_c+\epsilon))^\gamma\)保护长尾类。只传输标量统计(O(C))而非嵌入(O(C×D)),带宽降128-512倍。
损失函数 / 训练策略¶
Coreset选择零样本无训练。后续用标准FedAvg+SGD+cosine decay在剪枝数据上训练。
实验关键数据¶
| 数据集 | IR | \(p_f\) | SCOPE | 最强基线 | 全数据 |
|---|---|---|---|---|---|
| CIFAR-10 | 2 | 0.1 | 56.48% | FedCore 55.96% | 55.63% |
| CIFAR-10 | 10 | 0.1 | 45.65% | FedCore 44.98% | 45.07% |
| Tiny-ImageNet | 5 | 0.9 | 55.38% | Forgetting 54.04% | 54.41% |
| UHCS | 10 | 0.1 | 95.36% | FedCS 93.17% | 93.99% |
| UHCS | 10 | 0.9 | 92.62% | EL2N 84.70% | 93.99% |
通信效率: 128-512×带宽降低。ViT-B-16 7.72×加速。
消融实验要点¶
- 去掉Global Profiling: \(p_f\)=0.9时准确率暴跌至19.04%(vs 42.80%)——全局信息是关键
- 去掉Consensus Filter: -2.47%,噪声异常未被过滤
- 去掉Balancing Filter: -3.04%,偏向头部类
- MobileCLIP-S2(99M)vs ViT-H-14(986M): UHCS上94.54% vs 92.35%——轻量模型反而更好
亮点¶
- 完全无需训练的coreset选择——零样本VLM几何打分
- 极端通信高效——只传标量统计,128-512×带宽降低
- 在严重异构下(IR=10, α=0.1)一致超越或匹配全数据训练
局限性 / 可改进方向¶
- 依赖VLM潜在空间质量——特殊科学数据域可能不适用
- 假设类标签集合已知——不适用开放集或持续出现新类场景
- 一次性选择,不支持流式/在线自适应
与相关工作的对比¶
- FedCS(CVPR25): 需本地warmup+传全特征中心,长尾错误率40.37% vs SCOPE 35.60%
- FedCore(ICC24): 需warmup训练,高剪枝率下退化严重
- EL2N/GraND: 中心化方法,联邦非IID下灾难性退化
启发与关联¶
- 用冻结VLM做训练无关的数据质量评估是有前景的范式
- 正交投影分解(表示性+多样性)的几何思路可用于其他数据选择场景
评分¶
- 新颖性: ⭐⭐⭐⭐ 正交投影三指标设计新颖,零样本VLM用于联邦数据选择的思路有创意
- 实验充分度: ⭐⭐⭐⭐⭐ 多数据集、多不平衡率、多剪枝率、多backbone、长期稳定性、详细消融
- 写作质量: ⭐⭐⭐⭐ 方法公式化清晰
- 价值: ⭐⭐⭐⭐ 对数据高效联邦学习有实际价值