跳转至

SCOPE: Semantic Coreset with Orthogonal Projection Embeddings for Federated Learning

会议: CVPR 2026
arXiv: 2603.12976
代码: 无
领域: 联邦学习 / 数据选择
关键词: 联邦学习, coreset选择, VLM零样本, 长尾分布, 隐私保护

一句话总结

提出SCOPE——一个无需训练的联邦coreset选择框架,利用冻结VLM(MobileCLIP)的正交投影嵌入计算三个标量语义指标(表示性/多样性/边界接近度),实现全局感知的两阶段剪枝,在CIFAR-10/Tiny-ImageNet/UHCS上通信带宽降128-512倍的同时超越全数据训练。

背景与动机

科学联邦数据集存在极端类别不平衡和非IID分布,但现有coreset方法依赖局部启发式(不了解全局数据分布),导致剪枝时丢弃全局稀有样本。基于代理数据集的方法(GCFL)违反隐私,基于梯度/损失的方法(EL2N)在科学数据中会放大传感器噪声。

核心问题

如何在联邦设置下实现:(1)无需训练的coreset选择,(2)全局感知跨客户端类分布但不传输重量级嵌入,(3)对极端非IID和长尾不平衡鲁棒?

方法详解

整体框架

客户端用冻结MobileCLIP-S2提取每样本三个标量指标 → 只发送类级标量统计(均值/方差)到服务器 → 服务器聚合为Global Profile → 客户端据此执行两阶段本地剪枝 → 在剪枝后数据上做标准FedAvg训练。

关键设计

  1. 三指标正交投影打分: 表示性分数\(RS = v_{img} \cdot t_c\)(与GT文本原型余弦相似度),多样性分数\(DS = \|v_{res}\|_2\)(正交残差向量的模——量化超越类定义的新视觉特征),边界接近度\(S_{neg} = \max_{j \neq c} v_{img} \cdot t_j\)(与最近错误类的相似度)。

  2. 两阶段剪枝: Stage 1共识滤波:异常分数\(AS = \hat{Z}_{S_{neg}} - \hat{Z}_{RS}\)(高边界接近+低表示性=异常),剪除top-\(p_l\)异常。Stage 2动态平衡:冗余分数\(R = \hat{Z}_{RS} - \hat{Z}_{S_{neg}} - \hat{Z}_{DS}\)(高表示性+低边界+低多样性=冗余),仅对全局过度表示的类(Targeting Metric \(T_c > \beta\))剪除。

  3. 全局稀缺性感知+隐私保护: 全局稀缺性权重\(W_c \propto (1/(F_c+\epsilon))^\gamma\)保护长尾类。只传输标量统计(O(C))而非嵌入(O(C×D)),带宽降128-512倍。

损失函数 / 训练策略

Coreset选择零样本无训练。后续用标准FedAvg+SGD+cosine decay在剪枝数据上训练。

实验关键数据

数据集 IR \(p_f\) SCOPE 最强基线 全数据
CIFAR-10 2 0.1 56.48% FedCore 55.96% 55.63%
CIFAR-10 10 0.1 45.65% FedCore 44.98% 45.07%
Tiny-ImageNet 5 0.9 55.38% Forgetting 54.04% 54.41%
UHCS 10 0.1 95.36% FedCS 93.17% 93.99%
UHCS 10 0.9 92.62% EL2N 84.70% 93.99%

通信效率: 128-512×带宽降低。ViT-B-16 7.72×加速。

消融实验要点

  • 去掉Global Profiling: \(p_f\)=0.9时准确率暴跌至19.04%(vs 42.80%)——全局信息是关键
  • 去掉Consensus Filter: -2.47%,噪声异常未被过滤
  • 去掉Balancing Filter: -3.04%,偏向头部类
  • MobileCLIP-S2(99M)vs ViT-H-14(986M): UHCS上94.54% vs 92.35%——轻量模型反而更好

亮点

  • 完全无需训练的coreset选择——零样本VLM几何打分
  • 极端通信高效——只传标量统计,128-512×带宽降低
  • 在严重异构下(IR=10, α=0.1)一致超越或匹配全数据训练

局限性 / 可改进方向

  • 依赖VLM潜在空间质量——特殊科学数据域可能不适用
  • 假设类标签集合已知——不适用开放集或持续出现新类场景
  • 一次性选择,不支持流式/在线自适应

与相关工作的对比

  • FedCS(CVPR25): 需本地warmup+传全特征中心,长尾错误率40.37% vs SCOPE 35.60%
  • FedCore(ICC24): 需warmup训练,高剪枝率下退化严重
  • EL2N/GraND: 中心化方法,联邦非IID下灾难性退化

启发与关联

  • 用冻结VLM做训练无关的数据质量评估是有前景的范式
  • 正交投影分解(表示性+多样性)的几何思路可用于其他数据选择场景

评分

  • 新颖性: ⭐⭐⭐⭐ 正交投影三指标设计新颖,零样本VLM用于联邦数据选择的思路有创意
  • 实验充分度: ⭐⭐⭐⭐⭐ 多数据集、多不平衡率、多剪枝率、多backbone、长期稳定性、详细消融
  • 写作质量: ⭐⭐⭐⭐ 方法公式化清晰
  • 价值: ⭐⭐⭐⭐ 对数据高效联邦学习有实际价值