跳转至

Semantic Class Distribution Learning for Debiasing Semi-Supervised Medical Image Segmentation

会议: CVPR 2026
arXiv: 2603.05202
代码: github.com/Zyh55555/SCDL
领域: 医学图像分割 / 半监督学习
关键词: 半监督分割, 类别不平衡, 分布学习, 代理对齐, 语义锚

一句话总结

提出即插即用的SCDL框架,通过学习类条件代理分布(双向对齐CDBA)+语义锚约束(SAC)来消除半监督医学图像分割中的长尾偏差,在AMOS 5%标签下DSC提升+11.62%。

背景与动机

医学图像分割面临标注昂贵和严重类别不平衡的双重挑战。大器官在梯度更新中占主导,半监督方法的伪标签和一致性正则化进一步放大这种偏差。现有方法在损失/输出层面操作,未约束类条件特征分布本身。

核心问题

如何同时缓解监督偏差(梯度被头部类主导)和表示偏差(少数类特征漂移到多数类区域)?

方法详解

整体框架

即插即用模块,可集成到GenericSSL/DHC/GA-CPS等现有分割网络。学习每类高斯代理分布\(\mathcal{N}(\mu_c, \text{diag}(\sigma_c^2))\),注入代理引导先验到解码器各阶段。

关键设计

  1. 类分布双向对齐(CDBA): E2P损失拉嵌入向代理均值;P2E损失让代理区分正/负嵌入。软分配via余弦相似度。双向设计避免多数类梯度主导。

  2. 代理采样+特征增强: 从代理分布采样\(S\)个样本,计算分布权重先验/中心相似度先验/token采样先验,拼接投影后加法注入解码器各阶段。

  3. 语义锚约束(SAC): 从标注类别mask图像经共享编码器构建语义锚,对齐代理均值到锚:\(\mathcal{L}_{SAC} = \frac{1}{C}\sum_{c}[1 - \cos(\mu_c, \text{anchor}_c)]\)。提供有监督引导稳定代理学习。

损失函数 / 训练策略

CDBA对齐损失 + SAC损失 + base分割损失。SCDL weight decay 1e-4,batch 4。

实验关键数据

设置 SCDL变体 基线 增益
Synapse 20% DSC SCDL-DHC: 49.17% DHC: 46.16% +3.01%
AMOS 5% DSC SCDL-GenericSSL: 47.35% GenericSSL: 35.73% +11.62%
AMOS 5% ASD SCDL-DHC: 17.47 DHC: 40.65 -23.18

AMOS上肾上腺从0% Dice恢复到33.9%/30.3%(左/右)。

消融实验要点

  • CDBA单独: DSC 66.29%→66.77%(+0.48%)但ASD升+0.80——分布对齐需配合边界约束
  • +SAC: best 67.50% DSC和3.32 ASD——语义锚稳定代理
  • 肾上腺等极稀疏类从0%→30%+——尾部类恢复效果显著

亮点

  • 即插即用,兼容多种半监督基线
  • 尾部类恢复效果惊人(0%→30%+)
  • 双向对齐避免多数类梯度主导

局限性 / 可改进方向

  • 各类改善不均匀——部分类无增益
  • 对角高斯建模可能不够复杂特征流形
  • 仅3D CT器官分割验证

与相关工作的对比

  • GA-CPS(ECCV24): 梯度感知CPS, 66.29% DSC → 本文67.50%
  • DHC(MICCAI23): 双去偏共训练, 46.16% DSC → 本文49.17%

评分

  • 新颖性: ⭐⭐⭐⭐ 类条件代理分布学习+双向对齐+语义锚的组合有创意
  • 实验充分度: ⭐⭐⭐⭐ 多基线插件验证+尾部类分析
  • 写作质量: ⭐⭐⭐⭐ 方法数学化清晰
  • 价值: ⭐⭐⭐⭐⭐ 对医学半监督分割的长尾问题有重要贡献