Making Training-Free Diffusion Segmentors Scale with the Generative Power¶
会议: CVPR 2026
arXiv: 2603.06178
代码: 有
领域: 语义分割
关键词: 扩散模型、无训练分割、交叉注意力、自动聚合、逐像素重缩放、生成能力扩展
一句话总结¶
揭示现有无训练扩散分割方法无法随生成模型能力增强而提升的根本原因——交叉注意力图到语义相关性之间存在两个gap(聚合gap和分数不平衡gap),提出自动聚合(auto aggregation)和逐像素重缩放(per-pixel rescaling)两项技术组成GoCA框架,首次使更强的扩散模型(SDXL、PixArt-Sigma、Flux)在无训练语义分割中显著超越旧模型。
研究背景与动机¶
- 领域现状:文本到图像扩散模型(Stable Diffusion、Flux等)凭借强大的图像生成能力,被探索用于判别任务。一支研究方向关注"无训练扩散分割"——直接利用预训练扩散模型的交叉注意力图进行语义分割,无需额外训练。
- 核心前提与期望:无训练扩散分割方法基于扩散模型的生成能力,理论上更强的生成模型应产生更好的分割结果——即分割性能应随生成能力"scaling"。
- 反直觉现象:作者发现现有方法(DiffSegmentor、FTTM等)几乎都基于Stable Diffusion v1.5/v2.1验证,当切换到更强的SDXL、PixArt-Sigma、Flux时,分割性能反而没有提升甚至下降。这与"更强生成↔更好分割"的直觉严重矛盾。
- Gap I——聚合gap:扩散模型包含多头多层的交叉注意力,每个头/层产生独立的注意力图。先前方法通过手动设定权重来聚合,但更复杂的新架构(UNet→DiT→MMDiT)使手动调参变得不可行。
- Gap II——分数不平衡gap:即使有了全局注意力图,分数也不直接等于语义相关性。存在两种不平衡:(a) 前景token(如"cat")分数远高于背景token(如"grass"),直接比较不可靠;(b) 语义特殊token(如"
")分数尺度不一致,干扰逐token归一化。 - 核心idea:设计自动化的聚合权重方案(基于模型激活间的相关性)替代手动调参,并通过逐像素重缩放消除语义特殊token干扰,弥合两个gap,使无训练分割能力真正随生成能力scaling。
方法详解¶
整体框架:GoCA(Generative scaling of Cross-Attention)¶
框架由两个模块组成:(1) Auto Aggregation(自动聚合)解决Gap I——自动为不同头和层分配聚合权重;(2) Per-Pixel Rescaling(逐像素重缩放)解决Gap II——消除语义特殊token对注意力分数的干扰。两者结合后接标准的自注意力精炼和argmax分割。
自动聚合¶
头间聚合(Head-wise Aggregation)¶
- 核心思路:多头注意力可重写为向量求和形式:\(Output = \sum_n A_n V_n W_n^O\)。每个头的贡献可通过该头的输出向量与总输出的点积相似度衡量。
- 形式化:对层\(m\)中头\(n\),权重\(w_{mn} = (A_n V_n W_n^O)_m^\top \cdot Output_m\),归一化后得到逐像素的头权重\(w_{mn}'\)。
- 设计优势:逐像素权重而非全图单一权重,更精细地捕捉不同头在不同空间位置的贡献。
层间聚合(Layer-wise Aggregation)¶
- 核心思路:用稠密扩散特征计算伪自注意力图\(A_p\)作为全局注意力的代理,然后衡量每层实际自注意力图与该代理的相似度作为层权重。
- 关键假设:交叉注意力层的贡献模式与自注意力层相似——用自注意力相似度代理交叉注意力贡献。
- 形式化:\(w_m = (A_p')^\top (A_{self}^m)'\),归一化后用于加权聚合各层。最终全局注意力图\(A = \sum_m w_m' A_m\)。
逐像素重缩放¶
- 问题:全局注意力图中存在两种不平衡——(a) 前景/背景token分数量级差异大("cat"分数远高于"grass");(b) 语义特殊token(
)分数占主导且在不同像素处尺度不一致,导致逐token归一化失效。 - 解决方案:
- 排除非内容token:仅保留内容词token("cat"、"grass"等),排除语义特殊token和停用词token。
- 逐像素归一化到1:对每个像素\(i\)的内容词分数归一化:\(A'(i,q) = \frac{A(i,q)}{\sum_j A(i,q(j))}\),消除语义特殊token尺度干扰。
- 逐token再归一化:对每个token在所有像素上做min-max归一化到[0,1],使跨token比较可靠。
- 直觉:背景区域中语义特殊token分数更高(前景区域需更多内容token信息),去除其干扰后背景注意力图质量显著提升。
实验关键数据¶
主实验¶
五个标准语义分割基准的mIoU对比:
| 方法 | 模型 | VOC | Context | COCO-Obj | Cityscapes | ADE20K |
|---|---|---|---|---|---|---|
| DiffSegmentor | SD v1.5 | 60.1 | 27.5 | 37.9 | - | - |
| FTTM | SD v1.5 | 48.9 | 30.0 | 34.6 | 12.3 | 20.3 |
| Vanilla | SD v1.5 | 44.3 | 32.3 | 32.3 | 11.8 | 18.0 |
| Vanilla | Flux | 55.7 | 48.4 | 43.3 | 25.6 | 24.5 |
| GoCA | SD v1.5 | 60.7 | 40.4 | 39.2 | 16.1 | 22.0 |
| GoCA | SD XL | 65.6 | 42.3 | 44.3 | 21.2 | 23.2 |
| GoCA | PixArt-Σ | 63.6 | 43.2 | 39.8 | 22.6 | 23.8 |
| GoCA | Flux | 70.7 | 51.1 | 48.1 | 27.1 | 29.3 |
GoCA+Flux在Pascal VOC上达70.7%mIoU,比Vanilla SD v1.5高26.4个点,比最强SOTA DiffSegmentor高10.6个点。
消融实验¶
Pascal VOC 2012上各组件贡献(mIoU):
| 头聚合 | 层聚合 | 重缩放 | SD v1.5 | SD XL |
|---|---|---|---|---|
| Vanilla | Vanilla | Vanilla | 44.3 | 51.1 |
| Vanilla | Manual | Vanilla | 51.1 | - |
| Ours | Vanilla | Vanilla | 44.8 | 56.1 |
| Vanilla | Ours | Vanilla | 52.1 | 51.3 |
| Vanilla | Vanilla | Ours | 52.6 | 51.4 |
| Ours | Ours | Ours | 60.7 | 65.6 |
三个组件各自贡献约5-8个点,组合后产生更大提升(SD v1.5: +16.4, SD XL: +14.5)。
生成集成实验¶
S-CFG集成(COCO-30k, CFG=5.0):
| 方法 | FID↓ | CLIP↑ |
|---|---|---|
| CFG | 19.27 | 31.34 |
| S-CFG | 19.15 | 31.35 |
| GoCA+S-CFG | 18.82 | 31.42 |
GoCA替换S-CFG内部的分割器后一致提升生成质量,验证了无训练分割在生成技术集成中的实际价值。
关键发现¶
- 首次实现生成能力→分割能力的正向scaling:手动调参的Baseline用SD v1.5有时优于Vanilla用SD XL/PixArt-Sigma,GoCA消除了这一反直觉现象。
- 背景区域改善尤其显著:逐像素重缩放通过消除语义特殊token的对抗性影响,使"grass"、"wall"等背景类注意力图质量大幅提升。
- 架构泛化性强:GoCA在UNet-based(SD v1.5/XL)、DiT-based(PixArt-Sigma)、MMDiT-based(Flux)三种架构上均有效,而手动调参方法无法泛化。
- 自动层聚合与手动调参效果相当:Ours层聚合(52.1)与Manual层聚合(51.1)相当甚至更优,且无需人工介入。
- 生成集成价值明确:作为S-CFG的内部组件,GoCA带来一致的FID/CLIP改善。
亮点与洞察¶
- 问题定义新颖且重要:首次系统性地提出并验证"无训练扩散分割无法随生成能力scaling"这一问题,为该领域指出了明确的改进方向。
- 两个gap的分析精准:将问题分解为聚合gap和分数不平衡gap,每个gap都有清晰的形式化定义和针对性解决方案。
- 完全无训练:方法不引入任何可学习参数,仅利用模型激活的内在结构信息,保持了无训练范式的纯粹性。
- 对语义特殊token的洞察有启发性:发现
在背景区域分数更高(因前景已由内容token主导),这一观察对理解扩散模型内部机制有理论价值。 - 实用性强:GoCA可直接集成到S-CFG等生成技术中,改善文生图质量。
局限性 / 可改进方向¶
- 仅限语义分割:方法依赖交叉注意力图的语义相关性假设,尚未扩展到实例分割、全景分割、深度估计等其他判别任务。
- 依赖外部目标检测器:需要GPT-4o构造包含所有类别的prompt,这引入了对外部模块的依赖。
- prompt设计影响大:不同prompt策略对结果有显著影响,跨方法的公平对比受prompt设计差异干扰。
- 可探索方向:将GoCA推广到实例分割和深度估计;探索无需外部检测器的自动prompt生成;研究在视频扩散模型上的时序扩展。
相关工作与启发¶
- vs DiffSegmentor / FTTM:这些方法在SD v1.5上手动调权聚合注意力图,无法泛化到SD XL/Flux等新架构。GoCA通过自动聚合彻底解决了架构依赖问题,且在SD v1.5上也超越了DiffSegmentor(60.7 vs 60.1)。
- vs DiffCut:DiffCut使用稠密扩散特征做Normalized Cut分割,GoCA同样利用稠密特征但用于计算层间聚合权重的代理自注意力图——两者对稠密特征的使用方式互补。
- vs 有训练的扩散判别器(ODISE、VPD等):有训练方法通过微调适配分割任务,性能更高但需额外训练数据和计算。GoCA证明无训练方法在正确scaling后可大幅缩小差距。
评分¶
- 新颖性: ⭐⭐⭐⭐ 首次提出并系统解决"无训练扩散分割的scaling失效"问题
- 实验充分度: ⭐⭐⭐⭐ 四个扩散模型五个基准+消融+生成集成+定性分析
- 写作质量: ⭐⭐⭐⭐ 问题动机清晰,两个gap的分析递进有序,图示直观
- 价值: ⭐⭐⭐⭐ 为无训练扩散分割领域打开了scaling大门,实用性与理论价值兼具