跳转至

TaxaDiffusion: Progressively Trained Diffusion Model for Fine-Grained Species Generation

会议: ICCV 2025
arXiv: 2506.01923
代码: 项目主页
领域: 细粒度图像生成/扩散模型
关键词: 分类学引导, 渐进式训练, 细粒度物种生成, 知识迁移, 少样本生成

一句话总结

TaxaDiffusion 利用生物分类学的层级结构(Kingdom→Phylum→Class→Order→Family→Genus→Species)渐进式训练扩散模型,从高层共有特征逐步细化到物种级别的细微差异,实现了高精度的细粒度动物图像生成,在 FishNet 数据集上 FID 降至 31.87(vs LoRA 的 43.91),BioCLIP 对齐分数提升 37%,且对样本极少(甚至仅 1 张)的稀有物种同样有效。

研究背景与动机

核心问题

扩散模型在生成通用概念图像方面取得了巨大成功,但在生成细粒度动物物种图像时仍面临重大挑战:给定物种名称,现有模型往往无法生成形态学上准确或精确反映物种身份的图像。

两大领域特性导致的困难

高动态性:动物具有极高的自由度,展现各种姿态和运动,导致类内差异巨大

数据稀缺:地球上有数百万物种,收集每个物种的充足样本以捕获类内变异和类间区分几乎不可能

关键洞察

尽管物种数量庞大,它们并非独立类别。经过五亿年进化,从少数物种分支为数百万种。在分类学树上距离更近的物种,共享更多视觉特征。同一 Genus 或 Family 内的物种,区别往往仅在于形状、颜色或花纹的细微变化

直觉类比

数百万物种不是一次性出现的,而是通过渐进式分支进化而来。本文目标是教扩散模型模仿这一进化过程——不是一次学会所有物种,而是逐步学习。

现有方法的不足

  • 零样本生成(Vanilla SD):缺乏细粒度物种知识,生成图像形态学不准确
  • LoRA 微调:一次性提供所有分类层级信息,模型难以有效学习层级关系,尤其稀有物种表现差
  • 完全微调:效果有限提升,且计算代价大
  • FineDiffusion:仅使用两级分类(superclass/subclass),层级利用不充分

方法详解

整体框架

TaxaDiffusion 包含三个核心组件:

  1. 高效域适应:在预训练 SD 上用 LoRA 适配生物数据域
  2. 分类学引导的渐进式训练:逐级训练条件编码模块(Kingdom→Species)
  3. 分类学引导的推理:用高层分类信号替代无条件估计进行 CFG

关键设计 1:渐进式训练

域适应阶段:在 SD v1.5 上添加 LoRA 模块(self-attention 和 cross-attention 的 Q/K/V/O 投影),首先在 Kingdom 级别训练 LoRA 进行域适应:

\[\mathbf{Q} = \mathcal{W}^Q \mathbf{z} + \alpha \cdot \mathbf{A}\mathbf{B}^T \mathbf{z}\]

条件编码模块:使用冻结的 CLIP text encoder 将分类名称转换为 latent 表示,再通过包含两个 Transformer 层的可训练模块进行精炼。每个分类层级对应一个独立的条件编码模块。

渐进式训练过程

  1. 第 1 阶段(Kingdom/Phylum/Class):训练对应的条件模块,学习最粗粒度的共有视觉特征(如动物的基本形态)
  2. 第 2 阶段(Order):冻结前一阶段的模块参数,训练 Order 级别模块,学习如"Carnivora(食肉目)"这一级别的共有体型和姿态特征
  3. 第 3 阶段(Family):继续向下,学习如"蝴蝶鱼科"的特征(如眼部黑条纹、背鳍形态)
  4. 第 4 阶段(Genus):学习属级别的差异(如竖条纹 vs 尾部黑斑)
  5. 第 5 阶段(Species):学习物种级别的细微区分

关键机制: - 每个层级训练 250K 次迭代 - 训练完一个层级后冻结其参数再进入下一层级 - 跨层级的条件嵌入通过相加聚合后输入扩散模型 - 仅当前层级的模块保持可训练,确保先前知识稳定

关键设计 2:分类学引导的推理(TaxaGuide)

标准 CFG 使用无条件估计进行引导:

\[\tilde{\epsilon}_\theta(\mathbf{x}_t, t, \mathbf{c}) = (1+w) \times \epsilon_\theta(\mathbf{x}_t, t, \mathbf{c}) - w \times \epsilon_\theta(\mathbf{x}_t, t)\]

TaxaDiffusion 将无条件估计替换为 Kingdom 级别的条件估计

\[\tilde{\epsilon}_\theta(\mathbf{x}_t, t, \mathbf{c}^{(i)}) = (1+w) \times \epsilon_\theta(\mathbf{x}_t, t, \mathbf{c}^{(i)}) - w \times \epsilon_\theta(\mathbf{x}_t, t, \mathbf{c}^{(0)})\]

直觉:用高层分类条件作为「弱版本」的自身引导(类似 Autoguidance 的思路),使指导方向聚焦于从共有特征到物种特有特征的差异,而非从零开始生成。

损失函数

标准扩散训练损失:

\[\mathcal{L}(\theta) = \mathbb{E}_{\mathbf{x}_0, \epsilon, t}\left[\|\epsilon - \epsilon_\theta(\mathbf{x}_t, t, \mathbf{c})\|^2\right]\]

每个层级独立训练时使用对应层级的条件 \(\mathbf{c}^{(i)}\)

实验

FishNet 主实验

17,357 种鱼类物种,5 个分类层级,挑战在于物种间差异细微但生物学上有意义:

方法 FID ↓ (Species) LPIPS ↓ BioCLIP ↑ (Species)
SD (零样本) 61.93 0.7737 3.35
SD + LoRA 43.91 0.7574 7.61
SD + Full 39.41 0.7574 8.31
TaxaDiffusion 31.87 0.7319 10.43

关键发现: - TaxaDiffusion 在所有指标和所有层级上均大幅领先 - 相比 LoRA 微调,FID 降低约 27%(43.91→31.87),BioCLIP 提升 37%(7.61→10.43) - 即使与 Full 微调相比也有明显优势,说明渐进式训练路径优于一次性全层级训练

iNaturalist 实验

涵盖植物和动物的 10,000 种物种:

方法 FID ↓ (Species) LPIPS ↓ BioCLIP ↑
SD (零样本) 73.13 0.8134 6.1
TaxaDiffusion 46.39 0.7475 10.41

FID 降低约 37%(73.13→46.39),验证了方法在混合物种数据集上的泛化能力。

SOTA 对比

与 FineDiffusion(使用 DiT-XL/2 架构,仅两级分类)对比:

方法 FID ↓ LPIPS ↓ BioCLIP ↑
FineDiffusion (DiT-XL/2) 74.80 0.7613 6.46
TaxaDiffusion (U-Net) 43.71 0.7170 8.15

即使使用较弱的 U-Net 架构,TaxaDiffusion 也大幅超越基于 DiT 的 FineDiffusion(FID 降低 42%)。

消融实验

训练策略对比:

策略 FID ↓ LPIPS ↓ BioCLIP ↑
All(同时训练所有层级) 32.43 0.7487 9.32
Random(随机选择层级) 29.53 0.7429 9.85
Progressive(渐进式) 31.87 0.7319 10.43

推理引导方式对比:

引导方式 FID ↓ LPIPS ↓ BioCLIP ↑
Vanilla CFG 47.61 0.7313 9.45
TaxaGuide 32.42 0.7092 11.53

关键发现: - Random 策略的 FID 略低(29.53),但 BioCLIP 对齐度不如渐进式(9.85 vs 10.43),说明渐进式训练使生成图像更忠实于物种身份 - TaxaGuide 相比 vanilla CFG 大幅提升 FID(47.61→32.42)和 BioCLIP(9.45→11.53)

特征发现(Trait Discovery)

TaxaDiffusion 在不同分类层级生成的图像中,可观察到生物学性状的渐进涌现: - Family: Chaetodontidae(蝴蝶鱼科):眼部黑色条纹、延长的背鳍 - Genus: Amphichaetodon:黑色竖条纹 - Genus: Chaetodon:尾鳍附近大黑斑

从 Family 到 Genus 保留共有特征(眼部条纹)同时获取属特有特征(条纹模式),展示了渐进训练的层级化学习效果。

亮点与洞察

  1. 领域知识驱动的算法设计:将生物分类学这一数十年积累的科学知识体系融入扩散模型训练,是跨学科方法论的范例
  2. 渐进式训练模拟进化:从粗到细的训练步骤隐喻了物种进化的分支过程,使模型先学共性再学差异
  3. 知识迁移赋能少样本:对仅有 1-5 个样本的稀有物种,模型只需在最后阶段学习其与同属物种的细微差异,前面阶段的知识全部来自亲缘物种
  4. TaxaGuide 的巧妙设计:用高层分类条件替代无条件估计,使引导方向聚焦于从共有到特有的差异
  5. 特征发现应用:生成的图像可以帮助生物学家发现和可视化不同分类层级的进化性状

局限性

  1. 当前使用 U-Net(SD v1.5),未利用更现代的 Transformer 架构(如 DiT)可能限制了表现上限
  2. 每个分类层级训练 250K 迭代,七个层级总训练时间较长
  3. 仅在动物/植物数据集上验证,对其他细粒度领域(如矿物、建筑风格)的泛化性未知
  4. 分类学不完全等同进化关系(如遗传相似性),视觉相似性与分类距离并非总是线性相关

相关工作

  • 细粒度生成:sketch-based control、attribute manipulation、personalized generation → 本文(分类学条件化渐进训练)
  • 渐进式层级生成:VQ-VAE 的多层自编码器、HI-Diff(层级扩散去模糊)→ 本文(分类学层级渐进扩散)
  • 扩散模型微调:LoRA、DreamBooth、Textual Inversion → 本文(LoRA 域适应 + 渐进条件模块)

评分

  • 创新性: ⭐⭐⭐⭐⭐ — 将分类学层级引入扩散训练范式,生物学启发式设计独到
  • 技术深度: ⭐⭐⭐⭐ — 设计简洁但有效,TaxaGuide 推理引导有理论基础
  • 实验充分度: ⭐⭐⭐⭐⭐ — 三个数据集 + SOTA 对比 + 完善消融 + 特征发现案例
  • 实用价值: ⭐⭐⭐⭐ — 对生物多样性研究(物种识别、特征可视化)有直接应用价值

相关论文