跳转至

BioVITA: Biological Dataset, Model, and Benchmark for Visual-Textual-Acoustic Alignment

会议: CVPR 2026
arXiv: 2603.23883
代码: 项目页面 (有)
领域: 多模态学习 / 生物多样性
关键词: 视觉-文本-声音对齐, 跨模态检索, 生物声学, 物种识别, 多模态表示学习

一句话总结

提出 BioVITA 框架,包含百万级三模态(图像-文本-音频)生物数据集、两阶段对齐模型和六方向跨模态物种级检索基准,首次实现生物领域视觉-文本-声音统一表示学习。

研究背景与动机

领域现状: 生物多样性研究依赖多种感官模态(图像识别外观、音频识别叫声、文本描述分类),BioCLIP 等模型在图像-文本对齐上取得了成功,CLAP 在音频-文本上也有进展。

现有痛点: 当前多模态数据集只聚焦成对模态(图像-文本或音频-文本),缺乏三模态统一的训练和评测框架。SSW60 等先驱工作仅覆盖 60 个物种,规模严重不足。

核心矛盾: 生物多样性研究需要全面感知物种,但视觉-文本-声音(VITA)对齐仍是开放挑战——不同数据集分类体系不一致、规模差异大。

本文要解决: 构建完整的 VITA 对齐框架,让模型能在图像、音频、文本之间自由进行物种级跨模态检索。

切入角度: 从数据集构建出发,收集百万级三模态数据并标注生态特征;通过两阶段训练策略将音频表示对齐到已有的视觉-文本表示空间。

核心idea: 利用 BioCLIP 2 预训练的强大图文表示,通过先音频-文本对比再三模态联合对比的两阶段策略,高效实现三模态统一表示。

方法详解

整体框架

BioVITA 包括三个组件:(1) BioVITA Train:百万级三模态训练数据集;(2) BioVITA Model:音频、图像、文本三编码器统一表示模型;(3) BioVITA Bench:六方向跨模态物种级检索基准。

关键设计

  1. BioVITA Train 数据集构建:

    • 三步流程: 音频数据整理 → 细粒度标注 → 视觉数据整合
    • 从 iNaturalist、Xeno-Canto、Animal Sound Archive 收集 130 万音频,配合 ToL-200M 子集的 230 万图像
    • 覆盖 14,133 个物种,34 种生态特征标签(饮食类型、活动模式、栖息地等)
    • 设计动机: 现有数据集要么只有音频要么只有图像,无法支持三模态联合训练;34 种特征标签支持细粒度生态分析
  2. 两阶段训练策略:

    • Stage 1(音频-文本对齐): 仅训练 ATC loss,将音频编码器的表示与文本对齐 \(\mathcal{L}_{\text{ATC}} = \frac{1}{2}(\ell(\mathbf{S}_{\text{AT}}) + \ell(\mathbf{S}_{\text{AT}}^\top))\) 训练 30 epochs,学习率 \(10^{-4}\),batch size 64
    • Stage 2(三模态对齐): 激活 AIC 和 ITC loss,实现完整 VITA 对齐 \(\mathcal{L} = \mathcal{L}_{\text{ATC}} + \lambda(\mathcal{L}_{\text{AIC}} + \mathcal{L}_{\text{ITC}})\) 训练 10 epochs,\(\lambda\) 在前 2 epochs 从 0 线性增至 0.1
    • 设计动机: 直接三模态联合训练会因视觉和声学细粒度区分困难而不稳定;先对齐音频-文本,再逐步引入图像,利用预训练 BioCLIP 2 的强大图文表示空间
  3. 编码器架构:

    • 音频编码器: HTS-AT(层级化 Transformer,4 组 SwinT),从梅尔频谱图提取 768 维表示
    • 图像-文本编码器: 预训练 BioCLIP 2(ViT-L/14 + 12 层 Transformer),768 维
    • 设计动机: 复用成熟的生物图文编码器,只需训练音频编码器对齐

损失函数 / 训练策略

  • 对比学习使用标准 InfoNCE 风格的交叉熵损失,温度超参 \(\tau\) 控制相似度分布的尖锐程度
  • Stage 2 中 \(\lambda\) 采用线性调度防止 ATC loss 回升
  • 每 epoch 每物种最多 20 条录音,音频随机裁剪为 10 秒片段增加多样性

实验关键数据

主实验

检索方向 指标 BioVITA ImageBind CLAP 提升
Audio→Text (Top-1) Species 最优 - 次优 显著领先
Text→Audio (Top-1) Species 最优 - 次优 显著领先
Audio→Image (Top-1) Species 最优 次优 - 首次实现
Image→Audio (Top-1) Species 最优 次优 - 首次实现
Image→Text (Top-1) Species 最优 - - 保持 BioCLIP 2 水平
Text→Image (Top-1) Species 最优 - - 保持 BioCLIP 2 水平

消融实验

配置 Audio→Text Text→Audio 说明
Stage 1 only 较高 较高 音频-文本对齐有效
Stage 1+2 (完整) 最优 最优 三模态联合训练进一步提升
单阶段联合训练 较低 较低 验证两阶段策略必要性

关键发现

  • BioVITA 首次实现跨所有六个方向的物种级检索,在音频相关方向大幅领先
  • 两阶段训练比单阶段联合训练更有效,因为音频-文本对齐是三模态对齐的基础
  • 生态特征标签揭示了声学与视觉特征之间的有趣关联(如夜行性动物的叫声更具辨识度)
  • 在 unseen 物种(325 种)上仍有不错的泛化表现

亮点与洞察

  • 数据集规模和覆盖度远超前人(130 万音频 + 230 万图像 + 14K 物种 + 34 种生态特征)
  • 两阶段训练策略巧妙利用预训练模型,避免从零开始三模态对齐
  • 系统性的六方向检索基准为生物多模态研究提供了标准化评测
  • 生态特征标注为跨模态生物理解增加了全新维度

局限与展望

  • 音频和图像并非严格配对(同一物种不同个体),无法学习个体级对应
  • 未考虑视频模态(动物行为的时序信息)
  • 鸟类数据占绝大多数,其他纲的物种覆盖可能不均衡
  • 可探索端到端微调图像-文本编码器而非冻结

相关工作与启发

  • BioCLIP/BioCLIP 2 证明了结构化分类文本提示对生物图文对齐的有效性
  • CLAP 在通用音频-语言预训练上的成功为生物声学对齐提供了基础
  • ImageBind 的跨模态对齐思路(通过共享嵌入空间)是重要参考,但其在生物领域数据不足
  • 该工作启示:对于新模态对齐,两阶段"先对齐再联合"比一步到位更稳健

评分

  • 新颖性: ⭐⭐⭐⭐ 首个百万级生物三模态数据集和基准,但方法本身是成熟的对比学习
  • 实验充分度: ⭐⭐⭐⭐ 六方向检索、多粒度分析、生态视角全面,但缺少下游任务评测
  • 写作质量: ⭐⭐⭐⭐ 结构清晰,数据集构建过程详实
  • 价值: ⭐⭐⭐⭐⭐ 对生物多样性研究和多模态学习都有重要推动,数据集本身就是重大贡献

相关论文