VidEoMT: Your ViT is Secretly Also a Video Segmentation Model¶
会议: CVPR2026 arXiv: 2602.17807 代码: tue-mps.org/videomt 领域: 视频分割 / Video Segmentation 关键词: encoder-only, ViT, 视频实例分割, 视频全景分割, query propagation, query fusion, DINOv2
一句话总结¶
提出 VidEoMT,一种纯编码器(encoder-only)视频分割架构,通过 query propagation 和 query fusion 将分割与时序关联统一在单个 ViT 编码器中,在保持与 SOTA 可比精度的同时实现 5×–10× 加速(ViT-L 达 160 FPS)。
背景与动机¶
- 现有方法过于复杂:当前 SOTA 在线视频分割模型(如 CAVIS、DVIS++、DVIS-DAQ)将流程解耦为分割器 + 跟踪器,每一模块内部又包含大量专用组件(ViT-Adapter、Mask2Former pixel decoder、Transformer decoder、上下文感知特征、重识别层等),导致架构臃肿且推理缓慢。
- VFM 预训练的潜力未被充分利用:DINOv2 等视觉基础模型已经通过大规模预训练学到了跨视角一致的特征表示,理论上足以承担实例级分割和时序跟踪双重功能,但现有方法仍在其上堆叠大量冗余组件。
- EoMT 在图像分割已验证 encoder-only 可行性:EoMT 证明只需将可学习 query 注入预训练 ViT 后几层即可实现 SOTA 图像分割,无需专用解码器——这为视频领域的简化提供了直接启发。
- DINO 式预训练目标促进跟踪:DINO/DINOv2 的训练目标鼓励同一物体在不同视角下具有一致特征,这恰好是跟踪所需的关键能力,使得 ViT 编码器天然适合视频分割。
- 推理速度对视频应用至关重要:在线视频处理要求实时或更快的推理速度,现有 SOTA(如 CAVIS 仅 15 FPS)远无法满足实际部署需求。
- 核心研究问题:能否移除所有专用跟踪模块,让一个足够大的预训练 ViT 编码器同时完成分割和时序关联?
方法详解¶
整体框架¶
VidEoMT 基于 EoMT 的 encoder-only 范式,将可学习 query 直接注入 ViT 编码器最后 L₂ 层与 patch token 联合处理。核心创新是引入 query propagation 和 query fusion 两个轻量机制,使编码器内部完成时序建模,无需独立跟踪器。
从 CAVIS 到 VidEoMT 的渐进式简化¶
- 替换分割器:用 EoMT 替代 ViT-Adapter + Mask2Former 分割器 → FPS 从 15 提升至 42,AP 仅降 0.8
- 移除上下文感知特征:去掉 Laplacian 边界提取 + 平均滤波池化 → FPS 提升至 72,AP 不降反升
- 移除重识别层:去掉对比学习 MLP → FPS 提至 74,AP 基本持平
- 移除跟踪器:退化为逐帧 EoMT → FPS 飙至 162 但 AP 骤降 7.6
Query Propagation(查询传播)¶
- 首帧 t=0:标准 EoMT 流程,可学习 query Q^lrn 注入 ViT 最后 L₂ 层,产出 object query Q₀^S 和分割预测
- 后续帧 t>0:用上一帧的输出 query Q_{t-1}^S 替代可学习 query 作为输入,无额外计算开销
- 问题:随着帧数增加,可学习 query 的影响衰减,模型逐渐丧失识别新出现物体的能力
Query Fusion(查询融合)¶
解决上述问题的轻量策略:
\[\mathbf{Q}_t^{\mathcal{F}} = \text{Linear}(\mathbf{Q}_{t-1}^{\mathcal{S}}) + \mathbf{Q}^{\text{lrn}}\]
- 上一帧 query 经线性层变换后与可学习 query 逐元素相加
- 平衡时序连续性(来自传播 query)与对新物体的感知能力(来自可学习 query)
- 监督策略保证 query 顺序跨帧一致,使逐元素加法合理
训练策略¶
- 与 Mask2Former 相同的损失函数:分类用交叉熵,分割用 BCE + Dice loss
- 时序一致的 GT 匹配策略(来自 DVIS++):物体仅在首次出现帧进行匈牙利匹配,后续帧保持 query 对应关系
- AdamW 优化器,lr=1e-4,层级学习率衰减 (LLRD) 因子 0.6,多项式 lr 衰减(power=0.9)
实验关键数据¶
主结果:YouTube-VIS 2019 val(VIS)¶
| 方法 | Backbone | AP | GFLOPs | FPS |
|---|---|---|---|---|
| CAVIS | ViT-L/DINOv2 | 68.9 | 838 | 15 |
| DVIS-DAQ | ViT-L/DINOv2 | 68.3 | 851 | 10 |
| DVIS++ | ViT-L/DINOv2 | 67.7 | 846 | 18 |
| VidEoMT | ViT-L/DINOv2 | 68.6 | 566 | 160 |
跨任务泛化¶
| 任务/数据集 | VidEoMT 指标 | CAVIS 指标 | VidEoMT FPS | CAVIS FPS |
|---|---|---|---|---|
| VPS / VIPSeg | VPQ=55.2 | VPQ=56.9 | 75 | 10 |
| VSS / VSPW | mIoU=64.9 | — | 73 | — |
| VIS / OVIS | AP=52.5 | AP=53.2 | 115 | 15 |
| VIS / YT-VIS 2022 | AP=42.6 | AP=39.5 | 161 | 15 |
消融实验:渐进式模块移除¶
| 步骤 | 变更 | AP | FPS |
|---|---|---|---|
| (0) CAVIS 基线 | — | 68.9 | 15 |
| (1) 替换分割器为 EoMT | ↓0.8 | 42 | |
| (2) 去上下文感知特征 | 68.4 | 72 | |
| (3) 去重识别层 | 68.0 | 74 | |
| (4) 去跟踪器 = EoMT | 61.3 | 162 | |
| (5) + Query Propagation | 63.9 | 162 | |
| (6) + Query Fusion = VidEoMT | 68.6 | 160 |
预训练与模型规模影响¶
- 预训练:DINOv2/DINOv3 下 VidEoMT 与 CAVIS 差距仅 0.3 AP;IN1K 下差距扩大至 2.7 AP → 大规模预训练是关键
- 模型规模:ViT-L 差距 0.3 AP → ViT-B 差距 1.3 AP → ViT-S 差距 2.7 AP,但 VidEoMT ViT-L (160 FPS) 比 CAVIS ViT-S (19 FPS) 快 8× 且精度高 13+ AP
亮点¶
- 极致简洁:将视频分割从复杂的分割器+跟踪器多模块流水线简化为单个 ViT encoder + 轻量 query fusion,新增参数仅 2M
- 数量级加速:ViT-L 达 160 FPS,相比 CAVIS 快 10×+,得益于纯 Transformer 可充分利用 FlashAttention 和 torch.compile 等硬件/软件优化
- 渐进式验证假设:通过 6 步消融清晰展示每个专用组件的冗余性,实验设计令人信服
- 跨任务通用:VIS、VPS、VSS 三大任务/六个基准均表现优异,尤其在 VSPW VSS 上超越所有已有方法
局限性 / 可改进方向¶
- 依赖大规模预训练:在 IN1K 等小规模预训练下精度明显下降(与 CAVIS 差 2.7 AP),对 VFM 有强依赖
- 小模型效果下降:ViT-S 上差距达 2.7 AP,encoder-only 范式在小模型下优势减弱
- VIPSeg 上有差距:VPS 任务上 VPQ 落后 CAVIS 1.7、DVIS-DAQ 2.2,全景场景下跟踪能力仍有提升空间
- OVIS 挑战性场景:在遮挡严重的 OVIS 数据集上落后 DVIS-DAQ 1.8 AP,极端遮挡下纯 query 传播可能不够
- 仅限在线模式:未探索离线/半在线模式下利用未来帧信息的可能性
- query fusion 仅用单帧历史:仅传播上一帧 query,未尝试多帧聚合或记忆机制
与相关工作的对比¶
- EoMT:VidEoMT 的直接前身,仅支持图像分割;VidEoMT 通过 query propagation + fusion 将其扩展到视频领域,AP 从 61.3 恢复至 68.6
- CAVIS:当前 VIS SOTA,包含 ViT-Adapter、Mask2Former decoder、上下文感知特征、重识别层、Transformer 跟踪器等大量组件;VidEoMT 移除所有这些组件仍保持可比精度
- DVIS / DVIS++ / DVIS-DAQ:同为解耦式分割+跟踪范式,VidEoMT 在多数基准上精度相当或更优,速度快 5×–14×
- MinVIS:也追求简洁高效,但仍使用 Swin-L + Mask2Former decoder;VidEoMT 更简洁且更快更准
- TrackFormer:在检测+跟踪中使用 query propagation,VidEoMT 将此思路迁移到 encoder-only 分割框架并加入 query fusion 改进
评分¶
- 新颖性: ⭐⭐⭐⭐ — encoder-only 视频分割思路新颖,渐进式模块移除的验证方式很有说服力
- 实验充分度: ⭐⭐⭐⭐⭐ — 6 个基准、3 个任务、详尽消融、预训练/模型规模分析,非常全面
- 写作质量: ⭐⭐⭐⭐⭐ — 逻辑清晰,假设-验证-结论的叙事结构,图表设计优秀
- 价值: ⭐⭐⭐⭐ — 10× 加速的实际意义巨大,为实时视频分割部署提供了可行方案