跳转至

Generative Camera Dolly: Extreme Monocular Dynamic Novel View Synthesis

会议: ECCV 2024
arXiv: 2405.14868
代码: https://gcd.cs.columbia.edu (有,项目页)
领域: 3D视觉
关键词: 动态新视角合成, 视频扩散模型, Stable Video Diffusion, 相机控制, 单目视频

一句话总结

提出GCD(Generative Camera Dolly),通过微调Stable Video Diffusion模型实现从单目视频生成任意视角的同步动态新视角视频,支持最高180°的极端相机变换,无需深度输入或显式3D建模。

研究背景与动机

领域现状: 动态新视角合成(DVS)已有大量工作,但大多依赖多视角同步视频输入(HexPlane、4D-GS等),或仅支持小角度视角变化(DynIBaR限制在几度内),限制了实际应用。

现有痛点: (a) 多视角同步视频采集成本高,严重限制野外使用;(b) 基于per-scene优化的方法(NeRF系列)无法跨场景泛化,且无法推理被遮挡区域;(c) 现有单目方法只能处理微小视角变化。

核心矛盾: 单目动态新视角合成极度欠约束——从一个视角推断另一视角需要强先验知识,而现有方法要么缺乏先验(per-scene优化),要么无法精确控制相机(视频生成模型)。

本文目标: 给定任意场景的单目视频,生成与之同步的、从任意指定相机位姿看到的动态新视角视频。

切入角度: 利用大规模视频扩散模型(SVD)包含丰富的3D几何和动态场景先验,通过在合成多视角数据上微调来"教会"模型进行精确相机控制的视频到视频翻译。

核心 idea: 将DVS转化为条件视频生成问题,用合成数据微调SVD来学习相机位姿控制的端到端视频翻译。

方法详解

整体框架

GCD是一个端到端的视频到视频翻译管线。输入为源视角RGB视频 \(\boldsymbol{x} \in \mathbb{R}^{T \times H \times W \times 3}\) 和相对相机外参 \(\Delta\mathcal{E} = \{\mathcal{E}_{src,t}^{-1} \cdot \mathcal{E}_{dst,t}\}_{t=0}^{T-1}\),输出目标视角视频 \(\boldsymbol{y}\)

\[\boldsymbol{y} = f(\boldsymbol{x}, \Delta\mathcal{E})\]

基于Stable Video Diffusion (SVD) 的图像到视频架构进行改造和微调。

关键设计

  1. 相机视角控制(Camera Viewpoint Control): 将相对外参矩阵 \(\Delta\mathcal{E}_t \in \text{SE}(3)\) 分解为旋转 \(R_t \in \text{SO}(3)\) 和平移 \(T_t \in \mathbb{R}^3\),将展平后的信息通过MLP \(m\) 投影为embedding,与SVD的micro-conditioning机制融合——加到网络各卷积层的特征向量上(类似SV3D的做法)。新的相机嵌入器 \(m\) 随机初始化,其余权重从SVD预训练checkpoint加载,最大限度保留SVD学到的视频先验。

  2. 视频条件化(Video Conditioning): SVD原始架构用两路信号处理:CLIP嵌入做cross-attention + VAE编码后channel-concat。GCD保留此机制但做关键修改——将原来仅用首帧 \(\boldsymbol{x}_0\) 扩展为用整段输入视频 \(\boldsymbol{x}\),使模型能观察到完整的场景动态。具体地,在每个时间步 \(t\) 将同步的输入帧附加到输出样本上,U-Net接受 \(2D \times T \times \frac{H}{F} \times \frac{W}{F}\) 的输入,产生 \(D \times T \times \frac{H}{F} \times \frac{W}{F}\) 的输出。推理时使用classifier-free guidance:

\[\hat{\boldsymbol{y}}_{u-1} = w\epsilon(\hat{\boldsymbol{y}}_u \| \boldsymbol{x}, \Delta\mathcal{E}) - (w-1)\epsilon(\hat{\boldsymbol{y}}_u)\]

其中 \(w \in [1, \infty)\) 为引导强度。SVD的分解式3D U-Net在空间块和时间块之间建立输入输出帧之间的时空attention,并且每帧有对应的CLIP嵌入 \(c(\boldsymbol{x}_t)\) 做cross-attention条件化。

  1. 相机轨迹选择策略(Camera Trajectory Choice): 通过消融研究对比两种轨迹模式:
\[\mathcal{E}_{dst,t} = \begin{cases} g(\alpha \mathcal{P}_{dst} + (1-\alpha)\mathcal{P}_{src}), & \text{渐进模式(gradual)} \\ g(\mathcal{P}_{dst}), & \text{直达模式(direct)} \end{cases}\]

其中 \(\alpha = \frac{t}{T-1}\)。研究发现:(a) 渐进插值优于直接跳转(平均+1.17 dB PSNR);(b) 训练范围max 90°优于max 180°(+0.55 dB);(c) 从SVD checkpoint微调优于从头训练(+1.34 dB)。最终采用 gradual, max 90°, finetuned 配置。

数据集构建

  • Kubric-4D: 用Kubric模拟器生成3000个场景,每场景7-22个物体,16个固定虚拟相机,60帧@24FPS。通过反投影+重投影的数据增强策略从任意视角渲染训练数据。
  • ParallelDomain-4D: 高保真驾驶场景,1533个场景@10FPS,19个虚拟相机,含RGB、语义标签、深度等多模态标注。

训练策略

SVD变体预测 \(T=14\) 帧,分辨率 \(384 \times 256\)。在Kubric-4D上用7×A100训练10k迭代(batch size 56,约3天)。采用v-parameterization预条件化,EDM采样器25步推理,classifier-free guidance范围调整为 \([1, 1.5]\)

实验关键数据

主实验

Kubric-4D基准对比(13帧平均,单目RGB输入)

方法 PSNR(all)↑ SSIM(all)↑ LPIPS(all)↓ PSNR(occ.)↑ SSIM(occ.)↑
HexPlane 15.38 0.428 0.568 14.71 0.428
4D-GS 14.92 0.388 0.584 14.55 0.392
DynIBaR 12.86 0.356 0.646 12.78 0.358
Vanilla SVD 13.85 0.312 0.556 13.66 0.326
ZeroNVS 15.68 0.396 0.508 14.18 0.368
GCD (Ours) 20.30 0.587 0.408 18.60 0.527

ParallelDomain-4D (RGB):GCD PSNR 25.04 vs ZeroNVS 18.88,大幅领先。

消融实验

Kubric-4D消融(末帧评估)

变体 PSNR(all)↑ SSIM(all)↑ LPIPS(all)↓
direct, max 90°, scratch 15.96 0.450 0.575
gradual, max 90°, scratch 16.92 0.486 0.542
direct, max 90°, finetuned 17.23 0.494 0.507
gradual, max 90°, finetuned 17.88 0.521 0.486
gradual, max 180°, finetuned 17.81 0.521 0.488

关键发现

  • Per-scene优化方法(HexPlane/4D-GS/DynIBaR)在单视角输入下严重失败
  • 渐进轨迹优于直达轨迹(+1.17 dB),源于与SVD预训练分布更对齐
  • 仅在合成数据上训练,但在真实世界驾驶场景、机器人操作、室内视频等场景中展现出零样本泛化能力
  • 模型具备"物体永久性"推理能力——能在遮挡发生后正确预测被遮挡物体的位置和外观

亮点与洞察

  • 范式创新: 将DVS从传统的per-scene优化范式转变为条件视频生成范式,首次实现了单目视频的极端视角(最高180°)新视角合成
  • 利用大模型先验: 巧妙利用SVD的视频先验知识,通过轻量微调就能实现精确的6-DoF相机控制
  • 多模态能力: 不仅能做RGB视角合成,还能做语义分割视角合成(ParallelDomain mIoU 43.4%),证明方法的通用性
  • 推理效率: 生成一段视频仅约10秒,比per-scene优化方法快几个数量级

局限与展望

  • 仅在合成数据上训练,对分布外样本(如包含运动人体的视频)泛化能力有限
  • 输出分辨率受限(384×256),难以满足高分辨率需求
  • 输入/输出物体间的对应关系不总是清晰,刚体有时会错误变形
  • 未显式建模3D几何,可能导致几何一致性较差的输出
  • 未来可通过更好的预训练模型、更大规模数据和计算资源提升

相关工作与启发

  • Stable Video Diffusion (SVD): 核心骨干网络,提供了强大的视频生成先验
  • SV3D: 并行工作,类似的micro-conditioning思路用于3D生成
  • DynIBaR: 基于体积渲染的单目DVS方法,但受限于小角度变化
  • Sora: 展示了视频模型作为世界模拟器的潜力,启发了利用视频扩散模型做3D/4D理解
  • 启发:视频扩散模型不仅是生成工具,更是强大的3D/4D场景理解引擎

评分

  • 新颖性: ⭐⭐⭐⭐⭐ 全新范式——用视频扩散模型做动态视角合成,开创性工作
  • 实验充分度: ⭐⭐⭐⭐ 两个合成数据集+真实世界泛化+完整消融,但缺少更多真实世界定量评估
  • 写作质量: ⭐⭐⭐⭐⭐ 结构严谨,轨迹选择的消融分析深入透彻
  • 价值: ⭐⭐⭐⭐⭐ 对机器人、自动驾驶、VR/AR等应用具有巨大潜力,开辟了新的研究方向

相关论文