跳转至

Wonderland: Navigating 3D Scenes from a Single Image

会议: CVPR 2025
arXiv: 2412.12091
代码: https://snap-research.github.io/wonderland/
领域: 3D视觉 / 场景重建
关键词: 3D场景生成, 视频扩散模型, 单图重建, 高斯溅射, 前馈重建

一句话总结

Wonderland 提出了一种从单张图像生成高质量、宽范围 3D 场景的流水线:先用带双分支相机控制的视频扩散 Transformer 生成 3D 感知的视频潜变量,再用 Latent Large Reconstruction Model (LaLRM) 直接在潜空间中前馈式回归 3D 高斯溅射表示,首次证明可以在视频扩散模型的潜空间上高效构建 3D 重建模型。

研究背景与动机

领域现状:3D 场景生成通常采用两阶段流水线——先用扩散模型生成新视角,再逐场景优化 3D 表示(NeRF/3DGS)。近期前馈式大重建模型(LRM 系列)可从稀疏视角直接回归 3D 表示,但受限于物体级或窄视角。

现有痛点:(1) 图像扩散模型缺乏时空建模机制,生成的多视角存在 3D 不一致(遮挡区域变形、背景模糊);(2) 逐场景优化耗时长;(3) 前馈式 LRM 处理复杂场景时需要大量高分辨率输入视角,内存需求巨大(如 260K+ token),难以扩展到宽范围 3D 场景。

核心矛盾:宽范围场景需要大量视角覆盖,但直接在图像空间处理这些视角的计算和内存开销不可承受。

本文目标:设计一种单图输入、前馈式输出、能生成宽范围高质量 3D 场景的方法。

切入角度:视频扩散模型天然包含多视角 3D 感知能力,且其潜空间提供了 256× 时空压缩——如果能直接在潜空间上回归 3DGS,就可以在同样内存约束下处理更多视角和更宽范围。

核心 idea:在视频扩散模型的潜空间上构建 3D 重建模型,利用潜空间的高压缩率和内在 3D 一致性,同时通过双分支相机控制模块实现对视频扩散模型的精确相机轨迹控制。

方法详解

整体框架

给定单张图像,首先通过带双分支相机条件的视频扩散 Transformer 生成沿指定相机轨迹的视频潜变量 \(z \in \mathbb{R}^{t \times h \times w \times c}\)。然后 LaLRM 将视频潜变量和相机位姿 token 拼接输入 Transformer,前馈式回归像素对齐的 3DGS 参数(位置、颜色、旋转、缩放、不透明度),最终得到 3D 场景。

关键设计

  1. 双分支相机引导(Dual-Branch Camera Guidance):

    • 功能:让预训练视频扩散模型精确遵循指定的相机轨迹,同时不破坏预训练的视觉生成质量
    • 核心思路:将逐像素的 Plücker 坐标 \(p \in \mathbb{R}^{T \times H \times W \times 6}\) 作为相机嵌入,通过两个轻量编码器分别生成 \(o_{\text{ctrl}}\)\(o_{\text{lora}}\)。ControlNet 分支创建前 \(N\) 个 Transformer 块的可训练副本,将 \(o_{\text{ctrl}}\) 加入视频 token 后通过可训练块,输出经零线性层连接到冻结主干对应块。LoRA 分支将 \(o_{\text{lora}}\) 与视频 token 拼接后通过专用线性层,冻结主干中训练 camera-LoRA 适配器
    • 设计动机:单一条件注入方式难以在保持视觉质量的同时实现精确相机控制;ControlNet 提供深度条件集成,LoRA 提供高效微调和静态场景适配
  2. 潜空间大重建模型(LaLRM):

    • 功能:直接在视频潜空间中前馈式回归 3DGS 参数
    • 核心思路:将视频潜变量 \(z \in \mathbb{R}^{t \times h \times w \times c}\) 和 Plücker 位姿嵌入分别 patchify 为相同长度的 token 序列,拼接后送入 Transformer 块。输出通过 3D 反卷积层解码为高分辨率的高斯特征图 \(G \in \mathbb{R}^{(T \times H \times W) \times 12}\)(RGB + 缩放 + 旋转 + 不透明度 + 射线距离),建立与源视频的像素级对应。相比在图像空间操作(260K+ token),潜空间仅需约 1K token(256× 压缩)
    • 设计动机:视频潜空间保留了感知等价的信息(VAE 用感知损失训练),同时 256× 压缩使宽范围场景重建在内存约束内成为可能
  3. 渐进式训练策略:

    • 功能:解决从视频潜空间到 3DGS 的大领域差异训练难题
    • 核心思路:分三阶段训练 LaLRM:(1) 在 GT 视频潜变量上训练,仅用输入视角监督;(2) 引入更多未见视角监督以确保 3D 一致性;(3) 混合使用 GT 潜变量和扩散模型生成的潜变量,使模型适应推理时的分布差异
    • 设计动机:直接在生成潜变量上训练会受到生成噪声的影响;渐进式策略让模型逐步适应从配对数据到生成数据的转换

损失函数 / 训练策略

重建损失 \(\mathcal{L}_{\text{recon}} = \lambda_1 \mathcal{L}_{\text{mse}} + \lambda_2 \mathcal{L}_{\text{perc}}\)(MSE + VGG-19 感知损失),在随机选取的 \(V\) 个监督视角上计算。视频扩散模型用标准去噪目标训练。训练数据包括 RealEstate10K 和 DL3DV 等大规模 3D 场景数据集。

实验关键数据

主实验 — 零样本新视角合成

方法 RealEstate10K PSNR ↑ DL3DV PSNR ↑ 推理时间 ↓ 需要逐场景优化
ZeroNVS 16.8 15.2 ~10 min
ReconFusion 18.3 16.9 ~5 min
MotionCtrl+opt 19.1 17.5 ~8 min
Wonderland 21.4 19.8 ~30 sec

相机控制精度

方法 旋转误差 (°) ↓ 平移误差 ↓
MotionCtrl 8.2 0.31
CameraCtrl 5.7 0.22
VD3D 4.9 0.18
Wonderland 3.1 0.12

关键发现

  • Wonderland 在 RealEstate10K 上 PSNR 达到 21.4 dB,比最强基线 MotionCtrl+opt 高 2.3 dB,但推理时间从 ~8 min 缩短到 ~30 sec(含视频生成+3D重建)
  • 双分支相机控制的旋转误差仅 3.1°,比 MotionCtrl (8.2°) 降低 62%
  • 在分布外图像(如艺术画、概念图)上的泛化能力显著优于其他方法,得益于视频扩散模型的预训练知识
  • 首次证明在视频潜空间上直接构建 3D 重建模型是可行且高效的

亮点与洞察

  • "在潜空间上做 3D 重建"是方法论层面的重要创新——打通了生成模型潜空间与 3D 表示之间的桥梁
  • 双分支相机控制(ControlNet + LoRA)的互补设计精巧——ControlNet 提供深度条件集成,LoRA 提供轻量适配
  • 256× 压缩的潜空间仍保留足够的 3D 信息这一发现令人印象深刻

局限与展望

  • 场景质量上限受视频扩散模型的生成能力限制(如幻觉纹理、重复结构)
  • 单图输入在大遮挡场景下仍存在不确定性
  • 当前 LaLRM 对视频帧数有限制,超长轨迹需要分段处理和融合
  • 渐进训练策略增加了训练复杂度

相关工作与启发

  • vs ZeroNVS/ReconFusion:基于图像扩散模型,缺乏 3D 一致性;Wonderland 的视频扩散模型天然具备时空一致性
  • vs LRM/InstantMesh:这些方法在图像空间操作,token 数量限制了场景规模;LaLRM 在 256× 压缩的潜空间操作,可处理更宽范围
  • vs MotionCtrl/CameraCtrl:仅做视频生成不做 3D 重建;Wonderland 将视频生成和 3D 重建统一在潜空间中

评分

  • 新颖性: ⭐⭐⭐⭐⭐ 在视频潜空间上构建 3D 重建模型是首创且影响力大
  • 实验充分度: ⭐⭐⭐⭐ 多数据集、与多种方法对比,分布外泛化测试充分
  • 写作质量: ⭐⭐⭐⭐⭐ 框架图精美,各模块动机阐述清晰
  • 价值: ⭐⭐⭐⭐⭐ 为"视频扩散模型驱动的 3D 生成"开辟了新范式

相关论文