跳转至

Diff4Splat: Repurposing Video Diffusion Models for Dynamic Scene Generation

会议: CVPR 2026
arXiv: 2511.00503
代码: 项目页面
领域: 3D Vision / 4D Scene Generation
关键词: 4D生成, 3D高斯溅射, 视频扩散模型, 可变形高斯场, 前馈式生成

一句话总结

提出 Diff4Splat,一个前馈式框架,将视频扩散模型与可变形3D高斯场统一到端到端可训练的模型中,从单张图像在约30秒内直接生成动态4D场景表示,比优化方法快60倍。

研究背景与动机

动态3D场景生成(4D生成)是计算机视觉的核心挑战,在沉浸式内容创建、机器人和仿真领域有广泛应用。当前方法存在根本困境:

多阶段流水线方法:先用视频扩散模型生成视频,再进行3D重建。这些方法速度慢、容易出错,且缺乏端到端控制。例如 DimensionX 需要数个GPU小时,Mosca 需要半小时

前馈生成方法:虽然高效,但大多局限于生成2D视频帧或静态3D场景,无法捕获显式的动态3D几何

核心空白:缺少一个能够直接、高效地合成显式可控场景表示的统一框架

Diff4Splat 的动机是填补这一空白——将生成和表示统一到单次前向传播中,实现前馈效率与显式3D表示的兼顾。

方法详解

整体框架

给定单张输入图像 \(\mathbf{I}_0\)、相机轨迹 \(\mathcal{P}\)(Plücker坐标)和可选文本提示 \(\mathbf{C}_{ctx}\),Diff4Splat 在单次前向传播中预测可变形3D高斯场。框架包含四个核心环节:(1) 视频扩散模型生成3D感知潜在张量;(2) 潜在动态重建模型(LDRM)将潜在特征转化为高斯参数;(3) 可变形高斯场表示动态;(4) 统一的多任务监督。

关键设计

  1. 大规模4D数据管线:整合7个合成数据集(TartanAir、MatrixCity、PointOdyssey等)和2个真实数据集(RealEstate10K、Stereo4D),共约13万个高质量4D训练场景。对真实数据集采用 VideoDepthAnything 和 MegaSaM 恢复度量尺度深度,通过最小二乘法对齐相对深度到度量深度。这解决了真实数据缺乏度量尺度标注的问题。

  2. 潜在动态重建模型(LDRM):基于预训练视频扩散模型(CogVideoX)生成3D感知潜在张量 \(\mathbf{z} \in \mathbb{R}^{n \times h \times w \times c}\)。LDRM由16层标准Transformer块组成,将潜在特征和相机位姿token拼接后处理,最后通过轻量级解码器回归3D高斯属性。核心设计动机是避免逐场景优化,利用扩散模型的生成先验直接预测3D结构。

  3. 可变形高斯场:在静态3DGS基础上引入帧间变形模型。对每个高斯在时间步 \(t\) 预测位移 \(\Delta\boldsymbol{\mu}_p^t\)、旋转调整 \(\Delta\mathbf{q}_p^t\) 和尺度修改 \(\Delta\mathbf{s}_p^t\)。变形参数维度 \(K_d=10\)。LDRM同时输出高斯特征图和变形图。训练和推理时基于不透明度阈值(\(\tau=0.005\))进行剪枝。

  4. 渐进式训练策略

    • 阶段一(40K迭代):在静态场景上以低分辨率(256×256)预训练LDRM,冻结变形模块,仅用光度和几何损失
    • 阶段二(40K迭代):仍冻结变形模块,以高分辨率(512×512)精化重建保真度
    • 阶段三(20K迭代):解冻全模型,在动态数据集上微调,使用完整损失函数包括运动损失

损失函数 / 训练策略

总损失为四项加权和:

\[\mathcal{L} = \mathcal{L}_{FM} + \lambda_{photo}\mathcal{L}_{photo} + \lambda_{geo}\mathcal{L}_{geo} + \lambda_{motion}\mathcal{L}_{motion}\]
  • Flow Matching损失 \(\mathcal{L}_{FM}\):仅应用于视频扩散模型参数,在4D标注数据上微调使潜在空间对齐
  • 光度损失 \(\mathcal{L}_{photo}\):MSE + LPIPS(\(\lambda_p=0.5\)),优化渲染图像与真实图像的外观一致性
  • 几何损失 \(\mathcal{L}_{geo}\):深度的Pearson相关损失 + 总变分平滑损失,权重 \(\lambda_{geo}=0.5\)
  • 运动损失 \(\mathcal{L}_{motion}\):基于3D点跟踪数据(合成数据直接可用,真实数据用CoTracker获取),L2 + L1正则,权重 \(\lambda_{motion}=2.0\)

训练使用 AdamW,学习率 \(10^{-5}\),在32张A100上训练约7天。

实验关键数据

主实验

方法 FVD↓ KVD↓ CLIP-Score↑ 重建时间
CameraCtrl 478.2 8.11 19.37 20s
AC3D 339.4 6.34 20.67 28s
AC3D + Mosca† 236.0 2.01 20.21 45min
Diff4Splat 210.2 2.32 23.12 30s
方法 Avg Matches↑ Subj. Consist.↑ Bg. Consist.↑ 时间↓
AC3D + Mosca† 4500.7 86.23 90.43 45min
Diff4Splat 5114.2 88.32 89.89 30s
方法 RPE(Translation)↓ RPE(Rotation)↓ NVS 深度 实时交互
AC3D 3.001 0.810
Ours 0.012 0.008

消融实验

配置 FVD↓ KVD↓ Avg Matches↑ 说明
w/o motion loss 351.4 3.35 4821.6 移除运动损失性能大幅下降
Full model 210.2 2.32 5114.2 完整模型最优

关键发现

  1. 前馈生成仅需30秒,比优化方法(Mosca 45分钟)快约90倍
  2. 在视频质量(FVD)和几何一致性(Avg Matches)上均超越优化方法
  3. 显式3DGS表示使相机位姿误差降低了250倍(RPE Translation: 3.001→0.012)
  4. 可变形高斯场对消除动态场景中的鬼影伪影至关重要
  5. 渐进式训练策略比直接动态训练节省3倍训练时间且效果更优

亮点与洞察

  • 范式创新:首次将视频扩散模型与可变形3DGS统一到前馈框架中,彻底消除逐场景优化
  • 效率飞跃:30秒 vs 45分钟,使动态3D场景生成首次达到实用级别
  • 数据管线:构建了13万场景的大规模4D数据集,含度量尺度标注,计划开源
  • 多功能性:一个模型同时支持视频生成、新视角合成、深度提取和实时交互
  • 生物学类比:空间关系头的工作机制类似于胚胎发育中的分子梯度引导细胞分化

局限与展望

  1. 训练代价仍然较高(32×A100,7天),难以快速迭代
  2. 依赖CogVideoX的潜在空间设计,对更高分辨率或更长序列的扩展性有待验证
  3. 真实数据的度量深度依赖于VideoDepthAnything和MegaSaM的精度,存在误差传播风险
  4. 当前仅支持从单张图像生成,多视角输入条件的扩展值得探索
  5. 运动表示为简单的位移+旋转+缩放变形,对于拓扑变化(如物体出现/消失)可能不够

相关工作与启发

  • CogVideoX 作为视频扩散骨干,展示了视频生成先验对3D理解的潜力
  • 3DGS + 变形场的组合为动态场景提供了高质量实时渲染能力
  • 渐进式训练策略(静态→高分辨率→动态)是应对复杂任务的有效工程实践
  • 可扩展到机器人仿真、VR/AR内容创建等下游应用

评分

  • 新颖性: ⭐⭐⭐⭐⭐ — 首次统一扩散模型与可变形3DGS的前馈4D生成
  • 实验充分度: ⭐⭐⭐⭐ — 多维度评估充分,但缺少与更多前馈4D方法的对比
  • 写作质量: ⭐⭐⭐⭐ — 结构清晰,方法描述详尽
  • 价值: ⭐⭐⭐⭐⭐ — 效率提升显著,具有很强的实用价值

相关论文