跳转至

SC4D: Sparse-Controlled Video-to-4D Generation and Motion Transfer

会议: ECCV 2024
arXiv: 2404.03736
代码: https://github.com/JarrentWu1031/SC4D
领域: 3D视觉
关键词: 视频到4D生成, 运动解耦, 稀疏控制点, 3D高斯溅射, 运动迁移

一句话总结

SC4D提出了一种基于稀疏控制点的视频到4D生成框架,通过将动态3D物体的运动和外观解耦为稀疏控制点(~512个)和密集高斯体(~50k个),结合自适应高斯初始化(AG)和高斯对齐损失(GA)解决形状退化问题,并实现了基于控制点运动的跨实体运动迁移应用。

研究背景与动机

领域现状:4D内容生成(动态3D物体生成)是近年新兴的研究方向,在AR/VR、影视、动画等领域有广泛应用前景。近期工作如Consistent4D和4DGen利用Score Distillation Sampling(SDS)从2D扩散模型蒸馏先验知识来实现视频到4D的生成。这些方法通常将动态场景表示为动态NeRF或密集3D高斯体。

现有痛点:(1) 动态NeRF方法因其隐式性质,在SDS的随机性下难以维持时空一致性,生成结果常出现闪烁和伪影。(2) 密集3D高斯方法需要预测数万个高斯体的独立运动轨迹和旋转,在仅有单视图条件下极其困难,容易出现运动失真。(3) 两类方法都难以在参考视图对齐、时空一致性和运动保真度三者间取得平衡。(4) 运动和外观的耦合建模使得无法灵活地将学到的运动迁移到其他实体。

核心矛盾:视频到4D生成需要同时重建外观和运动两个属性,但单视图条件严重不足,密集运动预测的搜索空间过大,而隐式表示又缺乏运动的显式控制能力。

本文目标 (1) 如何降低运动预测的难度、提高运动保真度?(2) 如何在细化纹理阶段防止形状和运动退化?(3) 如何实现从视频中提取的运动到其他实体的迁移?

切入角度:受SC-GS动态场景重建方法的启发,将运动建模为少量稀疏控制点的变换,通过线性混合蒙皮(LBS)驱动密集高斯体。这大幅降低了运动预测的自由度,且控制点的运动可以被提取和复用。

核心 idea:用512个稀疏控制点代替50k个密集高斯体来建模运动,解耦运动与外观,实现高质量4D生成和运动迁移。

方法详解

整体框架

SC4D采用两阶段框架。粗阶段:初始化512个球形控制高斯体,通过时间条件MLP预测其运动,在参考视图重建损失和SDS新视角损失的联合指导下优化控制高斯体的位置、外观和运动MLP参数。精阶段:控制高斯体转变为隐式控制点,通过自适应高斯初始化(AG)在每个控制高斯体周围随机生成密集高斯体,利用LBS驱动密集高斯体运动,联合优化控制点位置/运动MLP/密集高斯体参数以细化纹理。

关键设计

  1. 粗阶段的稀疏控制点初始化:

    • 功能:为动态物体的运动和形状提供粗糙但合理的初始估计
    • 核心思路:初始化 \(M=512\) 个具有相同缩放参数 \(s\) 的球形高斯体,用MLP \(\Psi\) 在给定时间 \(t\) 和位置输入时预测每个控制点的平移 \(T_i^t\) 和旋转 \(R_i^t\)。训练目标包含参考视图重建损失 \(L_\text{ref} = \|\hat{I}^t - I_r^f\|_2^2\)、前景掩码损失 \(L_\text{mask}\)、和SDS新视角损失。前1000迭代进行密度化和剪枝,然后用最远点采样(FPS)重新选择 \(M\) 个控制高斯体继续训练500迭代
    • 设计动机:球形约束确保控制高斯体分布均匀,避免退化为无序分布;先密度化再FPS采样平衡了覆盖度和均匀性
  2. 自适应高斯初始化(Adaptive Gaussian Initialization, AG):

    • 功能:从粗阶段的控制高斯体生成精阶段的密集高斯体初始化
    • 核心思路:对粗阶段学得的 \(M\) 个控制高斯体,将每个视为半径为 \(s\) 的球体,在球内随机初始化 \(K\) 个密集高斯体,总计 \(N = M \times K\) 个。这样初始化的密集高斯体自然分布在物体表面附近且继承了粗阶段学到的形状和运动
    • 设计动机:直接在球体内均匀初始化密集高斯体会导致形状和运动与粗阶段不匹配,出现增厚、位置漂移和纹理模糊。AG初始化保证了从粗到精的平滑过渡
  3. 高斯对齐损失(Gaussian Alignment Loss, GA):

    • 功能:在精阶段防止SDS优化导致的形状和运动退化
    • 核心思路:在精阶段开始时保存粗阶段的控制点参数和变形MLP作为参考,计算当前控制点位置与参考位置间的L2距离作为正则化:\(L_\text{GA} = \|p^t - \bar{p}^t\|_2^2\)。这约束控制点在优化过程中不偏离粗阶段学到的运动轨迹太远
    • 设计动机:SDS损失在大噪声时间步偏向整体形状优化,在小噪声时间步偏向纹理细节。纹理细化阶段如果没有形状约束,SDS会逐渐破坏已学好的形状和运动。GA损失比Chamfer损失更好——后者可能导致控制点向特定目标点聚集而破坏均匀分布

损失函数 / 训练策略

粗阶段:\(L = \lambda_\text{ref} L_\text{ref} + \lambda_\text{mask} L_\text{mask} + \lambda_\text{SDS} L_\text{SDS}\),权重分别为5000、500、1。SDS使用Zero123作为先验模型。精阶段增加GA损失:\(L = \lambda_\text{ref} L_\text{ref} + \lambda_\text{mask} L_\text{mask} + \lambda_\text{SDS} L_\text{SDS} + \lambda_\text{GA} L_\text{GA}\),GA权重为10000。噪声时间步从800线性降到200以逐渐从形状优化过渡到纹理优化。整体训练约1小时(单V100 GPU)。

实验关键数据

主实验

在Consistent4D数据集上的定量对比(10个视频平均):

方法 PSNR↑ SSIM↑ LPIPS↓ CLIP↑ Temp↓ 时间
Consistent4D 23.97 0.91 0.09 0.89 0.0089 1.9h
4DGen 21.80 0.90 0.10 0.87 0.0089 3.0h
SC4D 29.50 0.95 0.08 0.90 0.0081 1.0h

在所有指标上SC4D显著领先,尤其PSNR提高5.5dB,且训练速度最快。

消融实验

AG初始化和GA损失的消融:

配置 PSNR↑ SSIM↑ LPIPS↓ CLIP↑ 说明
基线(无AG无GA) 29.81 0.95 0.10 0.82 严重形状退化
+GA损失 30.19 0.96 0.09 0.83 控制点形状保持
+AG初始化(完整) 31.35 0.96 0.08 0.89 CLIP大幅提升

控制点数量消融:

控制点数M PSNR↑ SSIM↑ CLIP↑ Temp↓
128 26.46 0.934 0.890 0.0175
256 26.75 0.936 0.890 0.0176
512 27.00 0.936 0.893 0.0178
1024 27.30 0.938 0.893 0.0180

关键发现

  • 运动-外观解耦是SC4D成功的核心——简化了运动学习的同时提高了外观优化质量
  • AG初始化对新视角质量影响最大(CLIP从0.82提升到0.89),说明良好的初始化对消除形状退化至关重要
  • GA损失虽简单(仅L2距离)但比Chamfer损失更优——Chamfer会破坏控制点的均匀分布
  • 控制点数量增加提升渲染质量但降低时间一致性,M=512是性能-刚性折中的最优选择
  • 用户研究显示SC4D在参考视图和新视角评估中均获得压倒性偏好

亮点与洞察

  • 稀疏控制的优雅:用512个点驱动5万个高斯体的运动,自然具备局部刚性约束
  • 运动迁移应用:解耦建模使得从一个4D物体提取运动并迁移到文本描述的新实体成为可能
  • 粗到精策略:先学运动骨架再细化纹理的两阶段策略稳健有效
  • AG初始化直觉简洁:在控制高斯球内随机初始化密集高斯体,继承形状和运动

局限与展望

  • 依赖Zero123提供新视角先验,在复杂物体上表现受限
  • 未考虑移动相机场景的4D生成
  • 参考视频质量直接影响生成结果
  • 单视图条件下遮挡区域的运动估计仍然困难
  • 可以探索结合更强的多视图扩散模型(如SV3D)替代Zero123

相关工作与启发

  • SC-GS:稀疏控制高斯溅射,用于动态场景重建,SC4D的直接灵感来源
  • Consistent4D:基于动态NeRF的视频到4D方法
  • 4DGen:基于密集高斯的4D生成方法
  • DreamGaussian:3D高斯体的初始化策略
  • 启发:从场景重建方法(SC-GS)中提取表示范式应用到生成任务,是连接重建和生成两个社区的好思路

评分

  • 新颖性: ⭐⭐⭐⭐ 稀疏控制点驱动4D生成+运动迁移应用新颖
  • 实验充分度: ⭐⭐⭐⭐ 定量+定性+用户研究+多种消融
  • 写作质量: ⭐⭐⭐ 方法描述尚可但冗长
  • 价值: ⭐⭐⭐⭐ 显著优于现有方法且有创新应用

相关论文