跳转至

Geometry-aware 4D Video Generation for Robot Manipulation

会议: ICLR 2026
arXiv: 2507.01099
代码: 项目主页
领域: 3d_vision
关键词: 4D视频生成, 机器人操作, 跨视角一致性, 点图对齐, 位姿估计

一句话总结

本文提出几何感知的4D视频生成框架,通过跨视角点图对齐监督训练视频扩散模型,联合预测RGB和点图实现时空一致的多视角RGB-D视频,无需相机位姿输入即可在新视角下生成一致视频并用现成6DoF位姿追踪器恢复机器人末端轨迹。

研究背景与动机

  1. 领域现状: 视频生成模型(SVD等)作为视觉动力学模型用于机器人规划日益受到关注。直接从预测视频中提取机器人动作的方法包括逆动力学模型、行为克隆和基于RGB的位姿追踪。
  2. 现有痛点: (1)像素空间视频模型擅长短期运动但缺乏3D结构理解,导致闪烁/变形/物体消失;(2) 3D感知方法强制几何约束但限于简单静态背景,难以扩展到复杂多物体场景;(3)现有方法在新相机视角下性能严重退化。
  3. 核心矛盾: 时序一致性和3D一致性难以兼顾。单视角预测缺乏几何定位,多视角方法要么分别优化时空一致性要么仅处理白背景单物体。
  4. 本文目标: 如何生成同时具有时序连贯性和跨视角3D一致性的4D视频,并从中恢复机器人操作轨迹?
  5. 切入角度: 借鉴DUSt3R的跨视角点图对齐思想,将其适配到视频生成任务中,在训练时监督模型将一个视角的点图预测投影到另一个视角的坐标系。
  6. 核心 idea: 用跨视角点图对齐作为几何监督训练视频扩散模型,学习共享3D场景表示,推理时无需相机位姿即可生成跨视角一致的4D视频。

方法详解

整体框架

基于Stable Video Diffusion(SVD)扩展。每个视角独立预测RGB视频和点图序列。点图预测有两路输出:视角\(v_n\)在自身坐标系的点图\(X_t^n\),和视角\(v_m\)\(v_n\)坐标系中的投影点图\(X_t^{m \to n}\)。训练时两路点图共同监督以强制3D一致性。U-Net decoder使用双分支+跨注意力机制。

关键设计

  1. 跨视角几何一致性监督:

    • 功能: 强制模型学习跨视角共享的3D场景表示
    • 核心思路: 参考视角\(v_n\)预测自身点图\(X_t^n\);第二视角\(v_m\)的预测不在自身坐标系而是投影到\(v_n\)的坐标系得到\(X_t^{m \to n}\)。两路分别使用扩散损失监督: \(\mathcal{L}_{\text{3D-diff}}(t') = \mathbb{E}\|z_{t'}^n(0) - f_\theta(z_{t'}^n(k), k, c^n)\|^2 + \mathbb{E}\|z_{t'}^{m \to n}(0) - f_\theta(z_{t'}^{m \to n}(k), k, c^m)\|^2\)。训练时需要相机位姿定义投影关系,但推理时模型直接从单帧RGB-D输入预测另一视角在参考坐标系中的点图,无需相机位姿作为输入
    • 设计动机: 借鉴DUSt3R的成功经验,跨视角点图对齐是强制3D一致性最直接的监督信号。模型推理时已内化了视角间的几何映射关系。
  2. 多视角跨注意力机制:

    • 功能: 在点图预测的U-Net decoder中实现信息跨视角传递
    • 核心思路: RGB视频预测各视角共享单一U-Net,因为各视角在自己坐标系中独立预测。但点图预测需要对齐到参考坐标系,所以使用两个独立权重的decoder分支,并引入跨注意力层:\(v_n\)的decoder中间特征通过跨注意力传递到\(v_m\)的decoder,使\(v_m\)分支能attend到\(v_n\)的几何线索,准确预测\(v_n\)坐标系中的点图。
    • 设计动机: RGB预测各视角独立即可,但点图预测的非对称性(\(v_n\)预测自身、\(v_m\)预测\(v_n\)坐标系)需要不同的decoder和信息传递。跨注意力实现了不对称几何信息的传递。
  3. 联合时序-3D一致性优化:

    • 功能: 在同一框架中统一时序连贯性和3D空间一致性
    • 核心思路: 总损失为RGB扩散损失+点图3D扩散损失加权: \(\mathcal{L} = \sum_{t'}[\mathcal{L}_{\text{diff}}^n(t') + \mathcal{L}_{\text{diff}}^m(t') + \lambda \cdot \mathcal{L}_{\text{3D-diff}}(t')]\)\(\lambda=1\)。Pointmap VAE从预训练RGB VAE初始化并在点图数据上微调。预训练SVD权重提供强大的时序先验。
    • 设计动机: SVD的时序先验+点图对齐的3D监督形成互补。联合优化让模型同时利用大规模视频预训练的运动知识和几何约束。

损失函数 / 训练策略

DDPM预测去噪形式(直接预测clean data)。Pointmap VAE微调。双视角训练需要已知相机位姿用于计算投影groundtruth。每任务25个演示×16个相机视角=400视频用于训练(12视角训练,4视角测试)。

实验关键数据

主实验

方法 跨视角一致性mIoU↑ FVD-nn↓ FVD-mm↓ AbsRel-nn↓ δ1-nn↑
4D Gaussian 0.39-0.46 1208-1396 815-1192 0.18-0.33 0.43-0.80
SVD 370-977 417-743
SVD w/ MV attn 536-942 445-767
Ours w/o MV attn 0.26-0.44 451-597 302-607 0.10-0.15 0.75-0.89
Ours 0.64-0.70 378-491 258-561 0.03-0.06 0.95-0.98

消融实验

配置 mIoU↑ AbsRel↓ 说明
Full model 0.64-0.70 0.03-0.06 跨注意力+跨视角监督
w/o MV attention 0.26-0.44 0.10-0.15 去掉跨视角注意力,一致性大幅下降
SVD baseline 仅RGB无3D监督

机器人操作成功率(新视角):

任务 本文 基线
StoreCerealBoxUnderShelf 较高 较低
PutSpatulaOnTable 较高 较低
PlaceAppleFromBowlIntoBin 较高 较低

关键发现

  • 跨视角注意力是3D一致性的关键:去掉后mIoU从0.70降到0.41(Task1)
  • 本文方法在新视角(训练中未见)上仍保持良好一致性,说明模型学到了泛化的3D表示
  • 点图预测的深度质量极高:AbsRel仅0.03-0.06,远优于4D Gaussian的0.20+
  • 推理时无需相机位姿输入这一特性对实际部署极为重要——避免了位姿标定
  • 从4D视频中用FoundationPose恢复的末端轨迹可直接控制机器人执行任务

亮点与洞察

  • 训练用位姿、推理不用位姿的设计巧妙:模型内化了视角几何映射
  • DUSt3R思想从静态重建扩展到4D视频生成的自然迁移
  • 联合RGB+点图预测(而非仅RGB或仅深度)提供了最完整的4D信息
  • 末端执行器位姿追踪实现了从生成到控制的完整闭环
  • 双手操作任务(PlaceAppleFromBowlIntoBin)验证了长时间范围的有效性

局限与展望

  • 仅支持双视角,未扩展到更多视角
  • 每任务需25个演示+16视角,数据获取成本不低
  • 基于SVD的底层模型可能限制视觉质量
  • 夹爪状态推断通过简单距离阈值,不够鲁棒
  • 实际机器人实验仅在仿真中完成,真实世界验证有限

相关工作与启发

  • vs DUSt3R: 后者用于静态3D重建,本文将跨视角点图对齐扩展到视频生成
  • vs 4D Gaussian: 分别优化时间/空间一致性,本文联合优化更紧密
  • vs UniPi/SuSIE: 从视频提取动作但不考虑3D一致性
  • vs CamAnimate/CameraCtrl: 需要相机位姿作为推理输入

评分

  • 新颖性: ⭐⭐⭐⭐ DUSt3R→4D视频生成的迁移+训练用位姿推理不用的设计
  • 实验充分度: ⭐⭐⭐⭐ 仿真3任务+真实4任务,但真实世界操作实验有限
  • 写作质量: ⭐⭐⭐⭐ 问题定义清晰,方法描述详细
  • 价值: ⭐⭐⭐⭐ 4D视频生成→机器人操作的完整闭环具有重要实用意义

相关论文