Navigation World Models¶
会议: CVPR 2025
arXiv: 2412.03572
代码: https://amirbar.net/nwm
领域: 视频理解/世界模型
关键词: 世界模型, 导航规划, 条件扩散Transformer, 视频预测, 视觉导航, MPC
一句话总结¶
本文提出Navigation World Model (NWM),一个10亿参数的Conditional Diffusion Transformer (CDiT),在多个机器人导航数据集和Ego4D无标签视频上联合训练,通过预测给定动作下的未来视觉观测来模拟导航轨迹,可用于MPC规划或对外部策略(如NoMaD)的轨迹排序,在RECON数据集上的ATE(1.13)和RPE(0.35)均显著优于现有导航策略。
研究背景与动机¶
领域现状:视觉导航是具身智能的基础能力。当前SOTA方法(如NoMaD、GNM)通过行为克隆学习端到端导航策略,但训练完成后行为固化——无法在推理时动态引入新约束(如"不能左转")。世界模型(如DIAMOND、GameNGen)已在Atari等简单环境中展示了基于扩散的环境模拟能力,但局限于单一环境和简单视觉。
现有痛点:(1) 监督式导航策略无法运行时施加约束或反事实推理;(2) 现有世界模型仅在单一环境/游戏中训练,缺乏跨环境跨embodiment的泛化;(3) DiT在多帧视频生成中的计算复杂度\(O(m^2n^2d)\)随上下文帧数\(m\)二次增长,限制了上下文长度和模型规模。
核心矛盾:人类规划导航时会"想象"多条轨迹并评估约束,而当前导航系统是one-shot策略输出——缺乏"想了再做"的模拟-评估-选择循环。但实现这种循环需要一个高保真、高效率、跨环境通用的视觉世界模型。
本文目标 训练一个可跨环境、跨embodiment泛化的导航世界模型,用于模拟轨迹进行规划或改进现有策略。
切入角度:(1) 设计CDiT架构将上下文帧复杂度从\(O(m^2)\)降到\(O(m)\);(2) 在多个机器人数据集+Ego4D联合训练实现泛化;(3) 引入time shift机制同时建模动作和时间动态。
核心 idea:用跨环境训练的CDiT作为导航世界模型,通过模拟轨迹的最终帧与目标图像的感知相似度来评估和优化导航计划。
方法详解¶
整体框架¶
NWM将自回归视频预测建模为:给定过去m帧潜在表示\(\mathbf{s}_\tau\)和导航动作\(a_\tau=(u, \phi, k)\)(平移、偏航旋转、时间偏移),通过CDiT预测下一帧潜在状态\(s_{\tau+1}\),再用预训练VAE解码器还原为像素。训练时在多个机器人数据集(SCAND、TartanDrive、RECON、HuRoN)和无标签Ego4D视频上联合优化denoising loss。推理时用Cross-Entropy Method (CEM)搜索最小化能量函数的动作序列实现MPC规划。
关键设计¶
-
Conditional Diffusion Transformer (CDiT):
- 功能:将上下文帧的计算复杂度从\(O(m^2n^2d)\)降至\(O(mn^2d)\),实现线性扩展
- 核心思路:将DiT中对所有帧token的full self-attention拆分为两部分——第一个attention block仅在目标帧(待去噪帧)的token间做self-attention,然后通过cross-attention让目标帧的query attend to过去帧的key/value。导航动作\((u,\phi)\)和时间偏移\(k\)分别通过sine-cosine特征+MLP映射后,与扩散timestep嵌入求和得到条件向量\(\xi = \psi_a + \psi_k + \psi_t\),通过AdaLN调制归一化层和注意力层输出
- 设计动机:标准DiT对所有帧做full attention在1B参数规模下计算不可承受。CDiT在同参数量下比DiT快4×且效果更好(Fig.5),因为导航任务中当前帧与上下文帧的关系可以通过cross-attention充分建模
-
Time Shift动作扩展与多目标训练:
- 功能:同时建模导航动作和环境时间动态,缓解动作-时间纠缠问题
- 核心思路:将动作扩展为\(a_\tau = (u, \phi, k)\),其中\(k \in [-16, 16]\)秒控制模型预测的时间跨度。训练时为每个状态随机采样4个不同时间偏移的目标帧(而非仅1个),鼓励自然反事实——同一位置可能对应不同时间
- 设计动机:仅用动作条件化无法处理多步累积动作的歧义(同一位置不同时间到达)。Table 1证实4个目标帧比1个目标帧在所有指标上显著提升
-
能量函数规划框架 (MPC):
- 功能:在已知环境中通过模拟+评估实现独立导航规划
- 核心思路:定义能量函数\(\mathcal{E} = -\mathcal{S}(s_T, s^*) + \sum \mathbb{I}(a_\tau \notin \mathcal{A}_{\text{valid}}) + \sum \mathbb{I}(s_\tau \notin \mathcal{S}_{\text{safe}})\)。\(\mathcal{S}\)为最终帧与目标帧的LPIPS感知相似度(VAE解码后测量)。用Cross-Entropy Method采样并迭代优化动作序列使能量最小化。约束通过将特定动作分量置零来实施
- 设计动机:世界模型的核心优势在于可以在虚拟中"试错"——sample多条轨迹、模拟每条、选最好的。MPC框架让约束可以自然融入而无需重训练
损失函数¶
- 标准DDPM目标:\(\mathcal{L}_{\text{simple}} = \mathbb{E}[\|s_{\tau+1} - F_\theta(s_{\tau+1}^{(t)} | \mathbf{s}_\tau, a_\tau, t)\|_2^2]\)
- 加上variational lower bound损失\(\mathcal{L}_{\text{vlb}}\)监督预测协方差矩阵
- 训练配置:AdamW优化器,lr=8e-5,total batch size=4096(1024 samples × 4 goals),8节点×8 H100 GPU
实验关键数据¶
主实验表¶
目标条件视觉导航(RECON,2秒轨迹预测):
| 方法 | ATE↓ | RPE↓ |
|---|---|---|
| GNM | 1.87 | 0.73 |
| NoMaD | 1.93 | 0.52 |
| NWM + NoMaD (×32) | 1.78 | 0.48 |
| NWM (planning) | 1.13 | 0.35 |
NWM独立规划的ATE比最好的导航策略低40%。
视频合成质量(RECON,16秒4FPS):
| 方法 | FVD↓ |
|---|---|
| DIAMOND | 762.7 |
| NWM | 201.0 |
消融实验表¶
CDiT vs DiT(RECON 4秒预测): - CDiT-XL (1B): LPIPS=0.296, 使用约600T FLOPs - DiT-XL (1B): LPIPS=0.310, 使用约1200T FLOPs - CDiT在同参数下比DiT快4×且LPIPS低5%
约束规划验证:
| 约束类型 | δu偏移↓ | δφ偏移↓ |
|---|---|---|
| Forward first | +0.36 | +0.61 |
| Left-right first | -0.03 | +0.20 |
| Straight then forward | +0.08 | +0.22 |
所有约束均被满足,性能损失可控。
关键发现¶
- NWM独立规划(ATE=1.13)显著优于GNM(1.87)和NoMaD(1.93),证明world model "想了再做"的范式对导航有效
- CDiT比DiT在1B参数下更高效且更准确——线性上下文复杂度是关键,让更长上下文(4帧)成为可能
- 加入无标签Ego4D数据后在未知环境(Go Stanford)上的LPIPS从0.658改善到0.652,DreamSim从0.478到0.464——无动作标签的视频也能帮助学习视觉先验
- 约束规划实验证明世界模型的独特优势:forward-first、left-right-first等约束可以零成本施加
亮点与洞察¶
- CDiT架构将上下文帧复杂度从\(O(m^2)\)降到\(O(m)\),这对视频世界模型的规模化至关重要——同样参数下更快更好
- "世界模型+MPC"的规划范式天然支持约束注入和计算资源动态分配,这是端到端策略做不到的
- 跨环境跨embodiment联合训练的思路(4个机器人数据集+Ego4D)使单一世界模型适应多种场景,而非为每个环境单独训练
- Time shift机制让模型同时学习动作效果和时间动态,是一个巧妙的数据增强和任务扩展
局限性¶
- 在未知环境中长时间预测时会出现mode collapse——生成的帧逐渐退化为训练数据分布中的典型样本
- 仅建模3 DoF导航动作(平移+偏航),无法扩展到6 DoF机械臂控制
- 不能显式模拟行人运动等环境时间动态(虽然某些情况下偶然可以)
- 规划依赖于多次world model rollout(CEM采样),推理计算成本高
- 未使用显式环境地图——长距离规划的准确性可能受限
相关工作与启发¶
- DIAMOND [Alonso et al.]: 基于UNet的扩散世界模型用于Atari,本文扩展到真实导航且用Transformer架构
- NoMaD [Shah et al.]: SOTA视觉导航策略,本文用NWM来排序其采样轨迹可进一步提升性能
- DiT [Peebles & Xie]: 扩散Transformer架构,CDiT在其基础上用cross-attention替代full attention降低复杂度
- Sora [Brooks et al.]: 大规模视频生成模型,NWM与其的关键区别在于显式动作条件化而非纯文本驱动
- 启发:导航世界模型连通了视频生成、强化学习和机器人规划三个领域——如果世界模型的保真度继续提升,"先在想象中规划"可能成为具身智能的主流范式
评分¶
⭐⭐⭐⭐ — CDiT架构设计高效优雅,跨环境导航世界模型的概念有前瞻性,独立规划的ATE显著优于专门训练的导航策略。来自Meta FAIR和NYU的强团队(Yann LeCun共同作者)。约束规划实验展示了世界模型独特的优势。
相关论文¶
- [CVPR 2025] World2Act: Latent Action Post-Training via Skill-Compositional World Models
- [ICCV 2025] Disentangled World Models: Learning to Transfer Semantic Knowledge from Distracting Videos for Reinforcement Learning
- [CVPR 2025] World-Consistent Video Diffusion with Explicit 3D Modeling
- [CVPR 2025] ShotAdapter: Text-to-Multi-Shot Video Generation with Diffusion Models
- [CVPR 2025] Articulated Kinematics Distillation from Video Diffusion Models