LIM: Large Interpolator Model for Dynamic Reconstruction¶
会议: CVPR 2025
arXiv: 2503.22537
代码: 项目页面提供
领域: 3d_vision
关键词: 4D reconstruction, triplane interpolation, feed-forward, mesh tracking, causal consistency
一句话总结¶
提出 LIM——首个前馈式跨类别动态 4D 资产重建模型,通过在隐式 triplane 表示间进行 Transformer 插值并引入因果一致性损失,实现秒级高质量连续时间插值与一致拓扑的网格跟踪。
研究背景与动机¶
领域现状: 现有 4D 重建方法要么局限于特定类别(如人体、动物),要么依赖慢速的优化方法(需数分钟至数小时)。LRM(Large Reconstruction Model)在静态 3D 重建中展示了前馈式方法的潜力。
现有痛点: L4GM 等方法虽然实现了前馈 4D 重建,但只能重建离散关键帧,无法在时间上连续插值;且高斯混合表示难以建立跨时间步的对应关系,无法输出可用于生产流水线的跟踪网格。
核心矛盾: 生产环境需要固定拓扑、共享 UV 纹理的时变网格序列,而现有方法无法直接输出此类资产。
本文切入角度: 在 LRM 的 triplane 表示空间中学习时间插值,而非在图像空间或参数空间进行。
核心 idea: 通过 Transformer 在两个关键帧的 triplane 特征间进行交叉注意力插值,配合因果一致性损失实现连续时间泛化。
方法详解¶
整体框架¶
- 使用预训练的多视角 LRM 将每个关键帧的多视角图像编码为 triplane 表示
- LIM 接收第 k 帧的 LRM 中间特征 \(\mathcal{F}_k\)、第 k+1 帧的图像 \(\mathcal{I}_{k+1}\) 和插值时间 \(\alpha \in [0,1]\)
- 通过 6 层 Transformer(含交叉注意力)输出插值 triplane \(\hat{\mathcal{T}}_{k+\alpha}\)
- 可选配合扩散模型将单目视频转换为多视角输入
关键设计¶
1. LIM 架构——基于 LRM 特征的 Transformer 插值器 - 功能: 提取 LRM 最后 6 层的中间特征 \(\mathcal{F}_k\),拼接时间编码 \(\alpha\) 后,通过交叉注意力与下一关键帧图像 token 交互,生成插值 triplane。 - 核心思路: \(\hat{\mathcal{T}}_{k+\alpha} = \text{LIM}_\psi(\mathcal{F}_k(\mathcal{I}_k, \Pi_k), \mathcal{I}_{k+1}, \alpha)\)。 - 设计动机: 复用 LRM 的预训练特征避免从零学习 3D 表示;交叉注意力让插值器能感知目标帧的外观变化。
2. 因果一致性损失(Causal Consistency Loss) - 功能: 约束"直接从 \(t_0\) 插值到 \(t_\delta\)"的结果 与"先插值到中间时刻 \(t_{\alpha_{rand}}\) 再插值到 \(t_\delta\)"的结果一致。 - 核心思路: \(\mathcal{L}_{\text{causal}} = \|\text{LIM}(\hat{\mathcal{F}}_{k+\alpha_{rand}}, \mathcal{I}_{k+\delta}, \frac{\delta - \alpha_{rand}}{1-\alpha_{rand}}) - \hat{\mathcal{T}}_{k+\delta}\|^2\),其中 \(\alpha_{rand} \sim \mathcal{U}(0, \delta)\)。 - 设计动机: 训练时仅有离散关键帧的监督,因果一致性损失引入任意连续时间 \(\alpha\) 的自监督信号,使模型成为真正的时间平滑插值器。
3. 规范表面坐标与网格跟踪 - 功能: 训练额外的 \(\overline{\text{LRM}}\) 和 \(\overline{\text{LIM}}\) 预测规范表面坐标(canonical surface coordinates),将每个时刻的 3D 表面点映射到起始帧的 XYZ 坐标。 - 核心思路: 在起始帧用 Marching Cubes 提取网格,后续帧利用规范坐标的最近邻匹配追踪顶点位置,保持固定拓扑和共享 UV 纹理。 - 设计动机: 规范坐标提供时间不变的表面标识,避免了直接在高斯混合或隐式表面间求对应的困难。
损失函数 / 训练策略¶
- Triplane MSE 损失: \(\mathcal{L}_{\mathcal{T}} = \|\hat{\mathcal{T}}_{k+\alpha_m} - \mathcal{T}_{k_m}\|^2\),与 LRM 的伪真值 triplane 对齐
- 因果一致性损失: \(\mathcal{L}_{\text{causal}}\)(上述)
- 总损失: \(\mathcal{L}_{\mathcal{T}} + \mathcal{L}_{\text{causal}}\)
- LRM 权重冻结,仅训练 LIM;Adam 优化器,学习率 \(10^{-4}\)
- 训练数据: 大规模艺术家创建的动画网格数据集
实验关键数据¶
主实验——Triplane 插值质量¶
| 方法 | PSNR↑ | PSNR_FG↑ | LPIPS↓ |
|---|---|---|---|
| Linear(线性插值) | 20.96 | 11.04 | 0.093 |
| FILM(图像插值) | 22.05 | 14.98 | 0.082 |
| LIM(本文) | 23.11 | 16.12 | 0.075 |
| Oracle(上限) | 24.43 | 17.51 | 0.064 |
消融实验——因果一致性损失¶
| 模型 | PSNR↑ | PSNR_FG↑ | LPIPS↓ |
|---|---|---|---|
| LIM w/o \(\mathcal{L}_{\text{causal}}\) | 22.2 | 15.38 | 0.084 |
| LIM(完整) | 23.11 | 16.12 | 0.075 |
网格跟踪质量¶
| 方法 | PSNR↑ | PSNR_FG↑ | LPIPS↓ |
|---|---|---|---|
| NN-tracing | 20.33 | 16.09 | 0.122 |
| LIM(本文) | 21.56 | 17.11 | 0.096 |
单目视频 4D 重建¶
| 方法 | 前馈 | 推理时间 | LPIPS↓ | FVD↓ |
|---|---|---|---|---|
| Consistent4D | ✗ | ~1.5h | 0.429 | 1136.3 |
| TripoSR | ✓ | ~30s | 0.504 | 1427.2 |
| LIM(本文) | ✓ | ~3min | 0.142 | 811.1 |
关键发现¶
- 线性插值在运动区域完全失败,动态部分常消失;图像空间插值(FILM)则因多视角不一致产生鬼影。
- 因果一致性损失贡献显著:移除后 PSNR 下降 0.91 dB,证实连续时间自监督的必要性。
- 密集时间插值避免了显式对应求解:LIM 能精确插值 RGB 和 XYZ,避免了直接解决困难的关键帧间对应问题。
- 单目 4D 重建中 LIM 显著优于优化式方法:LPIPS 仅 0.142 vs Consistent4D 的 0.429,且速度更快。
亮点与洞察¶
- 首个前馈式跨类别 4D 资产重建模型,填补了 LRM 从静态到动态的空白
- 因果一致性损失优雅地解决了仅有离散关键帧监督时的连续时间泛化问题
- 规范坐标 + 网格跟踪设计使输出可直接用于游戏/影视生产流水线
- LIM 的递归特性(可接受自身中间特征作为输入)实现了灵活的级联推理
局限与展望¶
- 仅在合成数据上训练,迁移到真实数据需要在真实数据上训练的 LRM
- 对细薄结构的跟踪效果会退化
- 目前仅支持时间插值,不支持外推(extrapolation)
- 依赖扩散模型生成多视角可能引入额外误差
- 未探索更长序列(如数百帧)的累积误差问题
相关工作与启发¶
- LRM 的前馈范式证明了大规模 3D 数据集训练的可行性,LIM 将其扩展到 4D
- 与 L4GM 的关键区别:LIM 在 triplane 空间插值而非分别重建,且支持网格跟踪
- 因果一致性损失的思想可推广到其他需要连续时间泛化的任务
- 规范坐标方案可启发其他需要跨时间对应的动态重建方法
评分¶
- 新颖性: ⭐⭐⭐⭐ 首个前馈式通用 4D 重建模型,因果一致性损失设计巧妙
- 实验充分度: ⭐⭐⭐⭐ 覆盖插值质量、消融、网格跟踪、单目重建多个评估维度
- 写作质量: ⭐⭐⭐⭐ 方法动机清晰,技术路线层层递进
- 价值: ⭐⭐⭐⭐ 解决了实际生产中的核心需求(跟踪网格),实用性强
相关论文¶
- [CVPR 2025] PartRM: Modeling Part-Level Dynamics with Large Cross-State Reconstruction Model
- [CVPR 2025] Matrix3D: Large Photogrammetry Model All-in-One
- [CVPR 2025] SpectroMotion: Dynamic 3D Reconstruction of Specular Scenes
- [CVPR 2025] ARM: Appearance Reconstruction Model for Relightable 3D Generation
- [ECCV 2024] GRM: Large Gaussian Reconstruction Model for Efficient 3D Reconstruction and Generation