On the Generalization Capacities of MLLMs for Spatial Intelligence¶
会议: ICLR 2026
arXiv: 2603.06704
代码: github.com/Vegetebird/CA-MLLM
领域: 3D空间理解 / MLLM
关键词: 相机感知, 空间智能, 跨相机泛化, 3D定位, 几何先验
一句话总结¶
揭示了 RGB-only 空间推理 MLLM 因忽略相机内参导致的焦距-深度歧义这一根本缺陷,提出 Camera-Aware MLLM 框架,通过稠密相机射线嵌入、相机感知数据增强和几何先验蒸馏,在跨相机泛化的空间定位任务上将 F1 从 39.1% 提升至 52.1%。
研究背景与动机¶
领域现状:MLLM 被越来越多地用于空间推理(3D定位、深度估计、导航),主流范式直接用 RGB 图像/视频端到端训练,不依赖显式 3D 数据即可取得不错的效果。
现有痛点:RGB-only MLLM 忽略相机内参,导致无法区分"近处小物体"与"远处大物体"(尺寸-深度歧义)和"广角近景"与"长焦远景"(焦距-深度歧义),模型过拟合到训练相机分布。
核心矛盾:投影方程 \(h_{\text{proj}} = fH/Z\) 中 \((f, H, Z)\) 构成等价类 \((f, H, Z) \sim (\lambda f, H, \lambda Z)\),没有相机内参就无法解耦——这不是模型规模或架构问题,而是根本性的信息缺失。
本文目标 使 MLLM 在不同相机参数下都能进行准确的空间推理,而非仅在训练相机上有效。
切入角度:从单目度量深度估计(Metric3D、UniDepth)中汲取相机感知的教训,将其推广到 MLLM 级别的通用空间推理。
核心 idea:通过将相机内参作为每个视觉 token 的条件信息注入 MLLM,让模型学会解耦相机属性与场景内容,实现跨相机泛化。
方法详解¶
整体框架¶
输入图像经过 Geometry-Aware Visual Encoder 处理:视觉编码器提取特征 \(F_{\text{vis}}\) → 叠加稠密相机射线嵌入 \(E_{\text{cam}}\) → 叠加几何先验嵌入 \(E_{\text{geo}}\) → 投影到 LLM 进行多模态推理。训练时施加相机感知几何增强。
关键设计¶
-
稠密相机射线嵌入 (Dense Camera Ray Embedding):
- 做什么:将相机内参信息编码到每个视觉 token 中
- 核心思路:对每个网格位置 \((i,j)\) 计算归一化射线方向 \(R_x[i,j] = (u_{ij} - c_x) / f_x\),\(R_y[i,j] = (v_{ij} - c_y) / f_y\),加上全局焦距 \(f_x, f_y\),通过正弦嵌入层生成 \(E_{\text{cam}} \in \mathbb{R}^{H \times W \times D}\),与 \(F_{\text{vis}}\) 逐元素相加
- 设计动机:相比 Metric3D 的图像规范化方案(计算昂贵且产生大量无效 token),直接将射线信息注入每个 token 更高效且保留了原始分辨率
-
相机感知几何增强 (Camera-Aware Geometric Augmentation):
- 做什么:在训练时合成不同相机参数以扩展相机分布多样性
- 核心思路:对训练图像施加两类变换——(i) 缩放:图像缩放因子 \(s\),内参同步更新 \((f_x, f_y, c_x, c_y) \mapsto (sf_x, sf_y, sc_x, sc_y)\);(ii) 平移:偏移主点 \((c_x, c_y)\) 模拟偏心投影。图像和内参一致更新保证几何正确性
- 设计动机:现有 3D 数据集相机种类有限(如 ScanNet 主要用 Structure Sensor),模型仅靠真实数据无法充分解耦相机属性与场景内容
-
几何先验蒸馏 (Geometric Prior Distillation):
- 做什么:从预训练的单目度量深度估计模型蒸馏 3D 几何知识
- 核心思路:用冻结的 UniDepth v2(在 10M+ RGB-深度对上训练)为每张训练图像预测稠密 3D 点云,编码为先验嵌入 \(E_{\text{geo}} \in \mathbb{R}^{H \times W \times D}\) 叠加到视觉特征。推理时仍然是 RGB-only 输入
- 设计动机:UniDepth 可从图像直接估计内参,使框架扩展到无内参的互联网图像,解决了大量 2D 数据集缺乏相机参数的难题
损失函数 / 训练策略¶
基于 VG-LLM 基线训练,在 ScanNet、ARKitScenes、Matterport3D、3RScan、SUN RGB-D、Objectron 等多源数据上联合训练。对于通用空间推理,还加入 LLaVA-Video-178k 和 SPAR 数据。
实验关键数据¶
主实验¶
| 数据集 | 指标 | 本文(4B) | 对比方法 | 说明 |
|---|---|---|---|---|
| SPAR-Bench (full) | Avg. | 68.35 | 63.25(SPAR-8B) | 超越8B基线 |
| SPAR-Bench (full) | High-level | 81.74 | 72.92(VG-LLM-4B) | 高级空间推理优势大 |
| VSI-Bench | Abs. Dist. | 71.3 | 66.0(VG-LLM-4B) | 绝对距离估计提升显著 |
| CV-Bench-3D | Avg. | 90.7 | 91.3(VG-LLM-4B) | 与VG-LLM持平 |
| BLINK-Spatial Multi. View | 多视角 | 87.2 | 54.1(VG-LLM-4B) | 多视角理解提升+33.1 |
消融实验¶
| 配置 | \(F1_{0.25}\) | 说明 |
|---|---|---|
| Baseline (无任何组件) | 39.1 | ScanNet-val x1.2 跨相机测试 |
| + Ray Embedding | 41.2 | +2.1, 射线嵌入有效 |
| + Geom. Augmentation | 42.0 | +2.9, 增强数据多样性有效 |
| + Prior Distillation | 43.1 | +4.0, 蒸馏贡献最大 |
| Ray + Prior | 44.3 | 二者协同 |
| 全部组件 | 52.1 | +13.0, 三者联合产生质变 |
关键发现¶
- 相机无关的 MLLM 在简单图像缩放下性能暴跌(F1 从 46.5→25.8 缩放0.8×),证明模型学到的是相机特定的捷径而非通用3D几何原理
- 多源数据集混合训练反而降低了 ScanNet 上的性能(F1 46.5→46.0),因为不同相机的几何信号相互冲突
- 消融显示三个组件需要协同工作:单独使用效果有限,全部组合后产生质变(39.1→52.1)
亮点与洞察¶
- 理论分析的深度令人印象深刻:从投影方程出发推导等价类歧义,完美解释了实验中的泛化失败(简单缩放导致深度预测系统偏差 \(Z_{\text{pred}} \approx Z_{\text{physical}}/s\))。问题诊断本身就是重要贡献。
- 几何先验蒸馏的巧妙之处在于它让框架可以扩展到无内参的互联网图像。UniDepth 充当了"内参估计器"的角色,极大拓展了训练数据范围。
局限与展望¶
- 当前仅验证了单帧和视频 3D 检测/定位任务,未涉及深度估计、3D 重建等更广泛的空间推理任务
- 几何先验蒸馏依赖 UniDepth v2 的质量,在 UniDepth 失败的场景(如极端光照、镜面反射)下可能失效
- 模型仅 4B参数,与 GPT-5、Gemini-2.5-Pro 等大模型的详细对比有限
相关工作与启发¶
- vs VG-LLM: VG-LLM 是 RGB-only 范式的代表,本文以其为基线直接展示相机感知的提升;VG-LLM 在跨相机场景下性能严重退化
- vs Metric3D / UniDepth: 这些工作在单目度量深度估计中证明了相机感知的必要性;本文将这一洞察推广到更通用的 MLLM 空间推理
- vs SPAR-Bench: SPAR 提供了一个全面的空间推理基准,但未解决相机泛化问题;本文的方法在 SPAR-Bench 上取得最优
评分¶
- 新颖性: ⭐⭐⭐⭐⭐ 首次系统性分析并解决 MLLM 空间推理的相机泛化问题,理论分析深入
- 实验充分度: ⭐⭐⭐⭐ 跨相机泛化实验设计精妙,消融全面,多基准验证
- 写作质量: ⭐⭐⭐⭐⭐ 问题诊断→理论分析→实验验证的叙事流畅完美
- 价值: ⭐⭐⭐⭐⭐ 揭示了领域根本性问题,提出的三组件framework可直接应用于各种空间MLLM
相关论文¶
- [ICCV 2025] SITE: towards Spatial Intelligence Thorough Evaluation
- [ICLR 2026] From Spatial to Actions: Grounding Vision-Language-Action Model in Spatial Foundation Priors
- [ICLR 2026] Constructive Distortion: Improving MLLMs with Attention-Guided Image Warping
- [ICLR 2026] Let's Think in Two Steps: Mitigating Agreement Bias in MLLMs with Self-Grounded Verification
- [ICLR 2026] Evaluating VLMs' Spatial Reasoning Over Robot Motion: A Step Towards Robot Planning with Motion Preferences