E-RayZer: Self-supervised 3D Reconstruction as Spatial Visual Pre-training¶
会议: CVPR 2026
arXiv: 2512.10950
代码: qitaozhao.github.io/E-RayZer
领域: 3D视觉
关键词: 自监督预训练, 3D高斯泼溅, 多视角重建, 位姿估计, 视觉表征学习
一句话总结¶
E-RayZer是首个真正自监督的前馈式3D高斯重建模型,用显式3D高斯替代RayZer的隐式潜空间场景表示,配合基于视觉重叠度的课程学习策略,在零3D标注条件下学到几何接地的3D感知表征,位姿估计上碾压RayZer(RPA@5°从≈0提升至90.8),下游3D任务frozen-backbone probing大幅领先DINOv3/CroCo v2等主流预训练模型,甚至比肩有监督VGGT。
研究背景与动机¶
自监督预训练在文本、2D图像和视频领域驱动了foundation model的快速进步,但从多视角图像中学习3D感知表征这一方向仍然严重缺失。当前主流3D视觉模型依赖SfM系统(如COLMAP)的伪标签进行全监督训练,本质上低效、不精确且不可扩展。
前驱工作RayZer尝试通过潜空间视角合成实现自监督3D学习,但存在根本性缺陷:其相机估计、隐式场景重建和Transformer渲染三个模块在潜空间中联合学习,缺乏3D归纳偏置,导致模型可以通过视频插值等"捷径"(shortcut solution)获得高质量合成,而其位姿空间既不可解释也不具有物理意义。具体证据是RayZer在位姿估计精度上几乎为零(RPA@5°≈0),说明它并非真正理解3D几何。
核心洞察:3D归纳偏置对于3D表征学习仍然必要,但必须以保持学习可扩展性的方式引入。E-RayZer的方案是用显式3D高斯替代隐式表示,通过物理渲染约束迫使模型必须理解真实3D几何,同时设计fine-grained课程学习策略解决显式3D带来的训练收敛困难。
方法详解¶
整体框架¶
E-RayZer接收V张多视角图像,pipeline分为三步:
- 相机参数预测:多视角Transformer \(f_\theta^{\text{cam}}\) 预测所有输入图像的内参K和外参T
- 显式3D重建:将图像分为参考集 \(\mathcal{I}_{\text{ref}}\) 和目标集 \(\mathcal{I}_{\text{tgt}}\),从参考视角预测像素对齐的3D高斯 \(\mathcal{G}\)
- 自监督渲染:用自预测的目标视角相机参数渲染3D高斯,与真实目标图像计算光度损失
训练使用10张输入图像,其中5张作为参考视角,5张作为目标视角。整个过程零3D标注。
关键设计¶
-
显式3D高斯场景重建(替代RayZer隐式表示):
- 功能:从参考视角直接预测像素对齐的3D高斯,作为场景的显式几何表示
- 核心思路:先用场景Transformer \(f_{\psi'}^{\text{scene}}\) 对posed参考视角编码为多视角聚合的latent tokens \(\mathbf{s}_{\text{ref}}\),再通过轻量级decoder \(f_\omega^{\text{gauss}}\)(单层线性层)将每个像素token解码为3D高斯参数——射线距离 \(d_i\)、方向四元数 \(\mathbf{q}_i\)、球谐系数 \(\mathbf{C}_i\)、缩放 \(\mathbf{s}_i\)、透明度 \(\alpha_i\)
- 设计动机:3D高斯支持闭式可微渲染(通过修改gsplat支持对内参K的梯度反传),无需学习Transformer渲染器(消除RayZer的 \(f_\phi^{\text{rend}}\)),同时注意力复杂度从 \(\mathcal{O}((K_{\text{ref}}hw + n_z)^2)\) 降为 \(\mathcal{O}((K_{\text{ref}}hw)^2)\)
-
消除视图插值捷径:
- 功能:防止模型学到基于帧序的视频插值而非真正3D理解
- 核心思路:(a) 完全移除RayZer的image index embeddings——这是导致插值捷径的主因;(b) 采用VGGT风格的局部-全局交替注意力Transformer,局部注意力边界自然定义图像-相机关联;(c) 使用成对位姿预测:将canonical view和target view的相机token拼接回归相对位姿,因此无需区分不同类型的camera/register tokens
- 设计动机:RayZer的位姿空间不可解释是因为其图像索引嵌入为模型提供了帧序信息的强线索,使其倾向于学习插值而非几何推理
-
基于视觉重叠度的课程学习:
- 功能:解决显式3D从头训练不收敛的问题,同时自适应对齐异构数据源
- 核心思路:为每个训练序列预计算视觉重叠度剖面 \(O_u(\Delta t)\)(通过均匀采样帧三元组计算平均成对重叠度),训练时线性衰减重叠度下限 \(o(s) = s \cdot o_{\min} + (1-s) \cdot o_{\max}\),从高重叠(易样本)逐步过渡到低重叠(难样本)
- 两种重叠度度量:语义重叠(DINOv2余弦相似度,无监督)和几何重叠(UFM共视性,用3D标注训练),实验表明二者效果相当
- 设计动机:RayZer基于固定帧间隔的策略只是重叠度的粗糙近似——同样帧间隔在不同序列中可能对应截然不同的视觉重叠度,且无法自适应扩展到异构数据源
损失函数 / 训练策略¶
- 光度自监督损失:\(\mathcal{L} = \sum \text{MSE}(I, \hat{I}) + \lambda \cdot \text{Percep}(I, \hat{I})\),Percep为感知损失
- 架构参数:patch size 16,图像分辨率256,相机和场景Transformer各8层(每层1个global attention + 1个frame attention),特征维度768,12个注意力头
- 训练设置:8×A100 GPU,全局batch 192(每卡24),共152K迭代(约198小时)
- 学习率:3K步线性预热至4e-4,余弦衰退至0
- 课程推进:前86K步线性推进,几何重叠从1.0→0.5,语义重叠从1.0→0.75
- 优化器:AdamW(β₁=0.9, β₂=0.95),梯度裁剪1.0,梯度范数>5.0时跳过该步
- 7数据集混合采样比:DL3DV 1.0, CO3Dv2 0.25, RE10K 0.5, MVImgNet 0.25, ARKitScenes 0.5, WildRGB-D 0.25, ACID 0.5
实验关键数据¶
主实验:位姿估计与新视角合成(Tab.1)¶
与自监督/半监督方法对比。E-RayZer和RayZer为完全自监督从头训练,SPFSplat以有监督MASt3R初始化。
| 方法 | 训练数据 | WildRGB-D PSNR↑ | WildRGB-D @5°↑ | WildRGB-D @15°↑ | DL3DV @5°↑ | DL3DV @15°↑ |
|---|---|---|---|---|---|---|
| SPFSplat | RE10K+extra | 16.7 | 31.5 | 58.0 | 19.5 | 40.6 |
| E-RayZer | RE10K | 21.0 | 40.3 | 89.4 | 21.2 | 55.0 |
| RayZer | DL3DV | 25.9 | 0.0 | 0.2 | 0.0 | 0.6 |
| E-RayZer | DL3DV | 24.3 | 84.5 | 98.4 | 72.0 | 88.4 |
| RayZer | 7数据集 | 26.7 | 0.2 | 9.3 | 0.0 | 1.9 |
| E-RayZer | 7数据集 | 24.9 | 90.8 | 98.6 | 59.9 | 82.9 |
E-RayZer在位姿估计上碾压RayZer(从≈0%提升到60-90%),同时NVS质量接近(PSNR略低2dB,因为RayZer过拟合于插值而非真3D)。
与有监督VGGT对比(Tab.2,DL3DV训练)¶
| 方法 | 监督 | DL3DV @5° | RE10K @5° | WildRGB-D @5° | BlendedMVS @5° | NAVI @5° | ScanNet++ @5° |
|---|---|---|---|---|---|---|---|
| E-RayZer | 自监督 | 72.0 | 83.0 | 51.1 | 22.9 | 20.7 | 7.7 |
| VGGT* | 有监督 | 79.6 | 80.4 | 32.5 | 17.0 | 14.3 | 6.7 |
| VGGT*+E-RayZer init | 有监督 | 87.3 | 85.3 | 56.2 | 29.2 | 26.9 | 14.3 |
自监督E-RayZer在多个OOD数据集上超越有监督VGGT(尤其是RPA@5°严格指标),且E-RayZer初始化的VGGT全面最优。
下游任务Probing(Tab.3,Frozen-backbone)¶
| 预训练方法 | ScanNet++ AbsRel↓ | ScanNet++ δ<1.25↑ | ScanNet++ @5°↑ | BlendedMVS AbsRel↓ | BlendedMVS @5°↑ |
|---|---|---|---|---|---|
| DINOv2 | 0.193 | 74.9 | 0.8 | 0.366 | 1.1 |
| DINOv3 | 0.201 | 73.2 | 0.4 | 0.397 | 1.2 |
| CroCo v2 | 0.203 | 73.0 | 1.4 | 0.412 | 1.6 |
| VideoMAE V2 | 0.175 | 76.3 | 0.1 | 0.371 | 1.0 |
| RayZer | 0.161 | 79.3 | 4.7 | 0.351 | 16.7 |
| E-RayZer | 0.116 | 87.1 | 13.8 | 0.245 | 26.5 |
E-RayZer在frozen-backbone设置下大幅领先所有基线,深度估计AbsRel比DINOv2低40%(0.116 vs 0.193),位姿@5°高17倍(13.8 vs 0.8),证明其特征确实具有强3D空间感知能力。
消融实验:课程学习策略(Tab.6,7数据集)¶
| 课程策略 | PSNR↑ | RPA@5°↑ | RPA@15°↑ | RPA@30°↑ |
|---|---|---|---|---|
| 无课程 | 15.9 | 2.1 | 21.6 | 40.7 |
| 帧间隔课程 | 19.1 | 43.8 | 72.1 | 82.9 |
| 语义重叠课程 | 19.7 | 58.7 | 81.0 | 89.8 |
| 几何重叠课程 | 19.7 | 59.9 | 82.9 | 90.2 |
无课程训练近乎崩溃(RPA@5°仅2.1%),帧间隔课程有效但精度不足,视觉重叠课程在所有指标上显著最优。两种重叠度变体表现接近,说明无监督的语义重叠即可替代需要3D标注的几何重叠。
关键发现¶
- 自监督与有监督互补:E-RayZer初始化VGGT*后性能全面提升(Tab.2最后一行),说明二者学到的知识高度互补,即使在同一数据上训练
- 数据多样性 > 数据量:DL3DV(高质量)单独训练优于RE10K,7数据集混合训练泛化最佳;object-centric数据集需降采样比
- 显式3D的代价:NVS质量略低于RayZer(PSNR低≈2dB),但这恰好说明RayZer过拟合于视频插值而非真3D理解
- Flow任务上略弱于RayZer:Tab.4显示E-RayZer在pairwise flow估计上EPE 1.254 vs RayZer 1.105,隐式表示对低层运动估计有天然优势
亮点与洞察¶
- 从"自监督视角合成"到"自监督3D重建"是一个范式转变,显式几何约束消除了捷径解,使位姿空间从不可解释变为几何接地
- 课程学习策略设计精巧:用视觉重叠度作为跨数据源的统一难度度量,自动适配异构数据分布,比手工指定帧间隔优雅且可扩展
- 自监督E-RayZer在严格指标(RPA@5°)上超越部分有监督模型,说明大规模自监督本身就能产生几何接地的3D理解——数据多样性和质量才是可扩展性的真正驱动力
- gsplat修改支持对内参K的梯度反传是一个关键工程贡献,使得整个pipeline端到端可微
局限与展望¶
- 仅支持静态场景,限制了可用训练数据规模——扩展到动态场景以利用通用视频是最重要的未来方向
- 课程策略假设连续视频帧有较均匀的相机运动,对稀疏图像或剧烈视角变化可能效果下降
- NVS质量略低于隐式方法RayZer,在需要高质量渲染的场景中可能不如
- 目前仅验证了ViT-Base规模,更大模型的scaling behavior有待探索
相关工作与启发¶
- vs VGGT(有监督3D):E-RayZer证明自监督在几何理解上可与有监督比肩,且两种范式互补——自监督预训练+有监督微调可能是最优策略
- vs DINOv3/CroCo v2(2D预训练):frozen-backbone probing差距巨大,说明2D视觉特征缺乏真正的3D空间感知能力
- vs SPFSplat(半监督3DGS):即使SPFSplat使用MASt3R初始化(14数据集有监督),E-RayZer仍全面超越,证明了从头自监督学习的潜力
- 显式3D + 物理渲染作为自监督信号的框架具有通用性,可推广到其他3D感知任务
评分¶
- 新颖性: ⭐⭐⭐⭐⭐ 首个真正自监督的前馈3D高斯重建,从隐式到显式的范式突破
- 实验充分度: ⭐⭐⭐⭐⭐ 9个评测数据集、多任务(NVS/位姿/深度/光流)、消融全面、含与VGGT公平对比和scaling分析
- 写作质量: ⭐⭐⭐⭐ 逻辑清晰,motivation从RayZer缺陷自然引出,课程学习的动机图效果好
- 价值: ⭐⭐⭐⭐⭐ 建立了3D视觉自监督预训练新范式,自监督预训练+有监督微调的互补性具有重大启示
相关论文¶
- [ECCV 2024] Formula-Supervised Visual-Geometric Pre-training (FSVGP)
- [CVPR 2026] 3D sans 3D Scans: Scalable Pre-training from Video-Generated Point Clouds
- [CVPR 2026] Regularizing INR with Diffusion Prior for Self-Supervised 3D Reconstruction of Neutron Computed Tomography Data
- [CVPR 2026] PointINS: Instance-Aware Self-Supervised Learning for Point Clouds
- [ICCV 2025] RayZer: A Self-supervised Large View Synthesis Model