Exploiting Deblurring Networks for Radiance Fields¶
会议: CVPR 2025
arXiv: 2502.14454
代码: 无
领域: 3D视觉
关键词: 辐射场去模糊, 深度学习去模糊, 新视角合成, 3D高斯溅射, 迭代优化
一句话总结¶
本文提出DeepDeblurRF,首次将DNN去模糊网络引入辐射场构建流程,通过设计RF引导去模糊机制和迭代交替框架,在模糊图像输入下实现高质量新视角合成,训练速度比现有方法快10-100倍,同时支持体素网格和3D高斯溅射等多种3D表示。
研究背景与动机¶
领域现状:从多视角图像构建辐射场(NeRF/3DGS)是新视角合成的主流方法。然而实际拍摄的图像通常存在运动模糊或散焦模糊,直接用于辐射场训练会导致模糊的3D表示。现有辐射场去模糊方法(Deblur-NeRF、DP-NeRF、BAD-NeRF、BAGS等)通过联合优化模糊核和辐射场来处理这个问题。
现有痛点:(1) 现有方法依赖线性模糊模型,将模糊像素描述为清晰像素的线性组合,无法处理饱和像素、噪声等非线性退化;(2) 缺乏清晰图像先验,仅依赖不同视角的互补信息来估计模糊核,当所有输入视角都有相似模糊方向时会完全失败;(3) 基于射线的方法需要为每个像素采样多条射线模拟模糊效果,导致训练时间极长(DP-NeRF需要30+小时,且需要双GPU)。
核心矛盾:DNN去模糊方法在处理非线性模糊、利用清晰图像先验、推理速度方面都有明显优势,但直接对模糊图像逐张去模糊后训练辐射场效果不佳——因为单张图像的信息量不足以完全恢复清晰细节。如何有效结合DNN去模糊的优势与辐射场的多视角信息聚合能力?
本文目标 (1) 突破线性模糊模型的限制,处理真实世界的非线性退化;(2) 利用DNN的清晰图像先验弥补互补信息不足的问题;(3) 大幅减少训练时间。
切入角度:辐射场构建过程中,来自多个去模糊图像的信息被"聚合"到统一的3D表示中,渲染出的图像比任何单张去模糊结果都更清晰。反过来,这些更清晰的渲染图像可以作为引导信号,帮助去模糊网络在下一轮产生更好的结果。
核心 idea:通过"DNN去模糊→辐射场构建→渲染图引导再去模糊"的迭代交替流程,逐步提升去模糊和辐射场的质量。
方法详解¶
整体框架¶
DeepDeblurRF输入M张模糊图像,输出清晰的辐射场。流程分三步迭代执行:(1) 初始去模糊——用现成的NAFNet对每张模糊图像进行单图去模糊;(2) 辐射场构建——用去模糊图像估计相机位姿(COLMAP)并训练辐射场(支持Plenoxels或3DGS两种表示);(3) RF引导去模糊——从辐射场渲染对应视角的图像作为引导,与原始模糊图像一起输入改进的去模糊网络,得到更清晰的去模糊结果。迭代N=5次。
关键设计¶
-
RF引导去模糊 (RF-guided Deblurring):
- 功能:利用辐射场渲染的聚合信息引导DNN去模糊网络产生更高质量的结果
- 核心思路:在每次迭代中,从当前辐射场\(V^i\)渲染出与每个输入视角对应的图像\(R_m^i\)。虽然去模糊图像\(D_m^{i-1}\)可能含有残余模糊和伪影,但渲染图像\(R_m^i\)通过聚合多视角信息获得了更准确的细节。将渲染图像\(R_m^i\)与原始模糊图像\(B_m\)拼接后输入修改版NAFNet(第一层改为接受6通道输入),用渲染图像引导去模糊过程,输出更高质量的去模糊图像\(D_m^i\)。
- 设计动机:单图去模糊受限于单张图像的信息量,但辐射场通过"跨视角信息聚合"天然产生更高质量的图像。将这种聚合信息反馈给去模糊网络,形成良性循环。
-
BlurRF-Synth 大规模合成数据集:
- 功能:为训练辐射场去模糊框架提供大规模模糊-清晰配对数据
- 核心思路:使用Blender渲染100个3D模型场景,分别生成运动模糊和散焦模糊的训练/测试集。运动模糊通过Bézier插值采样6DOF相机轨迹,在51个中间位姿渲染后平均。散焦模糊通过调整Blender的景深参数生成。关键创新在于引入了RSBlur的真实退化模拟Pipeline——在线性sRGB空间平均后添加饱和像素,转入RAW空间添加shot/read噪声,再转回sRGB空间。总计4,350对模糊-清晰配对。
- 设计动机:此前所有辐射场去模糊方法都不需要大规模训练集(因为它们采用迭代优化而非学习方法),导致没有合适的训练数据。现有评估数据集(Deblur-NeRF等)规模小且忽略了真实相机噪声等非线性因素。
-
迭代交替优化框架:
- 功能:逐步提升辐射场质量和去模糊质量
- 核心思路:设置N=5次迭代。每次迭代包含两步:(1) 用上一轮的去模糊图像重建辐射场;(2) 用辐射场渲染引导图像,执行RF引导去模糊。不同迭代使用独立训练的去模糊网络权重(每个迭代对应固定的噪声和模糊特性)。最后一次迭代只做辐射场构建。去模糊图像可能含有残余模糊和伪影,但辐射场构建步骤通过聚合多个有重叠区域的去模糊图像,天然抑制了个体图像中的错误信息。
- 设计动机:一次性去模糊+辐射场构建效果不佳(实验证实PSNR仅28.40),但通过迭代,每一轮的辐射场渲染图像都比上一轮更清晰,从而为下一轮去模糊提供越来越好的引导信号,实现质量的逐步攀升。
损失函数 / 训练策略¶
去模糊网络使用Adam优化器(\(\beta_1=0.9\),\(\beta_2=0.9\)),学习率从\(10^{-3}\)通过余弦退火降至\(10^{-7}\)。辐射场构建使用各自框架(Plenoxels/3DGS)的标准训练策略。对于DeepDeblurRF-P,每38,400步进行体素剪枝和上采样;对于DeepDeblurRF-G,使用Deblurring-3DGS的深度剪枝和额外点策略应对稀疏点云。
实验关键数据¶
主实验¶
| 方法 | 3D表示 | PSNR↑ (运动模糊) | PSNR↑ (散焦模糊) | 训练时间 |
|---|---|---|---|---|
| Deblur-NeRF | MLP | 27.67 | 30.03 | 31.33h |
| DP-NeRF | MLP | 28.03 | 30.15 | 30.00h* |
| PDRF-10 | Voxel | 28.33 | 30.03 | 4.26h |
| DeepDeblurRF-P | Voxel | 29.81 | 32.51 | 1.14h |
| Deblurring-3DGS | 3DGS | 26.30 | 29.37 | 0.33h |
| BAGS | 3DGS | 27.41 | 29.90 | 1.25h |
| DeepDeblurRF-G | 3DGS | 29.94 | 32.58 | 0.28h |
BlurRF-Synth测试集上。DeepDeblurRF-G在所有方法中PSNR最高且训练最快。运动模糊上比BAGS高+2.53dB,散焦模糊上高+2.68dB。*DP-NeRF需双GPU。
消融实验¶
| 配置 | PSNR (运动模糊) | PSNR (散焦模糊) | 说明 |
|---|---|---|---|
| N=1 (无迭代) | 28.40 | 30.74 | 仅单次去模糊+构建 |
| N=3 | 29.63 | 32.15 | 3次迭代 |
| N=5 (完整) | 29.94 | 32.58 | 5次迭代最优 |
关键发现¶
- DeepDeblurRF-G训练仅需0.28小时,比DP-NeRF(30h)快107倍,比PDRF-10(4.26h)快15倍。
- 在BlurRF-SB(所有视角相同模糊方向)上,现有方法因缺乏互补信息完全失败,DeepDeblurRF-G的PSNR达到29.59(vs BAGS的24.49),证明了DNN清晰图像先验的价值。
- 在真实世界低光噪声场景(BlurRF-Real)上,DeepDeblurRF-G的非参考图像质量指标NIQE=5.423(最低=最优),显著优于其他方法,验证了处理非线性退化的能力。
- 迭代过程中PSNR持续上升:N=1→3→5对应运动模糊PSNR为28.40→29.63→29.94。
亮点与洞察¶
- 思路转变非常聪明:现有方法都试图在辐射场框架内建模模糊核,本文完全跳出这个范式,借用成熟的DNN去模糊方法,通过巧妙的迭代框架弥补单图去模糊的信息不足。这种"站在巨人肩膀上"的策略避免了重复造轮子。
- RF引导去模糊利用了辐射场独特的信息聚合特性:辐射场本质上是多视角信息的3D融合,其渲染结果天然具有"去噪"效果。将这种特性作为反馈信号用于去模糊,是对辐射场能力的创造性利用。
- BlurRF-Synth数据集具有长远价值:它是首个专为辐射场去模糊设计的大规模训练+评估数据集,模拟了真实相机的非线性退化过程,可以惠及后续研究。
局限与展望¶
- 需要额外训练去模糊网络(虽然训练一次后可复用),增加了方法的初始部署成本。
- 每次迭代都需要重新运行COLMAP估计位姿,在去模糊质量较差的早期迭代中位姿估计可能不准确。
- 5次迭代中每次都用独立的去模糊网络参数,总共需要训练9个网络(1个初始+4×2种模糊类型),参数量较大。
- 对极端模糊(如超长曝光)的处理能力受限于预训练去模糊网络的能力上限。
相关工作与启发¶
- vs Deblur-NeRF/DP-NeRF: 这些方法用MLP建模模糊核,受限于线性模糊假设和多射线渲染的高计算开销。DeepDeblurRF通过外部DNN处理模糊,完全避免了这些限制,质量更高速度更快。
- vs BAGS: BAGS用密集逐像素模糊核优化处理模糊,计算量大。DeepDeblurRF利用大规模预训练的去模糊先验替代逐场景优化,泛化性和效率都更好。
- vs 单图去模糊 (NAFNet): 直接用NAFNet逐张去模糊后训练辐射场效果不佳。DeepDeblurRF通过RF引导的迭代框架弥补了单图信息不足的问题,将单图去模糊的优势转化为辐射场构建的优势。
评分¶
- 新颖性: ⭐⭐⭐⭐ 首次将DNN去模糊引入辐射场,RF引导迭代框架设计巧妙
- 实验充分度: ⭐⭐⭐⭐⭐ 运动/散焦两种模糊,合成/真实多个数据集,两种3D表示
- 写作质量: ⭐⭐⭐⭐ 结构清晰,动机阐述充分
- 价值: ⭐⭐⭐⭐⭐ 大幅推进了辐射场去模糊的实用性,BlurRF-Synth数据集有持续价值
相关论文¶
- [CVPR 2025] RelationField: Relate Anything in Radiance Fields
- [CVPR 2025] Joint Optimization of Neural Radiance Fields and Continuous Camera Motion from a Monocular Video
- [CVPR 2025] DiET-GS: Diffusion Prior and Event Stream-Assisted Motion Deblurring 3D Gaussian Splatting
- [CVPR 2025] Depth-Guided Bundle Sampling for Efficient Generalizable Neural Radiance Field Reconstruction
- [CVPR 2025] Sparse Voxels Rasterization: Real-time High-fidelity Radiance Field Rendering