跳转至

🖼️ 图像恢复

📷 CVPR2026 · 共 15

BluRef: Unsupervised Image Deblurring with Dense-Matching References

提出 BluRef,首个利用非配对参考清晰图像通过稠密匹配生成伪 ground truth 来训练去模糊网络的无监督框架,性能逼近甚至超越有监督方法。

CDA-VSR: Compressed-Domain-Aware Online Video Super-Resolution

CDA-VSR利用视频比特流中免费可得的压缩域信息(运动向量、残差图、帧类型)来分别指导帧对齐、特征融合和自适应重建,在REDS4数据集上比SOTA方法TMP提升PSNR达0.13dB的同时实现>2倍推理速度(~93 FPS@320×180,RTX 3090)。

PNG: Diffusion-Based sRGB Real Noise Generation via Prompt-Driven Noise Representation Learning

PNG提出用可学习的Global/Local Prompt组件从真实噪声中自动提取噪声特征(替代ISO/相机型号等metadata),通过Prompt AutoEncoder编码噪声到latent空间+Prompt DiT(基于一致性模型)一步生成latent code,实现无需任何metadata的真实sRGB噪声合成,下游DnCNN去噪在SIDD上仅落后真实数据0.08dB。

Disentangled Textual Priors for Diffusion-based Image Super-Resolution

提出 DTPSR,通过将文本先验沿空间层级(全局/局部)和频率语义(低频/高频)两个维度解耦,构建解耦的跨注意力注入管线和多分支 CFG 策略,实现感知质量优越的扩散超分辨率。

Empowering Semantic-Sensitive Underwater Image Enhancement with VLM

提出一种利用 VLM 生成语义引导图的即插即用策略(-SS),通过交叉注意力注入和语义对齐损失的双重引导机制,使水下图像增强模型在恢复时聚焦语义关键区域,显著提升感知质量和下游检测/分割性能。

Empowering Semantic-Sensitive Underwater Image Enhancement with VLM

提出 VLM 驱动的语义敏感学习策略,通过 VLM 生成目标物体描述、BLIP 构建空间语义引导图、双重引导机制(cross-attention + 语义对齐损失)注入 UIE decoder,使增强结果在感知质量和检测/分割下游任务上同时提升。

FiDeSR: High-Fidelity and Detail-Preserving One-Step Diffusion Super-Resolution

提出 FiDeSR,一种高保真和细节保持的单步扩散超分框架,通过细节感知加权(DAW)、隐空间残差精炼块(LRRB)和潜在频率注入模块(LFIM)三个互补组件,同时解决单步扩散超分中的结构保真度退化和高频细节恢复不足问题。

Fractals made Practical: Denoising Diffusion as Partitioned Iterated Function Systems

证明 DDIM 确定性反向链等价于分区迭代函数系统(PIFS),从分形几何推导出三个可计算量(收缩阈值 \(L_t^*\)、对角膨胀函数 \(f_t(\lambda)\)、全局膨胀阈值 \(\lambda^{**}\)),统一解释了余弦调度偏移、分辨率 logSNR 偏移、Min-SNR 损失加权和 Align Your Steps 采样调度四种经验设计选择。

Fractals made Practical: Denoising Diffusion as Partitioned Iterated Function Systems

证明了DDIM确定性反向链本质上是一个分区迭代函数系统(PIFS),并从该框架推导出三个无需模型评估的可计算几何量,从第一性原理统一解释了扩散模型的双阶段去噪动力学、自注意力的有效性,以及四种经验设计选择(cosine schedule offset、分辨率相关logSNR偏移、Min-SNR损失加权、Align Your Steps采样)。

Learning Latent Transmission and Glare Maps for Lens Veiling Glare Removal

提出 VeilGen + DeVeiler 框架,通过物理引导的 Stable Diffusion 生成模型学习潜在透射率和眩光图以合成逼真的复合退化训练数据,并用可逆约束训练修复网络,实现简化光学系统中像差与雾化眩光的联合去除。

MAD-Avatar: Motion-Aware Animatable Gaussian Avatars Deblurring

首次实现从模糊视频直接重建清晰可驱动3D高斯人体avatar:提出3D感知的物理模糊形成模型(将模糊分解为子帧SMPL运动+canonical 3DGS),用B-spline插值+位姿变形网络建模子帧运动,帧间正则化解决运动方向歧义,在合成和真实数据集上大幅超越"2D去模糊+3DGS"两阶段方案(PSNR提升约2.5dB)。

OARS: Process-Aware Online Alignment for Generative Real-World Image Super-Resolution

提出了OARS框架,通过基于MLLM的过程感知奖励模型COMPASS和渐进式在线强化学习,将生成式真实世界超分辨率模型与人类视觉偏好对齐,在感知质量和保真度之间实现自适应平衡。

POLISH'ing the Sky: Wide-Field and High-Dynamic Range Interferometric Image Reconstruction

在 POLISH 框架基础上提出 POLISH+ 和 POLISH++,通过分块训练-拼接策略和基于 arcsinh 的非线性变换,实现宽视场(12,960×12,960 像素)和高动态范围(\(\sim 10^6\))条件下的射电干涉图像重建与超分辨率,并首次展示深度学习方法可超分辨强引力透镜系统。

RAW-Domain Degradation Models for Realistic Smartphone Super-Resolution

通过对不同智能手机传感器进行设备特定的退化标定(模糊PSF和噪声模型),将公开渲染图像逆处理(unprocess)到各手机的RAW域来生成逼真的训练对,训练的RAW-to-RGB SR模型在未见设备上的真实数据上显著优于使用任意退化参数的基线。

ShiftLUT: Spatial Shift Enhanced Look-Up Tables for Efficient Image Restoration

提出 ShiftLUT,通过可学习空间偏移模块(LSS)实现 LUT 方法中最大感受野(65×65),配合非对称双分支架构和误差有界自适应采样(EAS),在存储 104KB + 推理 84ms 的条件下超越所有现有 LUT 方法。