跳转至

📡 信号/通信

📷 CVPR2025 · 6 篇论文解读

ABC-Former: Auxiliary Bimodal Cross-domain Transformer with Interactive Channel Attention

提出 ABC-Former,通过引入 CIELab 色彩空间和 RGB 直方图作为辅助双模态信息,利用跨域 Transformer 和交互通道注意力(ICA)模块实现全局色彩知识的跨模态迁移,在 sRGB 白平衡矫正任务上取得 SOTA 效果;同时扩展为 ABC-FormerM 处理混合光照场景。

Continuous Space-Time Video Resampling with Invertible Motion Steganography

提出可逆运动隐写模块(IMSM),在视频时间下采样过程中将运动信息隐写到低帧率帧中,上采样时通过逆变换精确恢复运动细节,同时支持连续(非整数)的时空重采样因子,在保持下采样帧视觉质量的同时显著提升重建质量。

DiTASK: Multi-Task Fine-Tuning with Diffeomorphic Transformations

提出 DiTASK,利用连续分段仿射 (CPAB) 微分同胚变换对预训练权重矩阵的奇异值进行平滑变换而保持奇异向量不变,以每层仅约 32 个参数实现全秩更新的多任务微调,在 PASCAL MTL 上以 75% 更少的参数超越 MTLoRA 26.27%。

Neural Video Compression with Context Modulation

提出 DCMVC 框架,通过流定向(flow orientation)和上下文补偿(context compensation)两步调制时序上下文,在像素域和特征域充分利用参考信息,实现比 H.266/VVC 平均节省 22.7% 码率、比前 SOTA DCVC-FM 节省 10.1% 码率的压缩性能。

Radio Frequency Ray Tracing with Neural Object Representation for Enhanced RF Modeling

提出 RFScape 框架,通过为每个物体学习对象级的神经电磁属性表示,结合传统射线追踪的可组合性,在稀疏训练样本下实现高精度 RF 传播建模,比传统光线追踪提升 13 dB、比 SOTA 神经基线提升 5 dB。

Tuning the Frequencies: Robust Training for Sinusoidal Neural Networks

提出 TUNER,一种基于 Bessel 函数振幅-相位展开理论的正弦 MLP 训练方案,通过将隐藏神经元展开为输入频率整数组合的傅里叶级数实现鲁棒的频率初始化和训练中带限控制,显著提升隐式神经表示的收敛稳定性和重建质量。