跳转至

📐 优化/理论

📹 ICCV2025 · 8 篇论文解读

Addressing Representation Collapse in Vector Quantized Models with One Linear Layer

提出SimVQ方法,通过一个可学习的线性变换层对码本向量进行重参数化(\(\bm{C}\bm{W}\)),将码本的不相交优化转化为联合空间优化,从根本上解决VQ模型中的表示崩塌问题,实现接近100%的码本利用率。

Adversarial Data Augmentation for Single Domain Generalization via Lyapunov Exponents

提出 LEAwareSGD 优化器,利用 Lyapunov 指数(LE)动态调节学习率,引导模型训练在混沌边缘附近,在对抗数据增强框架下实现更广泛的参数空间探索,显著提升单域泛化(SDG)性能。

Class-Wise Federated Averaging for Efficient Personalization

cwFedAvg 将 FedAvg 从"按客户端聚合"扩展为"按类别聚合",为每个类别创建专属全局模型,再根据各客户端的类别分布加权组合成个性化模型,配合权重分布正则化(WDR)增强类别分布与权重范数的关联,在保持 FedAvg 通信开销的同时显著提升非 IID 场景下的个性化性能。

Cooperative Pseudo Labeling for Unsupervised Federated Classification

FedCoPL 首次将无监督联邦学习扩展到分类任务,通过协作伪标签策略(全局分配伪标签确保类别平衡)和部分 prompt 聚合协议(仅聚合视觉 prompt、保留文本 prompt 本地化)有效应对 CLIP 固有偏差和标签偏移挑战。

Federated Continual Instruction Tuning

首次提出联邦持续指令微调(FCIT)基准,涵盖 2 种场景、4 种设置和 12 个数据集,并设计 DISCO 框架通过动态知识组织(DKO)和子空间选择性激活(SSA)有效解决数据异构性和灾难性遗忘。

Federated Prompt-Tuning with Heterogeneous and Incomplete Multimodal Client Data

提出 FED-PRIME,一个面向多模态数据模态缺失场景的联邦 Prompt-Tuning 框架,通过 inter-client 和 intra-client 两组 prompt 分别捕获跨客户端可对齐的缺失模式和客户端内特有的缺失模式,并通过聚类-对齐机制进行服务端聚合,在多种缺失数据设置下大幅超越现有基线。

Learning Interpretable Queries for Explainable Image Classification with Information Pursuit

在CLIP语义嵌入空间中将信息追踪(Information Pursuit)的查询字典参数化为可学习向量,通过交替优化算法学习任务充分的可解释查询字典,缩小了可解释分类器与黑盒分类器的性能差距。

Memory-Efficient 4-bit Preconditioned Stochastic Optimization

提出基于 Cholesky 分解 + 误差反馈的 4-bit 量化方案,将 Shampoo 优化器的预条件矩阵压缩至 4-bit 精度,在大幅降低 GPU 显存的同时保持与 32-bit Shampoo 接近的训练性能,并给出了光滑与非光滑两种场景下的收敛性证明。