Noise-Aware Generalization: Robustness to In-Domain Noise and Out-of-Domain Generalization¶
会议: ICLR 2026
arXiv: 2504.02996
代码: GitHub
领域: 鲁棒学习 / 域泛化
关键词: Noise-Aware Generalization, Domain Generalization, Learning with Noisy Labels, Cross-Domain Noise Detection, DL4ND
一句话总结¶
首次形式化了 Noise-Aware Generalization (NAG) 问题——在标签噪声下同时追求域内鲁棒性和域外泛化能力,并提出 DL4ND 方法通过跨域比较检测噪声标签,在 7 个数据集上最高提升 12.5%。
研究背景与动机¶
领域现状:域泛化(DG)方法训练模型从多个源域泛化到未见目标域,学习域不变特征;噪声标签学习(LNL)方法通过检测和处理噪声标签提升模型性能。这两个领域各自取得了显著进展,但通常被独立研究。
现有痛点: 1. DG 方法忽略标签噪声:标签噪声在真实数据集中普遍存在(包括 DG benchmark 本身),但 DG 方法在有噪声时性能严重下降 2. LNL 方法不考虑域偏移:LNL 方法在单域内检测噪声,但面对多域数据时,会将域偏移误判为标签噪声,导致过拟合到"容易学习"的域 3. 域偏移与噪声偏移难以区分:当使用特征距离或损失值分析时,来自域偏移和标签噪声的分布偏移在特征空间中高度重叠(如 Figure 1 所示)
核心矛盾:LNL 噪声检测方法的核心假设——"噪声样本远离类别中心"——在多域场景下失效,因为域偏移使得分布偏移的来源(噪声 vs. 域)无法通过简单的特征距离区分。朴素地将 DG 和 LNL 方法组合也无法解决,因为 20%+ 的支持向量落在两种偏移的重叠区域,这些样本对决策边界至关重要。
本文方案:提出 NAG(Noise-Aware Generalization)问题定义,并设计 DL4ND(Domain Labels for Noise Detection)方法。核心洞察:单域内相似的噪声样本在跨域比较时会暴露差异——因为域内的虚假相关特征(如颜色)在其他域中不存在,跨域比较迫使模型依赖内在特征。DL4ND 通过高置信度低损失样本构建 (class, domain) 代理表示,然后用跨域比较重新标注高损失样本。
方法详解¶
整体框架¶
DL4ND 分为三个阶段:
- Warmup 阶段:使用 ERM 或任意 DG 方法正常训练,此时噪声标签影响较小
- 噪声检测阶段:
- 用 GMM 将损失分布分为低损失(clean)和高损失(noisy)两个簇
- 低损失样本按 \((class, domain)\) 分组构建代理表示 \(\bar{g}_{c,i}\)
- 高损失样本通过跨域比较重新标注
- 继续训练:使用更新后的标签继续训练(可结合任意 DG 方法)
形式化地,多域数据集 \(\mathcal{D} = \{\mathcal{D}_1, \mathcal{D}_2, \ldots, \mathcal{D}_m\}\),每个域 \(\mathcal{D}_i = \{(x_{i,j}, \tilde{y}_{i,j})\}_{j=1}^{n_i}\),其中 \(\tilde{y}\) 可能含噪声。目标是学习特征提取器 \(f_\theta(\cdot)\) 使其在所有源域和未见目标域上都表现良好。
关键设计1: 可分离性条件与低损失代理¶
通过理论分析建立了域偏移与类别偏移可分的充分条件:
即同类跨域的距离应小于同域异类的距离。实验发现(RotatedMNIST): - 使用所有样本构建代理时,两种偏移的距离分布严重重叠,无法区分 - 使用低损失样本构建代理时,两种偏移可以清晰分离
这是因为训练早期低损失样本通常是干净的(prior work 已证明),它们构成更纯净的类别代理。进一步分析表明,重叠区域内超过 20% 的样本是 SVM 的支持向量,证明这些样本对最终决策边界至关重要,不能简单丢弃。
关键设计2: 跨域噪声检测¶
核心假设:域内虚假特征(如 photo 域中狮子=黄色调)不会跨域保持,因此跨域比较能更准确反映样本的真实类别。对于被判为疑似噪声的高损失样本 \(x_i\),通过跨域比较重新标注:
即在其他域的代理表示中寻找最近邻类别作为新标签。相比域内比较,跨域比较: - 消除了域特定的虚假相关 - 迫使模型依赖跨域一致的内在特征 - 实验证明噪声检测精度显著提高(在 RotatedMNIST 上标签准确率从 75.7% 提升至 98.1%)
关键设计3: 与 DG 方法的即插即用组合¶
DL4ND 是一个噪声检测模块,可以与任意 DG 方法(ERM、ERM++、SAGM、SWAD 等)无缝组合。组合方式简单:在 DG 方法的训练过程中加入 DL4ND 的标签检测与修正步骤,无需额外数据或训练开销。实验表明这种组合在大多数设置下比单独使用 DG 或 LNL 方法更有效。
实验结果¶
主实验¶
在 7 个数据集上评估,涵盖真实世界噪声和控制噪声实验。
RotatedMNIST (30% 非对称噪声):
| 方法 | 标签准确率 | ID Acc | OOD Acc |
|---|---|---|---|
| Baseline(域内比较) | 75.7 | 87.7 | 87.9 |
| DL4ND (Ours) | 98.1 | 98.1 | 97.8 |
OfficeHome (60% 对称噪声):
| 方法 | ID Acc | OOD Acc | AVG |
|---|---|---|---|
| ERM | 45.8 | 40.5 | 43.2 |
| ERM + DL4ND | 47.9 | 49.9 | 48.9 |
| SAGM | 48.6 | 40.3 | 44.4 |
| SAGM + DL4ND | 52.0 | 52.6 | 52.2 |
| ERM++ | 56.7 | 48.7 | 52.7 |
| ERM++ + DL4ND | 60.3 | 59.4 | 59.8 |
最大增益达 12.5%(ERM++ 的 OOD 从 48.7% 到 59.4%,对称噪声设置)。
PACS(真实世界噪声):
| 方法 | ID Acc | OOD Acc | AVG |
|---|---|---|---|
| SAGM | 96.3 | 85.3 | 90.8 |
| SAGM + DL4ND | 97.3 | 88.8 | 93.1 |
| ERM++ | 96.7 | 89.2 | 92.9 |
| ERM++ + DL4ND | 96.5 | 90.1 | 93.3 |
消融实验¶
在多个数据集上消融 DL4ND 各组件的贡献:
| 消融配置 | VLCS ID/OOD | CHAMMI-CP ID/OOD | OfficeHome (40% asym) AVG |
|---|---|---|---|
| w/o relabel(删除替代重标注) | 下降 2-3% | 下降 1-2% | 低于完整模型 |
| w/o cross-domain(域内比较) | 下降 2-4% | 下降 2-4% | 精度显著降低 |
| w/o small-loss proxy(全样本代理) | 下降 2-4% | 下降 2-3% | 代理质量下降 |
| DL4ND (完整) | 最佳 | 最佳 | 最佳 |
每个组件贡献 2-4% 的性能提升。跨域比较的消融显示其带来的精度提升(Table 6)能直接解释最终性能提升。
论文评价¶
优点¶
- 问题定义有价值:NAG 将 DG 和 LNL 两个独立领域自然统一,更贴近真实应用场景
- 理论分析扎实:通过可分离性条件的数学建模和 SVM 支持向量分析,清晰阐述了 NAG 的独特挑战
- 跨域比较思路新颖:利用域间差异消除虚假相关的观察简单但有效
- 大规模实验验证:12 个 SOTA 方法 + 20 个组合方法 + 7 个数据集,覆盖充分
不足¶
- 依赖 GMM 分割低损失/高损失样本,当噪声比例极高时 GMM 两簇假设可能不成立
- 跨域比较假设不同域的虚假特征不同,但如果所有域共享相同偏置(如都有颜色偏置),该方法可能失效
- 仅做一次重标注即有效,但缺乏对多次迭代重标注效果的深入分析
评分¶
⭐⭐⭐⭐ — 问题定义实用且重要,方法简洁有效,实验充分覆盖多种噪声类型和数据集,对 DG+LNL 交叉领域的推进有重要意义。
相关论文¶
- [CVPR 2025] Gradient-Guided Annealing for Domain Generalization
- [ICML 2025] Set-Valued Predictions for Robust Domain Generalization
- [ICML 2025] FEDTAIL: Federated Long-Tailed Domain Generalization with Sharpness-Guided Gradient Matching
- [ICLR 2026] Optimal Transport-Induced Samples against Out-of-Distribution Overconfidence
- [ICLR 2026] SimuHome: A Temporal- and Environment-Aware Benchmark for Smart Home Agents