Revisiting Unknowns: Towards Effective and Efficient Open-Set Active Learning¶
会议: CVPR2026 arXiv: 2603.07898 代码: github.com/chenchenzong/E2OAL 领域: others (主动学习 / 开放集识别) 关键词: open-set active learning, Dirichlet calibration, unknown class exploitation, adaptive querying, detector-free
一句话总结¶
提出 E2OAL,一个无需额外检测器的开放集主动学习框架,通过标签引导聚类发现未知类潜在结构、Dirichlet 校准辅助头联合建模已知/未知类别,并设计两阶段自适应查询策略,在多个基准上同时实现高准确率、高查询纯度和高训练效率。
背景与动机¶
- 主动学习的闭集假设不成立:传统主动学习假设未标注池中所有样本属于已知类别,但在自动驾驶、医学诊断等安全关键场景中,未标注数据常包含未见过的类别
- 未知样本"污染"查询:常规 AL 策略(基于不确定性/多样性)容易将未知类样本误判为高信息量样本而过度采样,严重降低学习效率
- 现有 OSAL 依赖独立训练的检测器:LfOSA、MQNet、EOAL、BUAL、EAOA 等方法需额外训练 OOD 检测网络,引入显著的计算开销
- 标注的未知样本被浪费:已有方法忽视了被标注为"unknown"的样本所蕴含的监督价值,未能将其反馈至已知类学习中
- 未知类内部存在潜在结构:pilot study 表明,利用未知类的真实标签(保持其内部类别结构)训练比简单合并为单一"unknown"类效果更好
- Softmax 过度自信问题:标准 softmax 具有平移不变性,对语义模糊或异常输入产生误导性高置信度,不利于开放集条件下的置信度估计
方法详解¶
整体框架¶
E2OAL 采用统一的无检测器两阶段流程: - 阶段一:自适应类别估计 + 校准感知训练 — 在冻结的对比学习特征空间中发现未知类潜在结构,通过 Dirichlet 辅助监督增强模型训练 - 阶段二:灵活两阶段查询选择 — 用纯度分数构建高纯度候选池,再用信息量指标筛选最有价值的样本
自适应类别估计(Adaptive Class Estimation)¶
- 使用冻结的 CLIP 特征(也兼容 MoCo/SimCLR),对全部已标注样本进行 K-Means 聚类
- 候选未知类数量 \(\hat{u} \in \{k+1, \ldots, \hat{u}_{\max}\}\),通过三分搜索最大化结构感知 F1-product 目标
- F1-product = 各类 F1 分数的乘积,用 Hungarian 算法将聚类与 \(k\) 个已知类 + 1 个统一 unknown 类做一对一匹配
- 估计过低会合并已知类,估计过高会碎片化,F1-product 自动惩罚这两种情况
Dirichlet 校准辅助头¶
- 引入平移感知 softmax:\(P(y|x) = \frac{e^{o_y} + \gamma}{\sum_c (e^{o_c} + \gamma)}\),打破平移不变性
- 采用证据深度学习(EDL):将预测概率建模为 Dirichlet 分布 \(\text{Dir}(\boldsymbol{\alpha})\),其中 \(\boldsymbol{\alpha} = g(\boldsymbol{o})/\gamma + 1\)
- 辅助头覆盖 \(k + \hat{u}\) 个类别(已知类 + 估计的未知类),主头仅覆盖 \(k\) 个已知类
损失函数¶
- \(\mathcal{L}_{\text{CE}}\):主头的交叉熵损失,仅在已知类上优化
- \(\mathcal{L}_{\text{NLL}}\):辅助头的负对数似然,鼓励对正确标签的高置信
- \(\mathcal{L}_{\text{KL}}\):将错误类别的 Dirichlet 分布正则化至均匀先验,抑制错误证据
两阶段查询策略¶
纯度分数(Logit-Margin Purity Score):
衡量已知类与未知类之间的证据分离程度。
信息量分数(OSAL-specific Informativeness):
同时抑制过于模糊(接近均匀分布)和过于确定(接近 one-hot)的样本,偏好中等不确定性。
自适应纯度阈值:用三分量 GMM 拟合纯度分数分布,动态调整候选池大小以满足目标查询精度 \(p^*\),并通过观测精度反馈自适应校准:
实验关键数据¶
主实验¶
在 CIFAR-10、CIFAR-100、Tiny-ImageNet 上评估,使用 ResNet-50 骨干,10 轮主动学习,每轮查询 1500 样本。
| 方法 | CIFAR-10 (30%) | CIFAR-100 (30%) | Tiny-ImageNet (15%) |
|---|---|---|---|
| E2OAL (Ours) | 最优 | 最优 | 最优 |
| Ours* (无未知类利用) | 95.94 | 67.54 | 60.44 |
| EAOA | 95.88 | 67.14 | 57.31 |
| BUAL | 95.04 | 63.73 | 56.09 |
| EOAL | 93.64 | 63.69 | 56.13 |
即使不利用标注的未知样本(Ours*),仅靠查询策略仍优于所有基线,尤其在 Tiny-ImageNet 上提升 3+ 百分点。
消融实验¶
| 变体 | CIFAR-10 | CIFAR-100 | Tiny-ImageNet |
|---|---|---|---|
| 完整 E2OAL | 97.52 | 72.10 | 64.02 |
| w/o ClassExp(未知类合并为单一类) | 97.17 | 70.73 | 62.67 |
| 仅 \(S_{\text{purity}}\) | 96.73 | 72.00 | 61.93 |
| 仅 \(S_{\text{info}}\) | 96.00 | 68.20 | 57.60 |
- Dirichlet 校准(EDL)比 CE 在纯度上显著提升:CIFAR-10 9495 vs 9394(总查询已知类样本数)
- 信息量指标优于 EAOA:CIFAR-100 65.73 vs 61.95
- 对目标精度 \(p^*\) 不敏感:\(p^* \in \{0.4, 0.5, 0.6, 0.7\}\) 下性能波动小
训练效率¶
E2OAL 的等效训练时间与 Random、MSP、Coreset、Uncertainty 等轻量基线相当,去除独立检测器后仅有边际额外成本。
亮点¶
- 无检测器设计:不需要额外训练 OOD 检测网络,统一框架内同时完成未知类发现、校准训练和查询选择
- 变废为宝:首次系统性地将标注的未知样本转化为有效监督信号,pilot study 清晰展示了保留未知类内部结构的收益
- 原则性校准:Dirichlet-based EDL 提供理论上更合理的置信度估计,解决 softmax 平移不变性导致的过度自信问题
- 自适应无超参:两阶段查询策略通过观测反馈动态调整纯度阈值,无需额外超参数调优
- 全面实验:覆盖三个数据集、多个 mismatch ratio、多种消融,代码开源
局限性 / 可改进方向¶
- 仅在图像分类上验证,未扩展到检测/分割等更复杂的视觉任务
- 聚类依赖冻结的预训练特征(CLIP/MoCo),在预训练分布与目标域差异大时可能失效
- F1-product 目标在类别数极不均衡时可能对少数类过于敏感
- 三分量 GMM 假设纯度分数的分布结构,在极端 mismatch ratio 下可能不够鲁棒
- 未探讨在线/增量场景下的持续学习适配
与相关工作的对比¶
| 方法 | 是否需要检测器 | 是否利用标注未知 | 自适应精度控制 | 校准机制 |
|---|---|---|---|---|
| LfOSA | ✓ | ✗ | ✗ | — |
| MQNet | ✓ (meta-net) | ✗ | ✗ | — |
| EOAL | ✓ | ✗ | ✗ | — |
| BUAL | ✓ | ✗ | ✗ | — |
| EAOA | ✓ | ✗ | ✓ (固定步长) | — |
| E2OAL | ✗ | ✓ | ✓ (自适应) | Dirichlet EDL |
评分¶
- 新颖性: ⭐⭐⭐⭐ — 将标注未知样本从"废料"转化为监督信号的思路新颖,Dirichlet 校准与两阶段查询的结合设计精巧
- 实验充分度: ⭐⭐⭐⭐ — 三数据集 × 多 mismatch ratio × 完整消融 + 效率分析 + 敏感性分析,覆盖全面
- 写作质量: ⭐⭐⭐⭐ — 结构清晰,pilot study 动机自然,公式推导连贯
- 价值: ⭐⭐⭐⭐ — 为开放集主动学习提供了统一高效的解决方案,代码开源,实用性强