CHiQPM: Calibrated Hierarchical Interpretable Image Classification¶
会议: NeurIPS 2025
arXiv: 2511.20779
代码: 无
领域: 可解释AI / 图像分类
关键词: 可解释机器学习, 层次化解释, 共形预测, 图像分类, 人机互补
一句话总结¶
CHiQPM 提出一种校准的层次化可解释图像分类方法,通过二次规划选择和分配特征给类别,构建层次化解释路径,并内置可解释的 Conformal Prediction 集合预测,在保持黑盒模型 99% 准确率的同时提供全局和局部可解释性。
研究背景与动机¶
领域现状:深度学习在医疗诊断、自动驾驶等安全关键领域愈发普及,可解释模型(interpretable-by-design)是实现可信 AI 的重要方向。QPM 系列方法通过紧凑的二值类别表示(每个类仅用少量特征)提供全局可解释性,能对比地解释类间差异。
现有痛点: - QPM 虽然能生成对比性类别表示,但这种对比性比较稀缺(如 CUB-2011 上平均仅 0.13% 的类对具有对比性) - 现有可解释模型缺乏局部解释的确定性量化——saliency map 无法传达置信度 - 原型网络(如 ProtoTree)看似可解释,但其相似度空间是自由学习的,导致人类无法真正预测其行为 - Conformal Prediction (CP) 方法能提供集合预测保证,但预测集通常包含语义不相关的类别
核心矛盾:可解释性与准确率之间的 trade-off——更紧凑的表示更易解释但准确率受限;CP 方法生成的集合缺乏语义连贯性
本文解决什么: - 如何在保持高准确率的同时增加对比性类对比例? - 如何提供层次化的局部解释,类似人类推理过程? - 如何让 CP 集合预测产生语义连贯的类别集合?
切入角度:将特征检测与层次化类别结构结合,利用 QPM 的二值特征分配自然形成类别层次树,在该树上进行遍历即可得到语义连贯的集合预测。
核心idea:在 QPM 框架中引入层次化约束和 Feature Grounding Loss,使特征分配自然形成可遍历的类别层次结构,将 CP 融入这一层次结构,实现可解释的校准集合预测。
方法详解¶
整体框架¶
CHiQPM 的 pipeline 分为五个阶段: 1. 训练稠密模型:使用 Feature Diversity Loss \(\mathcal{L}_{div}\) 训练黑盒基础模型,确保初始特征图激活在图像的不同位置 2. 计算 QP 常量:计算类-特征相似度矩阵 \(\mathbf{A}\)、特征-特征相似度矩阵 \(\mathbf{R}\) 和线性偏置项 \(\mathbf{b}\),以及相似类集合 \(\mathbb{K}\) 3. 求解带层次约束的 QP:在 QPM 的基础上添加层次化约束,联合优化特征选择 \(\mathbf{s} \in \{0,1\}^{n_f}\) 和类-特征分配 \(\mathbf{W} \in \{0,1\}^{n_c \times n_f}\) 4. 微调特征:使用 Feature Grounding Loss \(\mathcal{L}_{feat}\) 配合 ReLU 激活微调特征 5. 校准:使用 CP 方法校准层次化集合预测器
关键设计¶
带层次约束的二次规划:QPM 原始的 QP 目标是最大化选定特征与类别的相关性,同时保持特征的独特性和局部性。CHiQPM 在此基础上增加了层次化约束,要求特征分配 \(\mathbf{W}^*\) 能在类别间形成有意义的层次结构。具体来说,QP 约束确保每个类恰好被分配 \(k\) 个特征(紧凑性),且这些特征的组合能唯一标识该类。层次约束还鼓励相似类共享更多特征,形成类别树种具有语义意义的分组。
Feature Grounding Loss \(\mathcal{L}_{feat}\):这是本文的关键创新之一。传统特征可能是多义的(polysemantic),即一个特征同时检测多个人类概念。\(\mathcal{L}_{feat}\) 配合 ReLU 激活函数,促使学到的特征更具接地性(grounded)和稀疏性。这意味着每个特征更可能对应单一的人类可理解概念(如"红眼"特征在 Figure 1 中区分两种黑鸟)。ReLU 的引入确保特征激活是非负的,使得"未检测到特征"有明确的语义含义。
层次化局部解释:给定一个输入图像,CHiQPM 构建一个样本特定的解释层次树。每个层级 \(n\) 对应于使用前 \(n\) 个最显著特征进行分类: - 层级 1:仅用最强特征,可能匹配多个共享该特征的类 - 层级 2:加入第二个特征,进一步缩小候选类集合 - 直到层级 \(k\):唯一确定一个类
这种层次结构回答了多个问题:这张图片中检测到了哪些有意义的特征?每个特征如何逐步缩小候选类集合?应该预测哪个集合以保证目标覆盖率?
内置可解释 Conformal Prediction:CHiQPM 独特地将 CP 融入其层次化解释中。预测集定义为在层次树的某个层级 \(n\) 与最可能类共享前 \(n\) 个显著特征的所有类。通过 CP 校准,系统可以动态为每个样本选择合适的层级:对于容易的样本,可能只需要层级 \(k\)(单个类);对于困难的样本,可能退回到层级 2 或 1,预测一个语义连贯的类组(如所有黑鸟)。
损失函数 / 训练策略¶
总训练流程: 1. 阶段一:\(\mathcal{L}_{CE} + \lambda_{div} \mathcal{L}_{div}\) 训练稠密模型 2. 阶段二:求解 QP 获得最优特征选择和分配 3. 阶段三:\(\mathcal{L}_{CE} + \lambda_{feat} \mathcal{L}_{feat}\) 微调压缩模型,配合 ReLU 使特征更接地
实验关键数据¶
主实验¶
CHiQPM 在多个数据集和架构上评估,核心结果:
| 数据集 | 架构 | 黑盒准确率 | CHiQPM准确率 | 准确率保持比 | 对比性类对比例 |
|---|---|---|---|---|---|
| CUB-2011 | ResNet-50 | ~82% | ~81% | 99%+ | 显著提升 vs QPM |
| ImageNet-1K | ResNet-50 | ~76% | ~75% | ~99% | 对比性差距减半 |
| CUB-2011 | 多架构 | 各异 | 接近黑盒 | 99%+ | 大多数类获得对比解释 |
关键发现:CHiQPM 作为点预测器达到 SOTA 准确率,保持了非可解释模型 99% 以上的准确率。在 ImageNet-1K 上,与黑盒基线的差距减少了一半以上。
消融实验¶
| 组件 | 对比性比例变化 | 准确率变化 | 覆盖率效率 |
|---|---|---|---|
| 基础 QPM | 基线 | 基线 | - |
| + 层次约束 | ↑ 显著 | 持平 | 可用 |
| + Feature Grounding Loss | ↑ | 持平或↑ | 改善 |
| + ReLU 激活 | ↑ | 持平 | 改善 |
| 完整 CHiQPM | 最优 | 最优 | 最优 |
CP 集合预测效率对比:CHiQPM 的内置 CP 方法在 CUB-2011 上(每类 5/50 个特征)的覆盖率-集合大小曲线与标准 CP 方法(THR、APS)竞争性媲美,同时预测集具有语义连贯性。
关键发现¶
- 可解释性无需牺牲准确率:CHiQPM 保持 99% 以上的黑盒模型准确率,同时提供全面的全局和局部可解释性
- 对比性大幅提升:相比 QPM,CHiQPM 显著增加了具有对比性解释的类对比例,使更多类别可以通过特征差异来区分
- 层次解释的认知合理性:层次化解释更接近人类推理方式——先识别大类(黑鸟),再细分具体种类
- 语义连贯的集合预测:CP 集合内的类别在层次结构中相邻,具有语义相似性
亮点与洞察¶
- 将 CP 与可解释模型自然融合:不是事后套用 CP,而是模型结构本身支持层次化集合预测,这是一个优雅的设计
- Feature Grounding Loss 解决多义性问题:直接针对可解释 ML 中特征多义性这一根本问题提出解决方案
- 可扩展到 ImageNet:在 1000 类的 ImageNet 上仍能工作,证明了方法的可扩展性
- 人机互补视角:不同于替代人类的 AI,CHiQPM 设计为辅助人类专家决策的工具
局限与展望¶
- QP 求解的计算开销随类别数增长,在超大规模分类任务上可能受限
- 特征的语义接地性仍依赖于基础模型的表示质量
- 层次深度与特征数 \(k\) 直接相关,在特征极少时层次结构可能过于浅
- 论文主要在视觉分类任务上验证,其他模态(文本、多模态)的适用性待探索
相关工作与启发¶
- QPM / Q-SENN 系列:CHiQPM 的直接前身,本文在其基础上增加层次化和校准能力
- Conformal Prediction:分布无关的预测集方法,CHiQPM 首次将其与可解释模型内在结合
- 原型网络(ProtoPNet, ProtoTree):另一类可解释模型,但相似度空间的不可预测性是其固有问题
- Concept Bottleneck Models(CBM):使用人类概念作为瓶颈,但需要概念标注
评分¶
- 新颖性: ⭐⭐⭐⭐ — 层次化 CP + 可解释模型的融合是创新点
- 技术深度: ⭐⭐⭐⭐ — QP 优化与 CP 理论结合紧密
- 实验充分度: ⭐⭐⭐⭐ — 多数据集多架构验证,消融充分
- 写作质量: ⭐⭐⭐⭐ — 结构清晰,图示直观
- 实用性: ⭐⭐⭐⭐ — 不牺牲准确率的可解释性在安全关键领域有实际价值
相关论文¶
- [CVPR 2025] Interpretable Image Classification via Non-parametric Part Prototype Learning
- [NeurIPS 2025] Toward Real-world Text Image Forgery Localization: Structured and Interpretable Data Synthesis
- [CVPR 2026] DINO-QPM: Adapting Visual Foundation Models for Globally Interpretable Image Classification
- [NeurIPS 2025] From Flat to Hierarchical: Extracting Sparse Representations with Matching Pursuit
- [NeurIPS 2025] VADTree: Explainable Training-Free Video Anomaly Detection via Hierarchical Granularity