Attribute-formed Class-specific Concept Space: Endowing Language Bottleneck Model with Better Interpretability and Scalability¶
会议: CVPR 2025
arXiv: 2503.20301
代码: https://github.com/tiggers23/ALBM
领域: NLP理解 / 可解释AI
关键词: 语言瓶颈模型, 属性概念空间, 视觉提示学习, 零样本泛化, 可解释分类
一句话总结¶
提出 ALBM 模型,用属性化的类特定概念空间(ACCS)取代现有语言瓶颈模型的类共享概念空间,避免虚假线索推理问题并支持跨类泛化,配合视觉属性提示学习(VAPL)提取细粒度属性特征,在 9 个 few-shot 基准上全面超越现有可解释分类方法。
研究背景与动机¶
领域现状:视觉-语言模型(VLM,如 CLIP)通过对比学习获得强大的视觉表示能力,但其决策过程不透明。为提升可解释性,语言瓶颈模型(LBM)将所有类别的文本概念汇总为统一概念空间,训练概念分类器基于概念激活分数进行分类。
现有痛点:现有 LBM 将所有概念放入类共享空间,导致两个问题:(1) 虚假线索推理——分类器可能学习到类别与非本质概念的伪相关(如通过"丛林"识别老虎),降低可解释性;(2) 无法泛化到新类——引入新类需要扩展概念空间,导致已训练的分类器无法迁移。
核心矛盾:类共享概念空间混淆了"哪些概念与哪个类本质相关"的因果关系,根本原因在于缺少概念到类别的结构化对应关系。
本文目标:构建一个类特定的概念空间,使分类器只依赖每个类别的本质概念进行推理,同时保证跨类泛化能力。
切入角度:作者观察到"属性"(如颜色、形状、纹理)是跨类别通用的高层维度,而"概念"是特定属性在特定类别下的描述(如信天翁的颜色→深灰色)。如果概念空间按属性组织,不同类的概念空间就有天然的对应关系,支持跨类迁移。
核心 idea:用统一属性集指导构建类特定概念空间(ACCS),每个类只依据自身概念推理,解决虚假线索问题;同时属性集的跨类一致性保证了分类器可泛化到新类。
方法详解¶
整体框架¶
输入一张图像,ALBM 的 pipeline 为:(1) 视觉编码器 + 视觉属性提示提取各属性的细粒度特征;(2) 通过特征与属性化概念的余弦相似度计算概念激活分数矩阵 \(S \in \mathbb{R}^{K \times N_a}\);(3) 线性概念分类器 \(W_a\) 在类特定空间内预测类别。
关键设计¶
-
属性化类特定概念空间(ACCS):
- 功能:为每个类构建独立的概念空间,概念按统一属性集组织
- 核心思路:概念集 \(C \in \mathbb{R}^{K \times N_a \times d}\) 由所有类在统一属性集 \(\{a_j\}_{j=1}^{N_a}\) 下的描述组成。分类时,每个类的预测分数仅基于该类自身的概念激活分数 \(s_i\),而非所有概念的混合。这等效于将分类约束在因果正确的路径上——类 \(i\) 只能通过类 \(i\) 的本质属性来被识别。
- 设计动机:直接解决虚假线索推理问题。属性集跨类一致意味着引入新类只需生成新属性描述,无需修改旧类的概念空间,已训练的分类器可通过类名相似度加权迁移到新类。
-
视觉属性提示学习(VAPL):
- 功能:为每个属性提取图像中对应的细粒度视觉特征
- 核心思路:在 ViT 视觉编码器中引入 \(N_a\) 个可学习提示 token \(\{p_j\}\),每个提示代表一个属性的语义。输入图像时,各属性提示的输出特征 \(f_a^j\) 代表图像在该属性上的信息。为防止提示干扰图像特征提取,mask 了提示之间以及图像 token 到提示的注意力。学习目标是对齐 \(f_a^j\) 与对应属性概念的文本特征,用交叉熵损失 \(\mathcal{L}_p\) 优化。
- 设计动机:CLIP 的全局 [CLS] 特征难以捕捉细粒度属性信息。通过属性提示直接引导编码器关注特定属性,提高概念激活分数的准确性。
-
描述-总结-补充(DSS)策略:
- 功能:自动生成高质量的属性化概念集,避免人工标注
- 核心思路:三步走——(1) Description:用 LLM(GPT-4o)为每个类自由生成概念描述;(2) Summary:将所有类的概念汇总,让 LLM 提取统一属性集;(3) Supplement:对缺失属性值的类进行补充生成。相比现有方法直接让 LLM 列出属性集,DSS 从自由生成的概念中反推属性,能提取更完整、精确的属性集。
- 设计动机:直接让 LLM 总结属性集容易遗漏重要属性。先描述再总结的策略利用了 LLM 在自由生成时的多样性,确保属性覆盖充分。
损失函数 / 训练策略¶
两阶段训练:先用 \(\mathcal{L}_p\)(概念对齐交叉熵损失)训练视觉属性提示 5 个 epoch,再用 \(\mathcal{L}_w\)(分类交叉熵损失)训练概念分类器 \(W_a\) 1000 个 epoch。SGD 优化器,batch size 64。
实验关键数据¶
主实验¶
| 数据集 | ZS-CLIP | CuPL | CLIP-GPT | LaBo* | ALBM*(ours) |
|---|---|---|---|---|---|
| CUB | 63.4 | - | 11.4 | 16.2 | 25.0 |
| DTD | 53.2 | 37.2 | 40.0 | 37.9 | 48.5 |
| Food101 | 91.0 | 66.3 | 48.4 | 52.2 | 75.4 |
| ImageNet | 71.4 | 59.2 | 44.3 | 37.8 | 64.6 |
零样本设定下与训练自由语言瓶颈方法的对比
| 数据集 | LaBo Base | ALBM Base | ALBM Novel |
|---|---|---|---|
| CUB | 76.9 | 91.9 | 27.8 |
| Food101 | 87.6 | 88.5 | 86.8 |
| ImageNet | 71.7 | 75.0 | 73.9 |
Base-to-Novel 设定,ALBM 可泛化到未见类
消融实验¶
| 配置 | Base | Novel |
|---|---|---|
| 零样本(无训练) | 54.2 | 55.2 |
| +\(\mathcal{L}_w\) 训练分类器 | 74.0 | 57.5 |
| +\(\mathcal{L}_w\) + VAPL | 77.2 | 58.2 |
关键发现¶
- 训练概念分类器带来 19.8% 的 Base 提升和 2.3% 的 Novel 提升,证明 LBM 方法的必要性
- VAPL 在 Base 上额外贡献 3.2%,表明属性级特征提取确实优于全局 [CLS] 特征
- DSS 生成的属性集比 CLIP-GPT 更完整(如 OxfordPets 上 12 vs 7 个属性),有助于分类
- 案例研究显示 ALBM 避免了虚假线索(如 LaBo 用"丛林"识别老虎),仅使用类本质概念
亮点与洞察¶
- 属性级别的概念对齐:将"属性"作为跨类通用的中间层来组织概念空间,既保证了可解释性又实现了泛化性,是一个巧妙的结构化设计
- VAPL 的注意力掩码:在 ViT 中引入属性提示但阻断提示之间的相互注意力和图像向提示的注意力,确保各属性提示独立提取信息,设计简洁有效
- DSS 的"先描述再总结"哲学:利用 LLM 的发散能力先生成多样描述,再收敛为结构化属性集,比直接要求属性列表更可靠,可迁移到其他需要结构化提取的场景
局限与展望¶
- 可解释分类与不可解释 CLIP 之间仍有较大性能差距(如 ImageNet 64.6 vs 71.4),说明可解释性与性能的 trade-off 仍未解决
- DSS 依赖 GPT-4o,概念集质量受 LLM 能力影响
- VAPL 目前仅在 ViT 架构上实现,不直接适用于 CNN 编码器
- 未探索多粒度属性层次(如粗粒度"颜色"→细粒度"条纹颜色"),可能进一步提升性能
相关工作与启发¶
- vs LaBo: LaBo 在类共享空间学习概念分类器,ALBM 在类特定空间学习,避免了虚假线索但也使得概念空间更结构化
- vs CLIP-GPT: 同样使用属性化概念集,但 CLIP-GPT 直接让 LLM 列属性,ALBM 通过 DSS 策略获得更完整的属性集
- vs MAP (视觉提示): MAP 用跨注意力和非结构化描述对齐视觉提示,语义不明确;ALBM 的 VAPL 在结构化属性集中对齐,提示具有明确的可解释语义
评分¶
- 新颖性: ⭐⭐⭐⭐ 属性化类特定概念空间的思路清晰有效,但核心仍是线性分类器
- 实验充分度: ⭐⭐⭐⭐ 9 个数据集、零样本和 base-to-novel 两种设定、完整消融
- 写作质量: ⭐⭐⭐⭐ 结构清晰,动机阐述到位
- 价值: ⭐⭐⭐⭐ 对 LBM 可解释性和泛化性的改进有实际意义,DSS 策略有启发价值
title: >- [论文解读] Attribute-formed Class-specific Concept Space: Endowing Language Bottleneck Model with Better Generalization description: >- [CVPR 2025][LLM/NLP][语言瓶颈模型] 针对语言瓶颈模型(LBM)中所有概念混合在一起导致的虚假线索推理和零样本泛化差的问题,提出属性构成的类特定概念空间,将概念按属性维度为每个类别组织独立空间。 tags: - CVPR 2025 - LLM/NLP - 语言瓶颈模型 - 属性概念空间 - 可解释分类 - 零样本泛化
Attribute-formed Class-specific Concept Space: Endowing Language Bottleneck Model with Better Generalization¶
会议: CVPR 2025
arXiv: 2503.20301
代码: https://github.com/tiggers23/ALBM
领域: 可解释分类
关键词: 语言瓶颈模型, 属性概念空间, 可解释分类, 零样本泛化
一句话总结¶
针对语言瓶颈模型(LBM)中所有概念混合在一起导致的虚假线索推理和零样本泛化差的问题,提出属性构成的类特定概念空间,将概念按属性维度为每个类别组织独立空间。
研究背景与动机¶
领域现状:语言瓶颈模型(LBM)通过"图像→文本概念→标签"的两阶段分类实现可解释的图像识别,是可解释 AI 的重要方向。
现有痛点:现有 LBM 将所有概念简单列在一起作为瓶颈层,不同类别共享同一个概念集,导致虚假线索推理(概念跨类别混淆),且无法泛化到训练时未见过的类别。
核心矛盾:共享概念空间在提供统一表示的同时,混淆了类别特有的属性信号。
本文目标 如何构建结构化的概念空间,使每个类别拥有自己语义明确的概念子空间,同时支持零样本泛化。
切入角度:将概念按属性维度(颜色、形状、纹理等)组织,为每个类别构建属性级别的类特定概念空间。
核心 idea:用属性维度为每个类别构建独立的概念子空间,消除跨类别概念干扰并支持基于属性组合的零样本泛化。
方法详解¶
整体框架¶
模型通过 LLM 为每个类别生成属性级概念描述,构建类特定概念矩阵。推理时图像特征在每个类别的概念子空间上分别投影,获得类特定的概念匹配分数。
关键设计¶
- 属性级概念生成:利用 LLM 按属性维度(颜色、形状、大小、栖息地等)为每个类别生成结构化概念,概念之间有明确的属性归属。
- 类特定概念投影:不同类别使用不同的概念子空间进行匹配,避免跨类别的概念干扰和虚假相关。
- 属性组合泛化:未见类别可通过已有类别的属性概念组合构建新概念空间,实现零样本泛化。
实验关键数据¶
关键发现¶
- 在 CUB-200 等细粒度分类任务上,显著优于朴素 LBM 的分类精度
- 零样本泛化能力相比传统 LBM 大幅提升
- 属性级概念提供的解释比全局概念更精细、更可信
亮点与洞察¶
- 将概念空间从"大杂烩"升级为"结构化"是一个简洁而有效的改进
- 属性维度的引入使零样本泛化成为自然结果
局限与展望¶
- 属性维度的定义依赖领域知识或 LLM 生成质量
- 类别数增多时概念空间的存储和计算开销增长
- 属性间的依赖关系(如"有翅膀"暗示"会飞")未被显式建模
相关论文¶
- [ACL 2025] Cheaper and Better Diffusion Language Model via Task-Specific Training
- [ACL 2025] Training Language Model to Critique for Better Refinement
- [CVPR 2025] SEC-Prompt: SEmantic Complementary Prompting for Few-Shot Class-Incremental Learning
- [AAAI 2026] An Invariant Latent Space Perspective on Language Model Inversion
- [ACL 2025] Multi-Attribute Steering of Language Models via Targeted Intervention