Synthesising Counterfactual Explanations via Label-Conditional Gaussian Mixture Variational Autoencoders¶
会议: ICLR 2026
arXiv: 2510.04855
代码: 无(使用 CARLA 库)
领域: 可解释AI / 因果推断
关键词: 反事实解释, 变分自编码器, 高斯混合, 鲁棒性, 算法追索
一句话总结¶
提出 L-GMVAE(标签条件高斯混合 VAE)和 LAPACE 算法,通过在潜空间中学习每个类别的多个高斯聚类中心,然后从输入潜表征到目标类别中心进行线性插值,生成路径式反事实解释,同时保证有效性、似合性、多样性和对输入扰动的完美鲁棒性。
研究背景与动机¶
领域现状:反事实解释(CE)为受算法决策影响的个体提供追索建议(如贷款申请被拒后应如何改变)。理想的 CE 需满足有效性、接近性、似合性(在数据流形上)和多样性。
现有痛点:现有方法大多孤立地处理这些属性,难以在单一框架中同时保证多种鲁棒性(输入扰动鲁棒、模型变化鲁棒)。基于 VAE 的方法通常是无条件的,忽略分类器标签信息,需要复杂的潜空间搜索。
核心矛盾:如何同时满足 CE 的多维需求——有效的同时似合、接近的同时鲁棒、多样的同时稳定?
本文目标:设计一个统一框架,生成同时满足有效性、接近性、似合性、多样性、输入鲁棒性和模型鲁棒性的 CE。
切入角度:识别一组多样的、原型性的目标类追索点,然后引导所有 CE 收敛到这些点。这些原型通过 label-conditional GMM 在 VAE 潜空间中自然学到。
核心 idea:将 GMVAE 的聚类按类别标签分区(每类 K/L 个聚类),解码后的聚类中心作为有效、似合、鲁棒的 CE 目标。从输入的潜表征到目标中心的线性插值路径提供了一系列 CE 选项。
方法详解¶
整体框架¶
训练阶段:用分类器预测标签训练 L-GMVAE,学习结构化潜空间(每个类别对应一组高斯聚类)。推理阶段:LAPACE 将输入编码到潜空间,对每个目标类别聚类中心进行线性插值,解码得到 CE 路径。
关键设计¶
-
L-GMVAE(标签条件高斯混合 VAE):
- 功能:学习按类别标签分区的高斯混合潜空间
- 核心思路:聚类集 \(\mathcal{C} = \mathcal{C}_1 \cup ... \cup \mathcal{C}_L\),每类均匀分配 K/L 个聚类。生成模型 \(p(x,c,z|y) = p(c|y) p_\theta(z|c) p_\theta(x|z)\),推断模型 \(q(z,c|x,y)\)。ELBO 分三项:KL(c) 鼓励使用所有聚类,KL(z) 鼓励聚类分离,重建项保证解码质量
- 设计动机:聚类中心自然成为有效、似合、多样的追索目标——分类器在训练数据上学到的决策与 L-GMVAE 的聚类对齐
-
LAPACE(潜路径反事实解释):
- 功能:通过潜空间线性插值生成 CE 路径
- 核心思路:对输入 x 编码为 \(z_x\),对每个目标类聚类中心 \(z_{c_j}\),计算 \(z_\tau = (1-\tau)z_x + \tau z_{c_j}\),解码得到路径点。所有路径收敛到固定的聚类中心,保证输入鲁棒性
- 设计动机:线性插值利用 VAE 潜空间的平滑性,路径上的点提供从接近到鲁棒的连续选择
-
可操作性约束:
- 功能:在 CE 路径上满足用户指定的特征约束
- 核心思路:在每个 \(\tau\) 步检查约束 \(g(Dec(z_\tau))\),不满足时通过梯度下降修正潜向量
- 设计动机:实际应用中特征可能有固定值或范围限制
损失函数 / 训练策略¶
ELBO = KL(c) + KL(z) + 重建损失。分类特征用二元交叉熵,连续特征用 MSE。每个数据集-分类器对训练一个 L-GMVAE,每类 5 个聚类。
实验关键数据¶
主实验¶
| 方法 | 有效性 | 接近性 | 似合性(LOF) | 多样性 | 模型鲁棒 | 输入鲁棒 |
|---|---|---|---|---|---|---|
| LAPACE-Last | 100% | 中等 | 最佳 | 高 | 100% | 完美 |
| LAPACE-First | 100% | 竞争力 | 最佳 | 高 | 中等 | 完美 |
| NNCE | 100% | 最佳 | 好 | N/A | - | 好 |
| DiCE | <100% | 好 | 差 | 好 | - | - |
| DRCE | 100% | 好 | 好 | 好 | - | 好 |
消融实验¶
| 数据集 | 训练在真实 vs 合成 | 差距 | 中心精度 |
|---|---|---|---|
| heloc-RF | 73.97% vs 71.07% | 2.9% | 100% |
| wine-RF | 89.70% vs 87.42% | 2.3% | 100% |
| adult-RF | 93.82% vs 81.13% | 12.7% | 100% |
| compas-RF | 90.79% vs 85.03% | 5.8% | 100% |
关键发现¶
- 聚类中心精度 100%:所有数据集上解码的聚类中心都被原分类器正确分类
- LAPACE 似合性最佳:LOF 分数在所有数据集上最低(最接近 1.0)
- 输入鲁棒性完美:因为所有路径收敛到固定中心,对输入扰动完全不变
- 可操作性约束 100% 满足:LAPACE-constrained 在所有测试中找到满足约束且有效的 CE
- 路径点的分类器概率随 \(\tau\) 单调增长,验证潜空间与分类器对齐
亮点与洞察¶
- 路径式 CE 的实用价值:用户可以在"接近但不够鲁棒"和"鲁棒但需要更大改变"之间选择——这比单点 CE 更有用
- 标签条件聚类的简单有效性:通过简单地将 GMM 聚类按标签分区,自然获得了多样的原型追索点
- 隐私保护:生成合成 CE 而非暴露训练数据点
局限与展望¶
- CE 有效性依赖于 L-GMVAE 训练质量,需要验证聚类中心被正确分类
- 对包含大量分类特征的数据集,合成数据质量有差距(如 adult 12.7%)
- 线性插值假设潜空间局部平滑,对复杂决策边界可能不够
- 未考虑因果约束(特征间因果关系)
相关工作与启发¶
- vs DRCE:DRCE 用最近邻确保输入鲁棒,但启发式的距离阈值不能完美保证。LAPACE 通过固定中心收敛实现完美鲁棒
- vs DiCE:DiCE 多目标优化产生多样 CE,但似合性差。LAPACE 通过 VAE 流形自然保证似合
- vs RobXCE:RobXCE 通过推远决策边界增强模型鲁棒,但不保证多样性
评分¶
- 新颖性: ⭐⭐⭐⭐ 标签条件 GMVAE + 路径式 CE 的组合新颖且自然
- 实验充分度: ⭐⭐⭐⭐⭐ 8 个指标、5 个基线、4 个数据集、可操作性、路径分析,非常全面
- 写作质量: ⭐⭐⭐⭐ 清晰有条理,图示直观
- 价值: ⭐⭐⭐⭐ 提供了统一框架解决 CE 的多属性需求
相关论文¶
- [ICLR 2026] Counterfactual Explanations on Robust Perceptual Geodesics
- [ICLR 2026] Direct Doubly Robust Estimation of Conditional Quantile Contrasts
- [ICLR 2026] Efficient Ensemble Conditional Independence Test Framework for Causal Discovery
- [ACL 2025] Counterfactual Explanations for Aspect-Based Sentiment Analysis
- [AAAI 2026] KTCF: Actionable Recourse in Knowledge Tracing via Counterfactual Explanations for Education