跳转至

Efficient Fairness-Performance Pareto Front Computation

会议: NeurIPS 2025
arXiv: 2409.17643
代码: bp6725/FairPareto
领域: ai_safety
关键词: fairness, Pareto front, fair representation, concave optimization, MIFPO

一句话总结

提出 MIFPO 方法,无需训练复杂的公平表示模型即可高效计算公平性-性能 Pareto 前沿,通过理论分析将问题化简为紧凑的离散凹优化问题。

背景与动机

公平表示学习(fair representation learning)是公平机器学习领域的核心问题。给定数据特征 \(X\)、敏感属性 \(A\) 和目标变量 \(Y\),目标是学习表示 \(Z\),使得 \(Z\) 既能保留对 \(Y\) 的预测能力,又满足关于 \(A\) 的公平性约束。公平性约束越强,分类性能通常越低,这就是 fairness-performance trade-off。

现有方法主要依赖复杂的神经网络模型(如 GAN、VAE、Optimal Transport 变体等),通过高维参数空间的非凸优化来学习公平表示。这些方法存在以下问题:

  1. 容易陷入局部最优,对超参数(架构、学习率、初始化)敏感
  2. 难以判断所得公平性-性能曲线是否接近真正的 Pareto 前沿
  3. 每改变一次公平性阈值 \(\gamma\) 就需要重新训练整个模型

因此,能否绕开复杂的表示学习模型,直接计算最优 Pareto 前沿?

核心问题

给定公平性度量(本文使用 Total Variation 距离)和凹性能度量 \(h\),对于每个公平性阈值 \(\gamma \in [0,1]\),计算所有满足 \(D_{TV}(Z) \leq \gamma\) 的表示 \(Z\) 中,最优性能 \(E(\gamma) = \min_Z \mathbb{E}_{z \sim Z} h(\mathbb{P}(Y|Z=z))\) 构成的 Pareto 前沿曲线。

关键挑战在于:表示空间 \(\mathcal{Z}\) 可以是任意大的,数据特征空间 \(\mathcal{X}\) 通常是高维的,直接搜索所有可能的表示在计算上不可行。

方法详解

第一步:Factorization Lemma(因式分解引理)

核心洞察:对于 Pareto 前沿的计算,数据中只有条件分布 \(\mathbb{P}(Y|X=x, A=a)\) 是相关的。因此可以通过 Bayes 最优分类器 \(f^*(x,a) = \mathbb{P}(Y=\cdot|X=x,A=a)\) 将高维特征空间 \(\mathcal{X}\) 映射到低维概率单纯形 \(\Delta_\mathcal{Y}\)

对于二分类问题(\(Y \in \{0,1\}\)),\(\Delta_\mathcal{Y}\) 就是区间 \([0,1]\),可以轻松离散化为 \(L\) 个 bin。

第二步:Invertibility Theorem(可逆性定理)

定义:表示 \(Z\) 是可逆的,当且仅当对每个 \(z \in \mathcal{Z}\) 和每个 \(a \in \{0,1\}\),至多有一个 \(x\) 使得 \(\mathbb{P}(Z=z|X=x,A=a) > 0\)

定理 3.1:对任意表示 \(Z\),都存在一个可逆表示 \(Z'\),使得 \(Z'\) 的性能不差于 \(Z\)、公平性不差于 \(Z\)。因此只需在可逆表示中搜索最优解。

可逆性意味着每个表示点 \(z\) 最多有两个"父节点"(每个敏感属性值对应至多一个),这极大限制了表示空间的有效大小。

第三步:MIFPO 离散优化问题

基于上述理论,构造 Model Independent Fairness-Performance Optimization(MIFPO)问题:

  • 表示空间\(\mathcal{Z} = S_0 \times S_1 \times [k]\),其中 \(S_0, S_1\) 分别是两个敏感组的离散化特征集(各 \(L\) 个 bin),\(k\) 是近似参数(实验中 \(k=5\)
  • 变量:转移概率 \(r_{u,v,j}^a\),表示从数据点到表示点的概率映射
  • 目标函数:最小化公式 (14) 的凹性能函数
  • 约束:概率归一化约束(线性)+ TV 公平性约束 \(\leq \gamma\)(线性)

这是一个线性约束下的凹函数最小化问题,可用 DCCP(disciplined convex-concave programming)框架高效求解。

完整算法流程

  1. 在两个敏感组上分别训练校准分类器 \(c_0, c_1\)(用 XGBoost + Isotonic Regression)
  2. \(\Delta_\mathcal{Y}\) 离散化为 \(L\) 个 bin,估计参数 \(\alpha, \beta, \rho\)
  3. 对给定 \(\gamma\) 构造并求解 MIFPO 实例
  4. 遍历不同 \(\gamma\) 值得到完整 Pareto 前沿

与公平分类的等价性

Lemma 3.1 证明了:在二分类 + 准确率 + 统计均等公平性下,公平表示的 Pareto 前沿与公平分类的 Pareto 前沿等价。因此 MIFPO 既可以评估公平表示方法,也可以评估公平分类方法。

实验关键数据

在三个标准公平性基准数据集上评估:Health、ACSIncome-CA、ACSIncome-US。

对比方法 类型 与 MIFPO 的关系
CVIB 公平表示 MIFPO 一致优于或持平
FCRL 公平表示 MIFPO 一致优于或持平
FNF 公平表示 MIFPO 一致优于或持平
sIPM 公平表示 MIFPO 一致优于或持平
Fare 公平表示 MIFPO 一致优于或持平

MIFPO 在几乎所有工作点上都能达到与基线方法相当或更优的性能,且能刻画完整的 Pareto 前沿曲线(而非离散的超参数配置点)。MIFPO 实际上作为其他方法的性能上界存在。

亮点

  1. 理论优雅:通过 Factorization Lemma 和 Invertibility Theorem 两个结构性定理,将高维连续优化化简为紧凑离散问题,推导过程严谨
  2. 模型无关:无需训练 GAN/VAE 等复杂生成模型,仅依赖校准分类器,易于实现
  3. 通用性能度量:支持任意凹性能度量(如 log loss),不像现有 reduction 方法仅限于准确率
  4. 可作为理论基准:为评估其他公平表示/分类方法提供了理论上界
  5. 开源实现:提供 scikit-learn 兼容的 Python 包(PyPI: FairPareto),支持表格和图像数据

局限性 / 可改进方向

  1. 仅支持二值敏感属性:当前理论和算法限制在 \(A \in \{0,1\}\),虽然 Invertibility Theorem 可以扩展到多值 \(A\),但会增大 MIFPO 问题规模
  2. 主要针对二分类:多标签分类需要更复杂的离散化方案(如聚类)
  3. 依赖校准分类器质量:MIFPO 的参数估计依赖 \(\mathbb{P}(Y|X,A)\) 的准确估计,校准不佳会影响结果
  4. DCCP 求解器的局部最优风险:虽然实验中未观察到,但理论上 concave minimization 的全局最优无法保证(可用 branch-and-bound 但更慢)
  5. 问题规模随 \(L\)\(k\) 增长:变量数为 \(O(L^2 \cdot k)\),大规模问题可能需要更高效的求解方法

与相关工作的对比

方法 需要训练模型 支持通用损失 完整 Pareto 前沿 多值敏感属性
MIFPO(本文) 仅需校准分类器 是(任意凹函数)
Xian et al. 2023 否(仅准确率)
Wang et al. 2023 否(仅准确率)
CVIB/FCRL/FNF 等 需要端到端训练 取决于实现 否(离散点) 取决于实现

与 Xian et al. 和 Wang et al. 最相关:同样从 Bayes 最优分类器出发,但后续步骤不同。现有方法依赖准确率度量的特殊结构(将分类器约化为小混淆矩阵或将分布限制在单纯形顶点),本文方法分析的是更一般的情况。

启发与关联

  • 理论工具的实用价值:将公平性问题的连续优化化简为离散凹规划的思路很巧妙,类似于 information bottleneck 中的离散化技巧
  • 基准线思维:MIFPO 的价值不仅在于自身性能,更在于为所有公平方法提供理论可达上界,这种"计算理论极限"的方法论值得借鉴
  • 与 Optimal Transport 的联系:公平表示的转移概率 \(r_{u,v,j}^a\) 本质上是一种 transport plan,连接了公平性研究和 OT 理论

评分

  • 新颖性: ⭐⭐⭐⭐ — Factorization + Invertibility 两个定理为问题提供了全新的结构性理解
  • 实验充分度: ⭐⭐⭐ — 三个数据集、多个基线,但仅限二分类二值敏感属性场景
  • 写作质量: ⭐⭐⭐⭐ — 理论推导清晰,符号体系完整,从理论到算法的逻辑链条紧凑
  • 价值: ⭐⭐⭐⭐ — 为公平性研究提供了理论基准工具,且有开源实现