On Discovering Algorithms for Adversarial Imitation Learning¶
会议: ICLR 2026
arXiv: 2510.00922
代码: 无
领域: 模仿学习 / 元学习
关键词: 对抗性模仿学习, 奖励赋值函数, LLM引导进化, 元学习, 训练稳定性
一句话总结¶
提出 DAIL——首个元学习对抗性模仿学习算法:将 AIL 分解为密度比估计和奖励赋值(RA)两阶段,用 LLM 引导的进化搜索自动发现最优 RA 函数 \(r_{\text{disc}}\),在未见环境和策略优化器上泛化并超越所有人工设计基线。
研究背景与动机¶
领域现状:对抗性模仿学习(AIL)是有限专家示范下最有效的模仿学习范式。AIL 受 GAN 启发,将学习过程形式化为判别器(区分专家与策略轨迹)和策略(生成接近专家的轨迹)之间的对抗博弈。从散度最小化的视角看,AIL 自然分解为两个阶段:(1) 密度比估计(DR)——判别器估计状态-动作对在专家与策略下的占有度之比 \(\frac{\rho_E}{\rho_\pi}\);(2) 奖励赋值(RA)——将密度比映射为标量奖励信号用于策略优化。
现有痛点: - AIL 训练不稳定,类似 GAN 的训练困难——梯度信号质量直接影响策略改进效果 - 大量研究集中在改进阶段(1)的判别器训练(如 C-GAIL、Diffusion-Reward),而 RA 函数(阶段2)被严重忽视 - 现有 RA 函数(GAIL 的 softplus、AIRL 的 log-ratio、FAIRL 的指数衰减)均从 \(f\)-散度理论人工推导,依赖人类直觉,可能远非最优
核心矛盾:人工设计的 RA 函数在理论优雅性和实际训练稳定性之间存在根本冲突——GAIL 对低质量状态-动作对过度奖励,FAIRL 的指数衰减导致训练不稳定,AIRL 的负奖励诱导提前终止。
本文方案:跳出人工设计范式,用 LLM 引导的进化搜索直接从性能驱动发现最优 RA 函数,实现 AIL 算法的元学习。
方法详解¶
整体框架¶
DAIL 的 pipeline 分为两层: 1. 外层:元学习——用 LLM 引导的进化搜索优化 RA 函数 \(r_f\),最小化训练后策略与专家的 Wasserstein 距离 2. 内层:标准 AIL 循环——给定 \(r_f\),执行策略 rollout → 判别器训练(密度比估计) → 奖励赋值 → 策略改进的迭代 3. 元学习目标形式化为双层优化:\(\min_f \mathcal{W}(\rho_E, \rho_{\pi^*}; f) \quad \text{s.t.} \quad \pi^* = \arg\max_\pi r_f(\rho_E \| \rho_\pi)\)
关键设计1:AIL 的两阶段分解与 RA 函数分析¶
核心洞察在于将 AIL 的奖励信号形成过程拆解为两个独立阶段,并分析不同 RA 函数对训练动态的影响:
| 散度类型 | 算法 | RA 函数 \(r_f(\ell)\) | 特性 |
|---|---|---|---|
| Forward KL | FAIRL | \(-\ell \cdot e^{\ell}\) | 指数无界衰减,训练不稳定 |
| Backward KL | AIRL | \(\ell\) | 线性,大量负奖励→提前终止 |
| Jensen-Shannon | GAIL | \(\text{softplus}(\ell)\) | 对低质量样本过度奖励 |
| 未命名 \(f\)-div | GAIL-heuristic | \(-\text{softplus}(-\ell)\) | 仅激励匹配,负奖励为主 |
其中 \(\ell = \log \frac{\rho_E(s,a)}{\rho_\pi(s,a)}\) 为对数密度比。不同 RA 函数对密度比的响应曲线差异显著,直接决定了梯度信号的信息量和训练稳定性。
关键设计2:LLM 引导的进化搜索¶
由于双层优化需要对整个 AIL 训练循环反向传播,在计算上不可行,因此采用黑箱优化:
- 基础种群:以 GAIL、AIRL、FAIRL、GAIL-heuristic 的 RA 函数作为初始种群
- 适应度评估:每个候选 \(r_f\) 训练策略到收敛,计算 rollout 与专家的 Wasserstein 距离作为适应度
- 交叉变异:采样父代对 \(\{r_{f_1}, r_{f_2}\}\),连同适应度送入 LLM(GPT-4.1-mini),提示其融合父代优点生成子代 \(r_{f_3}\)
- 选择:每代评估 \(M \times N\) 个候选,保留 Top-\(K\) 进入下一代
- RA 函数直接以 Python 代码 表示,确保可解释性和表达力
搜索在 Minatar SpaceInvaders 上进行,评估 200 个候选函数,耗时约 3 小时。
关键设计3:发现的 RA 函数 \(r_{\text{disc}}\)¶
进化搜索发现的最优 RA 函数为:
\(r_{\text{disc}}\) 具有以下关键特性: - 有界 \([0,1]\)——有界奖励已被证明可稳定深度 RL 训练 - S 型曲线且梯度比标准 sigmoid 更陡峭,右移——在 \([-1,0]\) 区间提供信息丰富的梯度 - 对 \(x \lesssim -1.8\)(接近随机策略行为)饱和至零——有效过滤低质量状态-动作对 - 独立运行两次进化搜索,Top-5 函数结构高度相似——搜索过程稳定
实验结果¶
主实验:跨环境泛化¶
在搜索环境外的 Brax (MuJoCo) 和 Minatar 基准上评估,所有方法共享相同超参数,仅 RA 函数不同:
| 方法 | Brax Mean ↑ | Brax Median ↑ | Minatar Mean ↑ | Minatar Median ↑ |
|---|---|---|---|---|
| GAIL | ~0.65 | ~0.70 | ~0.55 | ~0.60 |
| AIRL | ~0.70 | ~0.75 | ~0.30 | ~0.25 |
| FAIRL | ~0.40 | ~0.35 | ~0.35 | ~0.30 |
| GAIL-heuristic | ~0.55 | ~0.60 | ~0.25 | ~0.20 |
| DAIL | ~0.75 | ~0.72 | ~0.85 | ~0.90 |
关键发现: - DAIL 在 Minatar 上大幅超越所有基线(Mean 和 Median 均显著领先) - 在 Brax 上 DAIL 多数指标最优,Mean 统计显著优于所有基线 - AIRL 和 GAIL-heuristic 在 Minatar 上表现差——负奖励为主激励提前终止
消融实验:分析 DAIL 优势来源¶
| 分析维度 | 发现 | 量化指标 |
|---|---|---|
| 搜索环境泛化 | SpaceInvaders 上搜索→其他环境泛化 | \(\mathcal{W}\) 距离降低 20%,归一化回报提升 12.5% |
| 策略优化器泛化 | PPO 搜索→A2C 上评估 | DAIL 在 A2C 上同样显著优于 GAIL |
| 判别器正则化鲁棒性 | 5 种正则化策略(none/w-decay/entropy/spectral/grad-pen) | DAIL 在 3/5 种设置下超越 GAIL |
| 策略熵收敛 | DAIL 策略收敛到更低熵 | 接近真实奖励 PPO 基线的熵水平 |
| 组件消融 | \(r_{\text{disc}}\) vs sigmoid vs \(0.5[\tanh+1]\) | \(r_{\text{disc}}\) > \(0.5[\tanh+1]\) > sigmoid |
| 搜索稳定性 | 两次独立进化搜索 | Top-5 RA 函数结构高度相似 |
策略熵分析揭示 DAIL 训练更稳定的核心原因:\(r_{\text{disc}}\) 对 \(x \lesssim -1.8\) 饱和至零,过滤随机策略行为产生的噪声奖励;GAIL 在 \(x=-2\) 仍给出高正奖励,对低质量行为过度敏感,导致奖励信号嘈杂。
不同判别器正则化下的详细性能¶
| 算法 | 环境 | None | W-Decay | Entropy | Spectral | Grad-Pen |
|---|---|---|---|---|---|---|
| DAIL | Asterix | 0.88±0.03 | 1.33±0.03 | 0.12±0.01 | 0.92±0.03 | 0.66±0.03 |
| DAIL | Breakout | 0.81±0.07 | 0.74±0.08 | 0.91±0.02 | 0.77±0.07 | 1.01±0.00 |
| DAIL | SpaceInv | 0.71±0.07 | 0.81±0.01 | 0.80±0.01 | 0.70±0.09 | 0.90±0.00 |
| DAIL | Overall | 0.80±0.03 | 0.96±0.03 | 0.61±0.01 | 0.80±0.04 | 0.85±0.01 |
| GAIL | Asterix | 1.18±0.03 | 1.44±0.03 | 0.48±0.03 | 0.22±0.03 | 0.52±0.04 |
| GAIL | Breakout | 0.76±0.07 | 0.52±0.10 | 0.89±0.01 | 0.33±0.10 | 0.85±0.07 |
| GAIL | SpaceInv | 0.61±0.09 | 0.34±0.09 | 0.81±0.00 | 0.42±0.08 | 0.81±0.03 |
| GAIL | Overall | 0.85±0.04 | 0.76±0.04 | 0.73±0.01 | 0.32±0.05 | 0.73±0.03 |
论文评价¶
优点¶
- 问题定位精准:首次系统性揭示 RA 函数对 AIL 训练稳定性的关键影响,填补了领域空白
- 方法论创新:将元学习引入 AIL 的 RA 函数发现,实现从人工设计到数据驱动的范式转变
- 分析深入:通过密度比分布、策略熵、组件消融等多角度分析清晰解释了 DAIL 的优势来源
- 泛化性强:跨环境(Brax+Minatar)、跨优化器(PPO→A2C)、跨正则化策略的一致性优势
不足¶
- 发现的 \(r_{\text{disc}}\) 不对应有效 \(f\)-散度,缺乏理论收敛保证
- RA 函数在训练过程中保持静态,未利用训练状态信息(如剩余更新步数、观测到的密度比分布)进行自适应调整
- 搜索仅在单一环境(SpaceInvaders)上进行,更大规模环境集合上的搜索可能发现更强函数
- 未在更复杂基准(Atari-57/Procgen)上验证
评分¶
⭐⭐⭐⭐ — 问题定位精准、方法新颖、分析深入,但缺乏理论保证且搜索规模受限。
相关论文¶
- [ICLR 2026] Latent Wasserstein Adversarial Imitation Learning
- [ICLR 2026] Model Predictive Adversarial Imitation Learning for Planning from Observation
- [ICLR 2026] Near-Optimal Second-Order Guarantees for Model-Based Adversarial Imitation Learning
- [ICLR 2026] Learning to Generate Unit Test via Adversarial Reinforcement Learning
- [NeurIPS 2025] Parameter-Free Algorithms for the Stochastically Extended Adversarial Model