跳转至

🎮 强化学习

🧠 NeurIPS2025 · 共 79

A Generalized Bisimulation Metric of State Similarity between Markov Decision Processes: From Theoretical Propositions to Applications

将传统只能在单个MDP内度量状态相似性的bisimulation metric (BSM)推广到跨MDP场景,提出广义双模拟度量(GBSM),严格证明了对称性、跨MDP三角不等式和同状态距离上界三个基本度量性质,并在策略迁移、状态聚合和基于采样的估计三个应用中推导出比标准BSM更紧的误差界和闭式样本复杂度。

A Near-optimal, Scalable and Parallelizable Framework for Stochastic Bandits Robust to Adversarial Corruptions and Beyond

提出 BARBAT 框架,改进了经典的 BARBAR 算法,通过固定 epoch 长度和逐 epoch 调整失败概率,将对抗腐蚀下随机多臂老虎机的 regret 从 \(O(\sqrt{K}C)\) 降至近最优的 \(O(C)\)(消除了 \(\sqrt{K}\) 因子),并成功扩展到多智能体、图老虎机、组合半老虎机和批量老虎机等多种场景。

A Theory of Multi-Agent Generative Flow Networks

提出多智能体生成流网络(MA-GFlowNets)的理论框架,证明了"局部-全局原理"——联合流函数可分解为各智能体独立流的乘积形式,设计了四种算法(CFN/IFN/JFN/CJFN),其中 JFN 和 CJFN 实现中心化训练+去中心化执行(CTDE),在 Hyper-Grid 和 StarCraft 环境中超越 RL 和 MCMC 方法。

A Unifying View of Linear Function Approximation in Off-Policy RL Through Matrix Splitting and Preconditioning

将线性函数逼近下的TD、FQI和PFQI统一为求解同一线性系统的迭代方法(仅预条件子不同),首次引入矩阵分裂理论来分析它们的收敛性,给出了各算法收敛的充要条件,并揭示了TD收敛不一定意味着FQI收敛(反之亦然)。

Act to See, See to Act: Diffusion-Driven Perception-Action Interplay for Adaptive Policies

提出 DP-AG(Action-Guided Diffusion Policy),通过将扩散策略的噪声预测的 Vector-Jacobian Product (VJP) 作为结构化随机力驱动隐观测特征在扩散步骤间动态演化,并用循环一致对比损失闭合感知-动作环路,在 Push-T 上提升 6%、Dynamic Push-T 上提升 13%、真实 UR5 机器人上成功率提升 23%+。

Actor-Free Continuous Control via Structurally Maximizable Q-Functions

提出Q3C(Q-learning for Continuous Control with Control-points),一种无actor的纯基于值函数的连续控制方法,通过控制点插值逼近任意形状的Q函数,在复杂(非凸、受限)Q函数景观中显著优于actor-critic方法。

Adaptive Cooperative Transmission Design For Ultra-Reliable Low-Latency Communic

提出 DRL-CoLA 算法,用双 Agent DQN 分别在源节点和中继节点上自适应配置 5G NR 传输参数(numerology、mini-slot、MCS),在两跳中继系统中仅用本地 CSI 即可达到接近全局 CSI 最优的 URLLC 可靠性。

Adaptive Neighborhood-Constrained Q Learning for Offline Reinforcement Learning

提出 ANQ(Adaptive Neighborhood-constrained Q learning),在离线 RL 中引入基于优势函数的自适应邻域约束,在密度约束(过于保守)和支持约束(需精确建模行为策略)之间找到灵活的中间方案,通过双层优化框架实现高效 Q 学习,在 D4RL 基准上达到 SOTA。

Adaptively Coordinating with Novel Partners via Learned Latent Strategies

提出 TALENTS 框架,通过 VAE 学习潜在策略空间 + K-Means 聚类发现策略类型 + Fixed-Share 遗憾最小化算法在线推断队友类型,实现对未知人类/智能体队友的零样本实时适应协作。

ALINE: Joint Amortization for Bayesian Inference and Active Data Acquisition

ALINE 提出统一的分摊贝叶斯推断和主动数据获取框架,用 Transformer 架构 + RL 训练,使模型能同时策略性地选择最有信息量的数据点并即时完成后验推断,还支持灵活地针对特定参数子集或预测目标进行数据获取。

FastSVERL: Approximating Shapley Explanations in Reinforcement Learning

提出 FastSVERL——首个针对 RL 的可扩展 Shapley 值近似方法,用参数化模型分摊计算成本,解决 RL 特有的时序依赖、off-policy 数据和策略演化等挑战,为 RL 决策提供原则性的特征归因解释。

Automaton Constrained Q-Learning

ACQL 将安全 RL 和目标条件 RL 提升到 LTL(线性时序逻辑)任务类——用自动机编码时序目标进展和非平稳安全约束,结合目标条件值学习(+HER密集化奖励)和基于 Hamilton-Jacobi 可达性的安全约束,在连续控制任务上显著超越现有 LTL RL 方法,并在 6-DOF 机械臂上成功部署。

BEAST: Efficient Tokenization of B-Splines Encoded Action Sequences for Imitation Learning

BEAST 用 B 样条曲线参数化动作序列——通过岭回归估计控制点并均匀量化为固定长度 token,实现 20× token 压缩(100 步→5 token)、数学保证的动作块间 \(C^0\) 连续过渡,在 LIBERO-Long 上成功率排名第 1(86.4%),推理吞吐量 617 Hz(比 π₀ 快 2.14×、比 OpenVLA 快 101×)。

Behavior Injection: Preparing Language Models for Reinforcement Learning

揭示 LLM 对 RL 微调响应不一致的根本原因——通过 per-step influence 分析发现 RL 效果取决于(1)rollout 准确率分布(中等最优)和(2)数据 co-influence 强度,提出 BRIDGE 在 SFT 阶段注入探索/利用行为,使后续 RL 增益从 6% 提升到 46.6%。

Beyond the 80/20 Rule: High-Entropy Minority Tokens Drive Effective Reinforcement Learning for LLM Reasoning

从 token 熵模式的全新视角分析 RLVR,发现 CoT 推理中仅约 20% 的高熵"分叉 token"决定推理方向,仅在这些 token 上做梯度更新即可匹配甚至大幅超越全量更新(Qwen3-32B 上 AIME'25 +11.04),揭示 RLVR 本质是优化推理决策点。

Blending Complementary Memory Systems in Hybrid Quadratic-Linear Transformers

提出混合二次-线性 Transformer(HQLT),将 KV-memory(softmax attention,精确检索但二次复杂度)与 FW-memory(DeltaNet/线性 attention,线性复杂度但检索粗糙)融合为互补记忆系统,比较三种混合策略(延迟流式/延迟分块/同步),在 340M 和 1.3B 参数规模的语言建模、检索、算法推理和 RL 任务上验证同步混合最优。

Bootstrap Off-policy with World Model (BOOM)

提出 BOOM 框架,通过 bootstrap 循环将在线规划器(MPPI)与 off-policy 策略学习紧密结合:策略初始化规划器,规划器反过来通过无似然对齐损失(likelihood-free alignment)引导策略改进,配合 soft Q-weighted 机制优先学习高回报行为,在高维连续控制任务上取得 SOTA。

Bootstrap Off-policy with World Model

提出 BOOM 框架,通过 bootstrap 对齐回路将在线规划器的高质量动作蒸馏到策略网络,使用 likelihood-free 的前向 KL 散度和软 Q 加权机制,有效缓解规划器与策略之间的 actor divergence 问题,在高维连续控制任务上取得 SOTA。

Certifying Stability of Reinforcement Learning Policies using Generalized Lyapunov Functions

提出 Generalized Lyapunov Function 方法,通过将 RL 值函数与神经网络残差项结合,并用多步加权下降条件替代经典的逐步严格下降要求,实现对 RL 策略的稳定性认证。

Checklists Are Better Than Reward Models For Aligning Language Models

提出 Reinforcement Learning from Checklist Feedback (RLCF),将指令分解为动态生成的 yes/no checklist,结合 AI judge 和代码验证器逐项评分后做 DPO 训练,在 5 个 benchmark 上一致性提升 Qwen2.5-7B-Instruct,是唯一在所有 benchmark 上都有正收益的方法(FollowBench +4pt, InFoBench +6pt, Arena-Hard +3pt)。

Communicating Plans, Not Percepts: Scalable Multi-Agent Coordination with Embodied World Models

提出基于轻量世界模型的"意图通信"架构,通过生成并共享未来轨迹计划来实现多智能体协调,在可扩展性和性能上全面超越端到端涌现通信方案。

Comparing Uniform Price and Discriminatory Multi-Unit Auctions through Regret Minimization

从在线学习和遗憾最小化框架出发,系统比较统一价格拍卖与歧视性拍卖的学习难度,证明两种格式在最坏情况下遗憾率相同,但特定结构条件下统一价格拍卖允许更快的学习速率。

Complexity Scaling Laws for Neural Models using Combinatorial Optimization

以旅行商问题(TSP)为案例,研究固定模型容量下问题复杂度(解空间大小、表示空间维度)与模型性能之间的可预测缩放规律,揭示了 RL 和 SFT 在组合优化中的系统性性能趋势。

Computational Hardness of Reinforcement Learning with Partial \(q^\pi\)-Realizability

引入"部分 \(q^\pi\)-可实现性"概念,证明在此设定下使用贪心策略集时学习近优策略是 NP-hard 的,使用 softmax 策略集时在 rETH 假设下需要指数时间,弥合了 \(q^*\)-可实现性和 \(q^\pi\)-可实现性之间的理论空白。

Confounding Robust Deep Reinforcement Learning: A Causal Approach

基于部分辨识(partial identification)理论扩展 DQN,提出 Causal DQN 从含有未观测混淆因子的离线数据中学习鲁棒策略——通过优化最坏情况下的价值函数下界来获得安全策略,在 12 个混淆 Atari 游戏中一致性地超越标准 DQN。

Continual Knowledge Adaptation for Reinforcement Learning

提出 CKA-RL,为每个任务维护知识向量(task-specific knowledge vector),通过 softmax 加权的动态知识适配和自适应知识合并机制,在三个持续 RL 基准上实现 4.20% 的整体性能提升和 8.02% 的前向迁移提升。

Convergence Theorems For Entropy-Regularized And Distributional Reinforcement Le

提出 温度解耦策略(temperature decoupling gambit),证明在熵正则化强化学习中,通过解耦评估温度和行为温度,可以在温度趋于零时保证策略和回报分布收敛到一个可解释的、保持多样性的最优策略。

CORE: Constraint-Aware One-Step Reinforcement Learning for Simulation-Guided Neural Network Accelerator Design

提出 CORE(Constraint-aware One-step REinforcement learning),一种无 critic 的单步 RL 框架,通过结构化分布采样、scaling-graph 解码器和约束感知的 reward shaping 来高效探索 DNN 加速器的硬件-映射联合设计空间,在 7 个 DNN 模型上取得至少 15× 的 latency 改善。

Decoder-Hybrid-Decoder Architecture for Efficient Reasoning with Long Generation

SambaY 提出 Gated Memory Unit(GMU)用于跨层共享 SSM 的 token 混合表示,将 YOCO 的 cross-decoder 中一半的 cross-attention 层替换为轻量级 GMU,在保持线性预填充复杂度和长上下文检索能力的同时,大幅提升解码效率——最终产品 Phi4-mini-Flash-Reasoning (3.8B) 在推理任务上超越 Phi4-mini-Reasoning,且在 2K 提示 + 32K 生成场景下实现高达 10× 的解码吞吐提升。

Deep RL Needs Deep Behavior Analysis: Exploring Implicit Planning by Model-Free Agents

提出 ForageWorld 自然觅食环境和神经科学启发的行为分析框架,揭示无模型 RNN-based DRL 智能体通过涌现动力学展现出结构化的类规划行为——无需显式记忆模块或世界模型。

DeepDiver: Adaptive Search Intensity Scaling via Open-Web Reinforcement Learning

提出 DeepDiver,一个 RL 驱动的搜索推理框架,在真实开放网络环境中训练 LLM 的信息寻求能力,催生"搜索强度缩放"(SIS)涌现行为——7B 模型在知识密集任务上可媲美 671B 的 DeepSeek-R1。

DISCOVER: Automated Curricula for Sparse-Reward Reinforcement Learning

提出 DISCOVER,一种面向稀疏奖励长视野 RL 的目标选择策略,通过同时平衡可达性(achievability)、新颖性(novelty)和相关性(relevance)来生成指向目标任务的课程,理论上证明达到目标的步数与目标距离线性相关(而非搜索空间体积),在高维导航和操作任务中显著超越先前 SOTA 探索策略。

Dynamic Regret Reduces to Kernelized Static Regret

将动态遗憾最小化问题重新建模为再生核希尔伯特空间(RKHS)中的静态遗憾问题,通过精心设计平移不变核实现最优路径长度依赖 \(\widetilde{\mathcal{O}}(\sqrt{MP_TT})\),且天然不需要时间范围先验知识。

Dynamics-Aligned Latent Imagination in Contextual World Models for Zero-Shot Generalization

在 DreamerV3 架构中引入自监督上下文编码器 DALI,从交互历史中推断潜在环境参数(如重力、摩擦力),在 cMDP 基准上无需重训练即可实现零样本泛化,在外推任务上比 ground-truth context-aware 基线高出最多 96.4%。

EgoBridge: Domain Adaptation for Generalizable Imitation from Egocentric Human Data

提出 EgoBridge 框架,利用最优传输(OT)在策略潜在空间中对齐人类和机器人数据的联合分布(特征+动作),结合动态时间规整(DTW)构建伪配对,实现从第一人称人类数据到机器人的跨具身知识迁移,在真实世界任务中绝对成功率提升达 44%。

Empirical Study on Robustness and Resilience in Cooperative Multi-Agent Reinforcement Learning

通过 82,620 次大规模实验系统性研究合作多智能体 RL 中的鲁棒性和弹性,揭示超参数调优比算法选择更重要,并发现参数共享、GAE、PopArt 等常见做法在不确定性下反而有害,提出一套实用的超参数建议。

Enhancing Interpretability in Deep Reinforcement Learning through Semantic Clustering

提出语义聚类模块(SCM),将特征降维网络(FDR)与改进的 VQ-VAE 在线聚类相结合,无缝集成到 DRL 训练流程中,解决了 t-SNE 可视化不稳定的问题,揭示 DRL 内在具有基于语义的动态聚类特性。

Establishing Linear Surrogate Regret Bounds for Convex Smooth Losses via Convolutional Fenchel–Young Losses

通过构造基于卷积负熵(convolutional negentropy)的 Fenchel–Young 损失,首次证明凸且光滑的代理损失可以同时拥有线性代理遗憾界,打破了此前社区认为光滑性与线性遗憾率不可兼得的固有认知。

EvoLM: In Search of Lost Language Model Training Dynamics

系统训练 100+ 个 1B/4B 参数的 LM(从零开始),透明地研究预训练→续训→SFT→RL 各阶段的训练动态,揭示过度训练的递减收益、灾难性遗忘的缓解策略、以及 SFT/RL 配置的复杂权衡。

Exploration via Feature Perturbation in Contextual Bandits

提出特征扰动(Feature Perturbation)作为上下文 bandit 的新型随机探索策略:直接在特征输入上注入噪声,而非扰动参数或奖励,从而在广义线性 bandit 中实现 \(\tilde{O}(d\sqrt{T})\) 最优遗憾界,首次消除了随机化算法相较确定性方法的 \(\sqrt{d}\) 因子劣势。

Exploration with Foundation Models: Capabilities, Limitations, and Hybrid Approaches

系统评测 LLM/VLM 在经典 RL 探索任务(bandit、Gridworld、Atari)上的零样本能力,发现 VLM 存在"知行差距"(knowing-doing gap)——高层推理正确但低层控制失败,并提出简单的 VLM-RL 混合框架在理想条件下可显著加速学习。

Extending NGU to Multi-Agent RL: A Preliminary Study

将单智能体 NGU(Never Give Up)算法扩展至多智能体环境,通过共享回放缓冲区、共享新颖性信号和异构 β 参数三个设计维度的系统消融,发现 NGU + 共享经验池组合在 PettingZoo simple_tag 追捕任务中显著优于多智能体 DQN 基线。

FedRAIN-Lite: Federated Reinforcement Algorithms for Improving Idealised Numerical Weather and Climate Models

提出 FedRAIN-Lite 联邦强化学习框架,将 RL 智能体分配到不同纬度带学习局部气候参数化策略并定期全局聚合,在层次化理想能量平衡模型上验证 DDPG 在热带和中纬度区域可将面积加权 RMSE 降低 50% 以上,为 RL 扩展到全尺度 GCM 提供了可行路径。

Feel-Good Thompson Sampling for Contextual Bandits: a Markov Chain Monte Carlo Showdown

首次系统性实证评估 Feel-Good Thompson Sampling (FG-TS) 及其平滑变体 SFG-TS 在近似后验下的表现,横跨线性/逻辑/神经三类上下文赌博机设置和十四个基准,发现 FG-TS 在精确后验场景(线性/逻辑)下优于标准 TS,但在神经赌博机中反而退化,揭示了乐观偏差与采样噪声之间的关键权衡。

Finite-Sample Analysis of Policy Evaluation for Robust Average Reward Reinforcement Learning

首次给出鲁棒平均奖励 MDP 策略评估的有限样本复杂度分析:通过构造精巧的半范数证明鲁棒 Bellman 算子具有收缩性质,结合截断 Multi-Level Monte Carlo 估计器实现有限期望样本复杂度,最终达到阶最优的 \(\tilde{\mathcal{O}}(\epsilon^{-2})\) 样本复杂度。

Forecasting in Offline Reinforcement Learning for Non-stationary Environments

提出 Forl 框架,将条件扩散模型生成的多模态候选状态与零样本时序基础模型的偏移预测通过维度最近匹配(DCM)融合,在测试时无需重训练即可应对观测函数随 episode 非平稳变化的离线 RL 部署场景,在 D4RL 标准基准上平均提升数十分。

Foundation Models as World Models: A Foundational Study in Text-Based GridWorlds

系统性评估了基础模型(LLM)作为零样本世界模型(FWM)和直接决策智能体(FA)在文本网格世界中的表现,揭示了两种策略在确定性/随机性环境中的互补优势。

Generalized Linear Bandits: Almost Optimal Regret with One-Pass Update

提出GLB-OMD算法,首次在广义线性赌博机(GLB)问题中同时实现近似最优遗憾界 \(\mathcal{O}(\log T\sqrt{T/\kappa_*})\) 和每轮 \(\mathcal{O}(1)\) 的时间/空间复杂度,核心技术是基于混合损失(mix loss)为在线镜像下降(OMD)估计量构建紧致置信集。

Generalizing Verifiable Instruction Following

引入IFBench基准评估精确指令遵循的泛化能力,证明当前SOTA模型严重过拟合于IFEval的25种约束模板,并提出IF-RLVR训练方法(基于GRPO + 可验证奖励)显著提升域内外指令遵循性能。

Global Convergence for Average Reward Constrained MDPs with Primal-Dual Actor-Critic

提出Primal-Dual Natural Actor-Critic(PDNAC)算法,首次在一般参数化策略下的平均奖励约束MDP中实现 \(\tilde{\mathcal{O}}(1/\sqrt{T})\) 的全局收敛率和约束违反率,匹配理论下界。

Gradient-Variation Online Adaptivity for Accelerated Optimization with Hölder Smoothness

在 Hölder 光滑函数类上实现梯度变差自适应的在线学习算法,其 regret 在光滑和非光滑极端之间平滑插值;通过在线到批量转换,首次为强凸优化提供在光滑情形下加速、非光滑情形下近优的通用方法。

Greedy Algorithm for Structured Bandits: A Sharp Characterization of Asymptotic Success / Failure

本文对结构化 bandit 问题中的贪心算法(Greedy)进行了完整的理论刻画,提出 self-identifiability 作为贪心算法能否获得 sublinear regret 的充要条件,并将结论推广到上下文 bandit 及一般交互决策框架 DMSO。

Horizon Reduction Makes Rl Scalable

本文通过大规模实验(最高 10 亿转移数据)揭示离线 RL 的可扩展性瓶颈源于决策时域过长(curse of horizon),并证明通过 n-step 回报和层次策略等时域缩减技术可显著提升扩展性,进而提出了简洁有效的 SHARSA 方法。

Human-Inspired Multi-Level Reinforcement Learning

本文提出 RbRL-KL,在 rating-based RL 基础上增加 KL 散度驱动的策略损失项,利用不同评分等级的失败经验以不同权重推开当前策略,在 6 个 DeepMind Control 环境中超越标准 RbRL。

Hybrid Latent Reasoning via Reinforcement Learning

HRPO 提出混合潜在推理策略优化:通过可学习的门控机制将前一步的隐藏状态表示逐步融入到采样的 token embedding 中,使 LLM 在推理阶段同时利用离散 token 和连续潜在表示,无需 CoT 标注即可通过 RL 训练,在知识密集型和 STEM 推理任务上均超越 PPO/GRPO 等基线。

Improved Regret and Contextual Linear Extension for Pandora's Box and Prophet Inequality

本文针对在线 Pandora's Box 问题提出新算法,将 regret 从 \(\widetilde{O}(n\sqrt{T})\) 改进到 \(\widetilde{O}(\sqrt{nT})\)(匹配下界),并首次提出 contextual linear 扩展实现 \(\widetilde{O}(nd\sqrt{T})\) regret。

Improved Regret Bounds for GP-UCB in Bayesian Optimization

本文证明 GP-UCB 在贝叶斯设定下可达 \(\widetilde{O}(\sqrt{T})\) 高概率 regret(Matern 核满足光滑条件时)和 \(O(\sqrt{T \ln^2 T})\)(SE 核),弥合了 GP-UCB 已有上界与最优上界间的差距。

Improving Planning and MBRL with Temporally-Extended Actions

本文提出在 shooting-based 规划和 MBRL 中将动作持续时间作为额外优化变量,配合 MAB 自动选择持续时间范围,在多个环境中显著加速规划并解决标准方法无法解决的困难任务。

Interactive and Hybrid Imitation Learning: Provably Beating Behavior Cloning

当标注成本按状态而非轨迹计量时,证明交互式方法 Stagger 在 \(\mu\)-可恢复条件下可证明地超越 Behavior Cloning(次优性 \(O(\mu H \log B / N)\) vs \(O(RH \log B / CN)\)\(\mu \ll R\) 时优势显著);进一步提出混合 IL 算法 Warm-Stagger,结合离线数据和交互标注,在特定 MDP 上实现两种数据源的严格互补优势。

Inverse Optimization Latent Variable Models for Learning Costs Applied to Route Problems

提出 IO-LVM(Inverse Optimization Latent Variable Model),用 VAE 式编码器映射观测的 COP 解到潜在成本空间,通过 Fenchel-Young 损失和黑盒求解器(Dijkstra/TSP solver)在解码端保证可行性,无需 agent 标签即可从路径数据中学到成本函数的分布,成功不可监督地分离不同 agent 的导航偏好。

Last Iterate Convergence In Monotone Mean Field Games

在非严格单调平均场博弈(MFG)中,提出基于 KL 散度的近端点(PP)方法实现渐近最后迭代收敛(LIC),并证明正则化镜像下降(RMD)以指数速率收敛到正则化均衡,两者结合的 APP 算法在标准基准上可靠收敛到非正则化均衡。

Learning in Stackelberg Mean Field Games: A Non-Asymptotic Analysis

提出首个具有非渐近收敛保证的单循环Actor-Critic算法AC-SMFG,用于求解Stackelberg平均场博弈(SMFG),收敛速率达到 \(\widetilde{\mathcal{O}}(k^{-1/2})\)

Massively Parallel Imitation Learning of Mouse Forelimb Musculoskeletal Reaching Dynamics

基于 MIMIC-MJX 平台构建小鼠前肢肌肉骨骼模拟学习流水线,通过 JAX 加速的大规模并行 PPO(120 万步/秒)训练物理感知模仿学习策略,证明控制成本正则化能使模拟肌肉活动更好地预测真实 EMG 信号,并用基于 Takens 定理的非线性动力学方法从关节运动学预测肌肉激活。

Mean-Field Sampling for Cooperative Multi-Agent Reinforcement Learning

提出 SUBSAMPLE-MFQ 算法,通过从 \(n\) 个智能体中随机采样 \(k\) 个进行均场 Q 学习,将多智能体强化学习的样本复杂度从 \(\text{poly}(n)\) 降低到 \(\text{poly}(k)\),且性能差距仅为 \(\tilde{O}(1/\sqrt{k})\)(与 \(n\) 无关),当 \(k = O(\log n)\) 时实现相对均场 MARL 的指数加速。

Multi-Agent Collaboration via Evolving Orchestration

提出"木偶师"(Puppeteer)式多 Agent 协作范式——一个中心化编排器通过 RL 学习在每个推理步骤动态选择激活哪个 Agent,在封闭域和开放域任务上同时提升性能和效率,并发现演化后的拓扑趋向更紧凑的环形结构。

Multi-Objective Reinforcement Learning with Max-Min Criterion: A Game-Theoretic Approach

将max-min多目标强化学习重新表述为两人零和正则化连续博弈,提出ERAM/ARAM算法,利用镜像下降实现简洁的闭式权重更新,保证全局最后迭代收敛,在交通信号控制等任务中显著优于已有方法。

NoisyRollout: Reinforcing Visual Reasoning with Data Augmentation

提出NoisyRollout,一种简单有效的数据增强方法——在VLM的RL训练中混合使用干净图像和适度扭曲图像的生成轨迹,通过注入感知多样性促进策略探索和鲁棒推理,配合噪声退火调度,零额外计算成本实现5个域外推理benchmark上的开源RL模型SOTA。

Non-convex Entropic Mean-Field Optimization via Best Response Flow

将Best Response Flow从凸函数泛函优化扩展到非凸情形,证明在充分大的熵正则化下,BR算子在 \(L^1\)-Wasserstein距离下成为压缩映射,保证非凸目标的唯一全局最小值存在性及指数收敛。

Optimizing the Unknown: Black Box Bayesian Optimization with Energy-Based Model and Reinforcement Learning

提出REBMBO框架,将高斯过程(局部建模)、能量模型EBM(全局探索)和PPO强化学习(多步前瞻)统一为贝叶斯优化闭环,在高维/多峰黑盒优化中显著优于传统BO方法。

Qimeng-Salv Signal-Aware Learning For Verilog Code Generation

从部分正确的Verilog模块中提取信号级正确实现用于信号感知DPO训练,使7B模型在RTLLM v1.1上达到671B DeepSeek-v3的水平(62.6% pass@1)。

Reasoning Gym: Reasoning Environments for Reinforcement Learning with Verifiable Rewards

发布Reasoning Gym库,包含100+可验证推理任务的过程生成环境,支持动态难度调整和无限数据生成,可用于RLVR训练和推理评估。

Reinforcement Learning for Long-Horizon Multi-Turn Search Agents

展示 RL 训练的 14B 参数搜索 agent 在法律文档检索任务上通过多轮交互可以超越 frontier 模型(85% vs GPT o3 的 81%),关键在于精心设计的分段奖励结构和允许长 horizon 多轮交互。

Retrosynthesis Planning Via Worst-Path Policy Optimisation In Tree-Structured Md

将逆合成规划重新建模为树结构MDP中的最差路径优化问题,用自模仿学习确保所有合成路线都能终止于可购买的起始材料。

RL Tango: Reinforcing Generator and Verifier Together for Language Reasoning

Tango 提出一种交替 RL 训练生成器和验证器的框架——验证器是生成式过程级 LLM(用自然语言逐步评判),仅用结果级正确性奖励训练(无需步骤标注),通过与生成器的共进化相互增强——在 7B/8B 级别模型上达到SOTA,AIME 2025 准确率相对 vanilla GRPO 提升 100%。

Sample-Efficient Tabular Self-Play for Offline Robust Reinforcement Learning

提出 RTZ-VI-LCB 算法用于离线鲁棒两人零和 Markov 博弈(RTZM G),通过乐观鲁棒值迭代 + Bernstein 风格惩罚,实现近最优样本复杂度 \(O(C_r^* \cdot H^4 \cdot S \cdot (A+B) / \varepsilon^2)\),较此前最优结果 \(O(H^5 \cdot S^2 \cdot AB / \varepsilon^2)\) 在状态空间和动作空间依赖上均有显著改善。

Solving Neural Min-Max Games: The Role of Architecture, Initialization & Dynamics

首次为两层神经网络参数化的零和博弈提供收敛保证,证明在适当过参数化、随机初始化和交替梯度下降上升(AltGDA)下,能以高概率收敛到 \(\epsilon\)-近似纳什均衡。

Structured Reinforcement Learning for Combinatorial Decision-Making

提出 Structured Reinforcement Learning (SRL),将组合优化求解器作为可微层嵌入 actor-critic 的 actor 中,通过 Fenchel-Young 损失 + 高斯扰动实现端到端梯度传播,纯在线学习、无需专家数据,在6个工业级组合决策问题上匹配模仿学习、超越无结构 RL 最高 92%。

SWE-RL: Advancing LLM Reasoning via Reinforcement Learning on Open Software Evolution

首次将强化学习 (RL) 应用于真实世界软件工程任务(GitHub PR/Issue 修复),仅用基于规则的序列相似度奖励训练 Llama-3.3-70B,在 SWE-bench Verified 上达到 41.0% 解决率(中等规模模型 SOTA),且 RL 训练仅在 issue-solving 数据上进行,却涌现出在代码推理、数学、通用语言理解等域外任务上的泛化推理能力。

Training Language Models to Reason Efficiently

通过在 RL 奖励中加入长度惩罚项——正确回答的奖励乘以 \((1 - \alpha \cdot \sigma(\text{norm\_len}))\),用单一超参数 \(\alpha\) 控制 token-准确率权衡曲线,仅 100 步 RL 训练即可让 7B 推理模型减少 50% token 使用量而准确率仅下降 <5%。