跳转至

🎮 强化学习

📹 ICCV2025 · 7 篇论文解读

Embodied Navigation with Auxiliary Task of Action Description Prediction

DescRL 将动作描述生成作为强化学习导航的辅助任务,通过从预训练的视觉-语言模型蒸馏知识来训练 ADPredictor,使导航智能体在生成可解释动作描述的同时提升导航性能,在语义音频-视觉导航(SAVNav)等多个任务上实现 SOTA。

mDP3: A Training-free Approach for List-wise Frame Selection in Video-LLMs

提出 mDP3,一种免训练、模型无关的视频帧选择方法,通过条件高斯核在 RKHS 中估计帧相似度,结合行列式点过程(DPP)捕获查询相关性和列表级多样性,再通过马尔可夫决策过程(MDP)建模时序性,在多个长视频 benchmark 上以仅 8 帧输入显著超越均匀采样和现有帧选择方法。

NavQ: Learning a Q-Model for Foresighted Vision-and-Language Navigation

提出 NavQ,一种前瞻性 VLN 智能体,通过 Q-model 在单次前向传播中预测每个候选动作的长期未来语义聚合特征(Q-feature),结合 A* 式搜索策略在目标导向导航中取得显著提升。

Progressor: A Perceptually Guided Reward Estimator with Self-Supervised Online Refinement

提出Progressor框架,从无标注视频中自监督学习任务无关的奖励函数,通过预测任务进度分布提供稠密奖励信号,并在在线RL训练中通过对抗性push-back策略应对分布偏移问题。

R1-Onevision: Advancing Generalized Multimodal Reasoning through Cross-Modal Formalization

提出 R1-Onevision,通过跨模态推理管线将图像转换为形式化文本表示,结合 SFT + 基于规则的强化学习(GRPO)的两阶段后训练策略,显著提升视觉语言模型的多模态推理能力,在多个数学推理基准上超越 GPT-4o。

RL-Selector: Reinforcement Learning-Guided Data Selection via Redundancy Assessment

提出 RL-Selector,引入 ε-sample cover 概念量化样本冗余度,将数据选择建模为强化学习过程,通过轻量 A2C 策略网络自适应优化选择策略,在多个基准数据集上以更少数据达到接近甚至超越全量训练的泛化性能。

RoboFactory: Exploring Embodied Agent Collaboration with Compositional Constraints

提出组合约束(compositional constraints)概念来形式化多智能体具身协作中的安全与效率要求,基于此构建了首个多智能体操作基准 RoboFactory,并系统探索了多智能体模仿学习的架构和训练策略。