跳转至

LPO: Towards Accurate GUI Agent Interaction via Location Preference Optimization

会议: ACL 2026
arXiv: 2506.09373
代码: GitHub
领域: GUI智能体
关键词: GUI交互, 位置偏好优化, 强化学习, 信息熵, GRPO

一句话总结

本文提出 Location Preference Optimization (LPO),通过基于信息熵的窗口奖励和基于物理距离的动态位置奖励,结合 GRPO 框架优化 GUI 智能体的空间定位精度,在离线和在线评估中均达到 SOTA。

研究背景与动机

领域现状:自主 GUI 智能体通过自然语言作为中介,自动化图形用户界面操作,正成为 AI 应用的重要方向。大多数 GUI 智能体依赖监督微调(SFT)训练,在交互行为预测上取得了初步成功。

现有痛点:SFT 方法在空间定位方面面临严峻挑战,因为其感知和解释位置数据的能力有限。虽然一些方法尝试用强化学习(RL)增强 UI 动作决策的准确性,但现有 RL 策略缺乏精确评估交互位置准确性的机制:UI-TARS 使用文本级精确匹配;UI-R1 和 InfiGUI-R1 使用边界框 IoU 判断;GUI-R1 依赖固定位置边界。这些方法只能提供粗粒度的空间评价。

核心矛盾:GUI 交互的核心在于精确的坐标定位,但现有奖励函数无法捕捉位置的连续距离关系——离目标近但在边界框外的预测和远离目标的预测获得同样的零奖励。

本文目标:设计一种位置感知的偏好优化方法,让 GUI 智能体获得更精确的空间交互能力。切入角度:利用信息熵指导区域探索方向,用物理距离构建连续奖励信号。核心 idea:用户倾向于在信息密度高的区域交互,距离越近的预测应获得越高的奖励。

方法详解

整体框架

LPO 在 SFT 预训练的 GUI 智能体基础上进行偏好优化。将 GUI 交互建模为 MDP,状态 \(s_t \in \mathbb{R}^{C \times H \times W}\) 为界面截图,动作 \(a_t = (\mathcal{A}_t \times \mathcal{E}_t)\) 包含交互类型和坐标。奖励由窗口信息密度奖励 \(r_w\) 和动态位置奖励 \(r_d\) 相乘组成,通过 GRPO 框架优化策略。

关键设计

  1. 窗口信息密度奖励 \(r_w\)

    • 功能:引导智能体关注界面中信息丰富的区域(如按钮、文本框),而非空白区域
    • 核心思路:将界面截图划分为 \(K = M \times N\) 个窗口,计算每个窗口的像素灰度信息熵 \(\mathcal{H}_{i,j} = -\sum_{b=1}^{B} p_b(\mathbf{W}_{i,j}) \log_2 p_b(\mathbf{W}_{i,j})\),将交互坐标映射到所在窗口,奖励为归一化熵值 \(r_w = \mathcal{H}_{i^*,j^*} / (\max_{i,j} \mathcal{H}_{i,j} + \epsilon)\)
    • 设计动机:功能元素(按钮、输入框)聚集在高信息密度区域,窗口划分与视觉 tokenizer 的 patch 方案对齐,确保视觉感知粒度一致
  2. 动态位置奖励 \(r_d\)

    • 功能:基于物理距离提供连续、精细的位置准确度反馈
    • 核心思路:计算预测坐标 \((x^{*k}, y^{*k})\) 与目标坐标 \((x^k, y^k)\) 的欧氏距离,线性映射为奖励 \(r_k = \max(0, 1 - \frac{\sqrt{(x^k - x^{*k})^2 + (y^k - y^{*k})^2}}{d_{\max}})\),仅在动作类型匹配时聚合 \(r_d = \frac{1}{K}\sum_{k=1}^{K} r_k\)
    • 设计动机:克服固定边界框判断的局限,让距离目标更近的预测获得更高奖励,提供梯度更平滑的优化信号
  3. Location Preference Optimization (LPO)

    • 功能:基于 GRPO 框架,利用位置奖励构建组内相对优势进行策略优化
    • 核心思路:对每个状态采样一组动作 \(\{a_g\}_{g=1}^{G}\),组合奖励 \(r^{(g)} = r_w^{(g)} \cdot r_d^{(g)}\),计算组内归一化优势 \(A^{(g)}\),使用 PPO-clip 目标函数加 KL 正则化更新策略
    • 设计动机:GRPO 支持更广泛的 GUI 空间探索,组内相对比较能有效区分不同位置预测的质量

损失函数 / 训练策略

SFT 阶段使用多个内部数据集训练基础交互能力。RL 阶段使用 MMind2Web、AITZ、OmniAct 等数据集的偏好数据。学习率 \(1 \times 10^{-6}\),下裁剪范围 \(\epsilon_1 = 0.2\),上裁剪范围 \(\epsilon_2 = 0.28\),KL 系数 \(\beta = 1 \times 10^{-4}\)。基座模型为 Ovis2 8B。训练约 300 H100 GPU 小时。

实验关键数据

主实验

基准 指标 LPO GUI-R1 InfiGUI-R1 UI-R1 Base SFT
Mind2Web Cross-Task Step SR 49.5 46.6 35.8 24.9 38.2
Mind2Web Cross-Task Ele.Acc 64.3 62.5 62.6 59.5 60.3
VisualWebBench Average 79.5 78.8 78.5 78.7 78.7
ScreenSpot V2 Average 90.5 88.7 89.5 88.2 89.5
WebVoyager Overall 57.6 37.5 54.1 47.3 48.0

消融实验

配置 Step SR (Cross-Task) Ele.Acc 说明
LPO (Full) 49.5 64.3 完整模型
w/o \(r_d\) 42.3 56.7 去掉动态位置奖励,元素精度大幅下降
w/o \(r_w\) 46.4 62.7 去掉窗口信息密度奖励,整体精度下降

关键发现

  • LPO 在离线基准(Mind2Web、VisualWebBench、ScreenSpot V2)和在线评估(WebVoyager)上均达到 SOTA
  • 动态位置奖励 \(r_d\) 对元素定位精度(Ele.Acc)影响最大,去掉后下降 7.6%
  • 窗口信息密度奖励 \(r_w\) 对决策准确性更重要,去掉后 Step SR 下降 3.1%
  • 现有基线方法(UI-R1、GUI-R1)在某些网站上有局部优势,但整体一致性远不如 LPO

亮点与洞察

  • 信息熵驱动的窗口奖励是一个简单但有效的先验——功能区域确实信息密度更高,可迁移到其他视觉交互任务
  • 连续距离奖励替代离散边界框判断是自然且优雅的改进,消除了人为阈值的影响
  • 两种奖励相乘的组合方式使得智能体同时优化"看对区域"和"点准位置",兼顾宏观和微观
  • 基于 GRPO 的探索机制适合 GUI 这种大空间、稀疏奖励的场景
  • 在线评估(WebVoyager)的验证增强了方法的实际应用说服力

局限与展望

  • 高度依赖带精确标注的大规模 grounding 数据集,数据收集和标注成本高,限制了实际推广
  • 训练需要约 300 GPU 小时计算资源,限制了实时应用和小团队使用
  • 窗口划分依赖于视觉 tokenizer 的 patch 方案,对不同基座模型的泛化性有待验证
  • 信息熵奖励对某些特殊界面(如全白背景上的少量高对比元素)可能不够鲁棒
  • 未来可探索无需 ground-truth 坐标的自监督位置奖励,以及与多步规划的联合优化

相关工作与启发

  • vs UI-TARS: UI-TARS 使用 DPO 需手工构造正负样本对,LPO 基于 GRPO 自动探索,减少人工依赖
  • vs GUI-R1: GUI-R1 使用固定位置边界作为奖励,LPO 的连续距离奖励更精确
  • vs InfiGUI-R1: InfiGUI-R1 使用边界框 IoU,LPO 直接使用坐标距离,粒度更细

评分

  • 新颖性: ⭐⭐⭐⭐ 信息熵窗口奖励和动态距离奖励是对 GUI RL 奖励设计的有意义创新
  • 实验充分度: ⭐⭐⭐⭐⭐ 覆盖 3 个离线基准 + 1 个在线基准,公平对比 4 种 RL 基线,消融清晰
  • 写作质量: ⭐⭐⭐⭐ 动机图(Figure 1)直观展示了现有方法的局限,方法推导清晰
  • 价值: ⭐⭐⭐⭐ 为 GUI 智能体的精确交互提供了实用有效的 RL 训练策略

相关论文