跳转至

Watch and Learn: Learning to Use Computers from Online Videos

会议: CVPR2026 arXiv: 2510.04673 代码: 项目主页 领域: others (Computer-Using Agents / GUI Agent) 关键词: computer-using agent, inverse dynamics model, video-to-trajectory, in-context learning, supervised fine-tuning, UI grounding

一句话总结

提出 Watch & Learn (W&L) 框架,通过逆动力学模型 (IDM) 将互联网上的人类计算机操作视频自动转化为可执行的 UI 轨迹数据,生成 53K+ 高质量轨迹,作为 ICL 示例或 SFT 训练数据显著提升各类 CUA 性能。

研究背景与动机

  1. CUA 数据瓶颈严重:计算机使用代理 (CUA) 需要大量多步骤人机交互轨迹进行训练,但人工标注成本极高——OpenCUA 的 AgentNet 数据集 22K 任务花费 6 个月、$32,000+,扩展到百万级需超 $500K
  2. 现有数据集窄且静态:手工标注的 UI 数据集规模有限、领域覆盖不足,难以泛化到多样化、不断变化的应用和操作系统
  3. 合成数据质量不佳:探索式合成(如 BAGEL、OS-Genesis)引入噪声;教程驱动合成依赖 LLM 标注,脆弱且与真实操作不对齐
  4. 网络视频资源丰富但未充分利用:YouTube 等平台上有海量人类操作教程视频,天然编码了跨应用的任务工作流,但缺乏有效方法将其转化为结构化轨迹
  5. 已有视频转轨迹方法精度不足:如 MONDAY 级联 pipeline 准确率仅约 70%,TongUI 依赖 MLLM 标注动作同样不可靠,误差层层放大
  6. 跨操作系统泛化困难:CUA 需在 Ubuntu/macOS/Windows 等不同 OS 上工作,但标注质量与 OS 环境强相关,已有方法难以跨平台保持一致

方法详解

整体框架

W&L 框架分三阶段:(1) 构建大规模状态转移语料并训练逆动力学模型 (IDM);(2) 任务感知检索教程视频 + IDM 标注生成轨迹;(3) 以 ICL 示例或 SFT 数据两种方式赋能 CUA。

逆动力学模型 (IDM)

  • 核心思想:给定连续两帧截图 \((O_t, O_{t+1})\),预测导致该转换的用户动作 \(a_t\)——将轨迹回复问题简化为单步逆动力学预测
  • 动作空间:6 个原子操作——Click (含坐标)、Release、Scroll、Type (含文本)、Wait、Move (含坐标);Click + Move + Release 可组合表示拖拽
  • 模型架构:SigLIP-2 视觉编码器 + 4 层 Transformer backbone + 三个预测头:
  • 动作分类头:6 类动作的分类器
  • 坐标头:将 (x,y) 离散化为 0–999 的分类问题(比回归更稳定)
  • 语言头:轻量 GPT-2 解码器自回归生成输入文本
  • 训练数据:基于 Common Crawl 采样网页入口,自动浏览并记录 600K+ \((O_t, a_t, O_{t+1})\) 三元组
  • 训练目标:多任务交叉熵损失,根据动作类型激活对应 loss 分支

视频检索与轨迹生成

  • 推理时检索:根据任务描述 + 初始屏幕截图,用 Gemini 2.5 Flash 优化搜索 query → YouTube Search API 检索 top-15 视频 → 过滤非录屏/模糊片段 → 保留 top-3
  • 训练时检索:覆盖 69 个应用、7 大类(生产力/编程/设计/视频编辑/音频/系统/科学),Gemini 生成多样查询搜索,共获 53,125 个教程视频
  • 过滤:1fps 采样帧,Gemini 2.5 Flash 自动去除非录屏、裁剪/缩放、模糊转场片段
  • 轨迹标注:IDM 逐帧对预测动作,组装为完整轨迹 \(\tau = (O_0, a_0, O_1, a_1, \ldots, O_T, a_T, O_{T+1})\)

轨迹应用方式

  • ICL:每条轨迹转为 (observation, action, reasoning) 三元组示例,reasoning 由 Gemini 2.5 Flash 生成自然语言解释
  • SFT:将标注轨迹聚合为 (state, action) 序列语料,以标准序列建模目标微调模型

实验

主实验结果

设置 模型 方法 成功率 (%)
ICL Gemini 2.5 Flash Base 19.0
+ W&L 22.0 (+3.0)
OpenAI o3 Base 21.8
+ TongUI 21.1 (-0.7)
+ W&L 24.3 (+2.5)
Claude 4 Sonnet Base 43.9
+ TongUI 43.4 (-0.5)
+ W&L 45.5 (+1.6)
Jedi (o3) Base 50.6
+ W&L 52.8 (+2.2)
SFT Qwen 2.5VL 7B Base 1.9
+ TongUI 5.4 (+3.5)
+ W&L 13.0 (+11.1)
UI-TARS-1.5-7B Base 27.3
+ TongUI 23.8 (-3.5)
+ W&L 31.1 (+3.8)

OSWorld-Verified (50-step)。W&L 在 ICL 和 SFT 两条路线上均一致超越基线和 TongUI。

WindowsAgentArena 结果 (15-step)

模型 成功率 (%)
UI-TARS-1.5-7B (zero-shot) 18.1
+ TongUI SFT 12.9 (-5.2)
+ W&L SFT 24.0 (+5.9)
OpenCUA-7B 13.5
UltraCUA-7B 21.7

W&L 在 7B 模型中达到 SOTA,TongUI 标注甚至导致性能下降。

消融实验

IDM 标注精度对比(held-out 测试集,每类 100 个转移):

指标 Gemini 2.5 Flash TongUI W&L IDM
ActionType Acc. 81.5% 84.3% 95.8%
Action Acc. 70.5% 72.3% 91.7%

ICL 组件消融(OSWorld):

配置 Gemini Flash o3 Claude Sonnet
无示例 19.0 21.8 43.9
+ 帧 18.4 21.8 43.9
+ 帧 + 动作 20.1 23.0 44.4
+ 帧 + 动作 + 推理 22.0 24.3 45.5

检索策略消融:随机检索对 o3 无增益 (21.8),任务相关检索 +2.5 → 24.3。

关键发现

  • IDM 标注精度 (91.7%) 大幅领先 TongUI (72.3%) 和 Gemini (70.5%),尤其在 click/scroll 等定位类动作上优势显著
  • TongUI 标注在 Windows 环境下效果更差(TongUI 基于 UI-TARS 在 Ubuntu 上训练),导致 SFT 性能下降 5.2 点
  • ICL 中动作标签和推理 trace 逐步贡献增量收益,表明轨迹传达了超越视觉上下文的程序性/因果知识
  • 随机检索不伤害性能(标签本身准确),但精准检索才能带来显著提升

亮点

  • 逆动力学建模是核心创新:将轨迹恢复问题从端到端生成简化为单步预测,大幅降低学习难度且天然跨应用泛化
  • 规模化效率极高:53K 轨迹完全自动生成,无需人工标注,数据生产成本远低于 AgentNet 等方案
  • 双重应用路线:同一套轨迹既可 ICL 也可 SFT,灵活适配闭源和开源模型
  • 跨 OS 泛化:在 Ubuntu (OSWorld) 和 Windows (WAA) 两个平台均有效,证明 IDM 标注的平台鲁棒性
  • Qwen 2.5VL 7B 的 +11.1 增益充分说明通用多模态模型通过该数据获得了原本缺乏的操作能力

局限性

  • IDM 仅处理 6 个原子动作,对更复杂交互(如右键菜单、多点触控、键盘快捷键组合)覆盖有限
  • 依赖 YouTube 视频质量和可用性,某些小众应用可能缺乏教程资源
  • 过滤和检索依赖 Gemini 2.5 Flash,引入了对商业 API 的依赖
  • 论文未探索长视频中多任务的自动分割,当前假设一个视频对应一条轨迹
  • 未探索强化学习路线(仅 ICL + SFT),作者将 RL 列为 future work
  • 1fps 采样可能丢失快速操作(如连续点击、快速滚动)的中间状态

相关工作

  • 探索式合成:BAGEL、NNetNav、Explorer、OS-Genesis — 随机探索 + 回溯标注,噪声大
  • 教程驱动合成:Synatra、AgentTrek(文本教程)、TongUI(多模态教程 + MLLM 标注)— 覆盖面广但标注脆弱
  • 自改进代理:OpenWebVoyager、WebRL、ZeroGUI — 不需人工数据但任务分布窄
  • 机器人领域 IDM:VPT(Minecraft 预训练)、DreamGen — 启发了本文 IDM 设计
  • 代理 ICL:工作流抽象 + 示例选择方向,与本文 ICL 路线互补

评分

  • 新颖性: ⭐⭐⭐⭐ — 逆动力学建模思路从机器人迁移到 GUI agent 领域具有独创性
  • 实验充分度: ⭐⭐⭐⭐ — 双 benchmark + ICL/SFT 双路线 + 多模型 + 完整消融
  • 写作质量: ⭐⭐⭐⭐ — 结构清晰、动机-方法-实验逻辑连贯
  • 价值: ⭐⭐⭐⭐⭐ — 开辟了利用网络视频规模化生产 CUA 训练数据的实用路线