GigaHands: A Massive Annotated Dataset of Bimanual Hand Activities¶
会议: CVPR 2025
arXiv: 2412.04244
代码: https://ivl.cs.brown.edu/research/gigahands.html
领域: 人体理解
关键词: 双手活动数据集, 手部动作捕获, 文本标注, 动作生成, 无标记捕捉
一句话总结¶
GigaHands 是迄今为止最大的双手活动数据集,通过设计"指令-标注"程序化采集策略和 51 相机无标记捕捉系统,收集了 34 小时、56 名被试、417 个物体的双手活动数据,包含 1.83 亿帧 RGB 图像和 84K 条详细文本标注,在文本驱动手部动作生成和动作描述任务上展示了数据规模的价值。
研究背景与动机¶
领域现状:理解双手活动是 AI 和机器人学的关键问题。当前数据获取主要有两种方式:(1) 野外采集(单目/手持相机),数据真实但 3D 重建精度差;(2) 工作室采集(标记点/多相机),精度高但标记点阻碍自然动作,且多样性受限于人工设计的场景。
现有痛点:现有数据集无论在规模、活动覆盖面还是标注细粒度上都无法支撑大规模手部活动模型的训练。ARCTIC 仅 121 分钟、11 个物体;TACO 202 分钟、196 个物体;OakInk2 557 分钟但文本标注稀疏。更重要的是,标记点捕捉系统不仅抑制了自然手势(如双手自接触),还增加了后处理恢复真实外观的成本。
核心矛盾:规模vs质量vs多样性的三角困境——野外数据规模大但 3D 质量差,工作室数据质量好但多样性受限且采集成本高。
本文目标 如何高效地采集大规模、高多样性、高精度、带详细文本标注的双手活动数据集。
切入角度:设计程序化的"指令-标注"(Instruct-to-Annotate)pipeline,用 LLM 自动生成活动指令脚本来引导被试,这样既保证了多样性(由脚本覆盖),又大幅减少了后期标注工作量(因为每段录制直接对应一条指令)。采集系统用 51 个同步 RGB 相机替代标记点,实现高精度无标记捕捉。
核心 idea:用程序化指令引导 + 无标记多视角捕捉 + 自动化 3D 估计 pipeline 来同时解决数据规模、多样性和标注质量的问题。
方法详解¶
整体框架¶
整个 pipeline 分为四个阶段:(1) 程序化指令生成——从已有数据集提取动词池,用 LLM 组织成场景化的活动脚本;(2) 拍摄——被试在 51 相机立方体系统中按指令操作;(3) 标注与增强——标注员将录制序列分割为片段并修正,再用 LLM 扩增文本描述;(4) 3D 估计——全自动 pipeline 估计手部和物体的 3D 形状、位姿。
关键设计¶
-
程序化指令引导 (Instruct-to-Annotate):
- 功能:自动生成涵盖多样活动的录制指令脚本,同时减少标注工作量
- 核心思路:(a) 从 Ego4D、Ego-Exo4D、OakInk2、TACO 等数据集解析原子动作,建立 533 个动词池;(b) 将动词与物体手动关联后,用 LLM 按场景分组(烹饪、办公、手工等 5 大场景、25 个子场景);(c) LLM 将每个子场景中的动词和物体组织成时序连贯的活动列表,自动生成详细指令脚本;(d) 指令转为音频,拍摄时按序播放引导被试。最终生成 1370 条指令覆盖 533 个动词、191 种活动
- 设计动机:传统采集让被试自由发挥会导致活动重复、后期标注成本高;预设指令让每段录制天然对应一条文本描述
-
51 相机无标记捕捉系统与自动 3D 估计:
- 功能:在不使用标记点的情况下实现高精度手部和物体 3D 运动估计
- 核心思路:手部估计 pipeline——YOLOv8 检测手部 → HaMeR 估计 MANO mesh → ViTPose 确定左右手 → 多视角三角化获取精确 3D 关键点 → one-euro filter 时序平滑 → EasyMoCap 拟合 MANO 参数。物体估计 pipeline——DINOv2 + Grounding DINO 检测物体 → OpenCLIP 过滤假阳性 → SAM2 分割 mask → Instant-NGP 构建辐射场初始化平移 → FoundPose + DINOv2 初始化旋转 → PyTorch3D 可微渲染,在多视角 mask 监督下优化 6D 位姿
- 设计动机:无标记捕捉保证自然动作不受干扰,51 个视角提供足够的多视角冗余来弥补精度
-
文本标注与增强:
- 功能:为每个动作片段提供多样的细粒度文本描述
- 核心思路:标注员将 13K 个录制序列分割为 14K 个片段,修正指令与实际动作的偏差(如被试未完全理解指令或自由发挥)。然后用 LLM 将每条描述改写 5 次,将 14K 片段扩增为 84K 条动作-文本对,覆盖 1467 个独特动词
- 设计动机:多样的文本表述有助于文本-动作对齐学习,且 1467 个动词数量超过任何现有数据集(包括野外数据集 Ego4D)
损失函数 / 训练策略¶
数据集本身不涉及训练。下游应用中,手部动作生成使用 T2M-GPT 框架和标准的 VQ-VAE + GPT 训练策略;动作描述使用 TM2T 框架。
实验关键数据¶
数据集规模对比¶
| 数据集 | 时长(min) | 动作数 | 姿态数 | 视角数 | 帧数 | 被试 | 物体 |
|---|---|---|---|---|---|---|---|
| ARCTIC | 121 | 339 | 218k | 9 | 2.1M | 10 | 11 |
| TACO | 202 | 2.3k | 363k | 13 | 4.7M | 14 | 196 |
| OakInk2 | 557 | 2.8k | 993k | 4 | 4.01M | 9 | 75 |
| GigaHands | 2,034 | 13.9k | 3.7M | 51 | 183M | 56 | 417 |
文本驱动手部动作生成 (T2M-GPT)¶
| 训练数据集 | R@1(%) | R@3(%) | FID↓ | Diversity | MM. |
|---|---|---|---|---|---|
| TACO | 18.9 | 52.9 | 11.0 | 11.1 | 6.83 |
| OakInk2 | 17.9 | 47.9 | 19.6 | 6.88 | 3.45 |
| GigaHands | 31.2 | 53.1 | 4.70 | 10.5 | 9.11 |
关键发现¶
- 数据集规模的增长持续带来性能提升:使用 10%→100% 的 GigaHands 训练数据,FID、MM Dist、Top-1/3 准确率全部单调改善,说明手部活动建模尚未饱和
- GigaHands 训练的模型不仅在自身测试集上表现最好,还能合理生成其他数据集(OakInk2、TACO)的文本对应的手部动作,展示了数据多样性带来的泛化能力
- 动作描述任务中 GigaHands 的 R@1 达到 57.0%,远超 OakInk2 的 40.4%,说明更大规模和更多样的文本标注有效提升了动作-文本对齐学习
亮点与洞察¶
- 程序化数据采集范式:用 LLM 生成指令脚本不仅保证了活动多样性,更巧妙地将标注问题从"后期从视频中提取信息"转化为"前期用指令约束内容",大幅降低了标注成本。这一范式可推广到任何需要大规模行为数据采集的场景
- t-SNE 可视化验证多样性:论文不仅声称数据多样,还通过手部姿态和动作的 t-SNE 可视化以及 UpSet 图的动词覆盖率分析来定量验证,方法论值得学习
- 全自动 3D 估计 pipeline:组合了最新的基础模型(HaMeR、SAM2、DINOv2、Grounding DINO)构建了完整的手部+物体 3D 估计流程,虽然单个模块不是新的,但整合方案具有很高的实用价值
局限与展望¶
- 工作室环境仍然是人造的,虽然通过指令模仿了野外活动,但缺少真实的场景上下文(如真正的厨房而非桌面摆放的厨具)
- 无标记捕捉的手部 3D 精度与标记点方法仍有差距,特别是指尖等细节区域
- 物体限于桌面可操作的刚性/半刚性物体,未涵盖柔性物体(如布料)或液体
- 文本扩增使用 LLM 改写,可能引入语义偏移或幻觉
- 51 相机系统的复制成本高,限制了其他团队的数据扩展
相关工作与启发¶
- vs ARCTIC: ARCTIC 用标记点捕捉双手-物体交互,精度高但规模小(121分钟、11物体),且标记点阻碍了自接触等动作。GigaHands 规模是其 17 倍,活动多样性远超
- vs Ego4D/Ego-Exo4D: 这些野外数据集规模大但 3D 精度差、标注不够密集。GigaHands 的动词数量(1467)甚至超过 Ego4D 的野外数据,证明了程序化指令的有效性
- vs OakInk2: OakInk2 也提供文本标注但规模和动词多样性均不如 GigaHands
评分¶
- 新颖性: ⭐⭐⭐⭐ 程序化指令引导的数据采集范式是核心贡献
- 实验充分度: ⭐⭐⭐⭐ 展示了动作生成和描述两个下游任务,还有数据规模消融
- 写作质量: ⭐⭐⭐⭐⭐ 论文结构清晰,可视化丰富,数据集对比充分
- 价值: ⭐⭐⭐⭐⭐ 大型数据集对社区有长期价值,采集方法论可复用
相关论文¶
- [CVPR 2025] EgoPressure: A Dataset for Hand Pressure and Pose Estimation in Egocentric Vision
- [CVPR 2025] ManipTrans: Efficient Dexterous Bimanual Manipulation Transfer via Residual Learning
- [CVPR 2025] UniHOPE: A Unified Approach for Hand-Only and Hand-Object Pose Estimation
- [CVPR 2025] Scalable Video-to-Dataset Generation for Cross-Platform Mobile Agents
- [CVPR 2025] PoseBH: Prototypical Multi-Dataset Training Beyond Human Pose Estimation