HumanVBench: Probing Human-Centric Video Understanding in MLLMs with Automatically Synthesized Benchmarks¶
会议: CVPR 2026
arXiv: 2412.17574
代码: https://github.com/datajuicer/data-juicer/tree/HumanVBench
领域: 多模态VLM / 视频理解
关键词: 视频基准测试, 人体中心视频理解, 多模态大模型, 情感感知, 语音视觉对齐
一句话总结¶
提出 HumanVBench,一个包含 16 个细粒度任务的人体中心视频理解基准,配套两个自动化流水线(视频标注 + 干扰项感知 QA 合成),对 30 个主流视频 MLLM 的评测揭示了当前模型在细微情感感知和语音-视觉对齐方面的关键不足。
研究背景与动机¶
多模态大语言模型(MLLM)已经从处理文本扩展到图像和视频,视频导向的 MLLM 因其模拟人类视觉感知的潜力而受到越来越多关注。然而,这些模型是否真正实现了类人的理解能力——尤其在复杂的人体中心场景中——仍然是开放问题。
现有 MLLM 基准存在三个核心痛点:(1) 主流基准(如 Video-MME)聚焦于通用视频理解,缺乏对人体中心感知能力的结构化、细粒度评估;(2) 情感理解数据集(如 VEATIC)依赖离散情感分类和固定类别,缺少情感动态和跨人物强度比较等多维任务;(3) 语音与视觉线索的同步——人类轻松检测的音视频不匹配——在评估中被频繁忽视。
这些基础感知技能(情感、行为、身份识别、音视对齐)是高级人类相关推理任务(叙事推理、意图推断、社会智能)的前提。但现有基准要么将感知和高阶推理混为一谈,要么依赖大量人工标注,难以扩展。
核心 idea:设计两个自动化流水线——利用 20+ SOTA 数据处理算子生成密集多模态标注的视频标注流水线,以及通过多模型集成和模型常见错误生成语义欺骗性干扰项的 QA 合成流水线——从而以最少人工劳动构建高质量、可扩展的人体中心视频基准。
方法详解¶
整体框架¶
HumanVBench 的构建分三步:(1) 从 Pexels 和 MF2 收集包含人物的视频并切分场景;(2) 通过人体中心视频标注流水线提取视觉、听觉和整体事件氛围的多模态标注;(3) 通过干扰项感知 QA 合成流水线生成多选题,最后进行人工验证和答案泄露后处理。最终产出 2475 个问题实例覆盖 16 个任务。
关键设计¶
-
人体中心视频标注流水线 (Human-Centric Video Annotation Pipeline):
- 功能:从原始视频自动提取密集的人体中心多模态标注
- 核心思路:构建模块化的算子链——
video_human_tracks_extraction_mapper通过跨帧重叠阈值链接检测到的人脸和身体生成可靠的人物轨迹;human_demographics_mapper从人脸裁剪推断人口属性(年龄、性别等);video_human_description_mapper和video_facial_description_mapper分别用 MLLM 描述外观/姿态和面部表情变化(通过裁剪确保描述不受背景影响);音频侧则有active_speaker_detection_mapper(融合音视觉线索定位说话人)、asr_mapper(语音转文字)、speech_emotion_recognition_mapper(语音情感检测)等。基于 Data-Juicer 框架 - 设计动机:传统基准依赖大量人工标注无法扩展到野外视频数据;利用 SOTA 任务模型自动化标注后人工仅需验证约 25% 的案例
-
干扰项感知 QA 合成流水线 (Distractor-Included QA Synthesis Pipeline):
- 功能:自动生成具有语义欺骗性的高质量多选题
- 核心思路:四个阶段——(1) 按任务标准筛选视频;(2) 用红色边框标记目标人物的"标记视频"输入 Video-MLLM 生成初步描述,提取任务相关属性并平衡分布;(3) 多模型集成答案选择——多个 MLLM(Gemini、VideoLLaMA3、ShareGPT4Video)各自产生候选答案,通过偏好投票选出正确答案,将模型的错误答案转化为干扰项而非随意编造,确保干扰项反映典型的模型错误模式;(4) 人工验证,标注员仅需在 75% 的情况下确认选项,25% 需重写
- 设计动机:将模型错误转化为干扰项是核心创新——这使得干扰项具有真实的欺骗性(因为它们正是模型最容易犯的错误),而非传统方法中基于语义相似度随意生成的选项
-
16 个细粒度任务体系 (16 Fine-grained Task Design):
- 功能:全面覆盖人体中心视频理解的基础感知层
- 核心思路:按内容可观察性分为两大类。内在情感(4 个任务):情感识别(ER)、情感时序分析(ETA)、态度识别(AT)、情感强度比较(EIC)。外在表现分三个子类——人物识别(4 个:文字到人 T2H、人到文字 H2T、人数统计 HC、出现时间检测 ATD)、行为分析(4 个:行为时序分析 BTA、行为因果分析 BCA、指定时间动作 AST、特定动作时间 TSA)、语音-视觉对齐(4 个:音视说话人匹配 AVSM、活跃说话人检测 ASD、音视对齐检测 AVAD、语音内容匹配 SCM)
- 设计动机:现有基准将基础感知和高阶推理混合评估,无法定位感知层面的具体不足;本文专注基础感知层,为后续高阶推理评估提供清晰的能力基线
损失函数 / 训练策略¶
HumanVBench 是评估基准不涉及模型训练。答案泄露处理:对无视觉输入的模型测试并移除高频正确的 QA(约 6%),确保测试需要视觉信息。标注可靠性:240 个随机抽样问题上两名独立标注员的 Cohen's Kappa 达到 0.8833。
实验关键数据¶
主实验¶
| 模型 | 模态 | 情感感知 | 人物识别 | 行为分析 | 12任务均值 | 语音视觉 | 16任务均值 |
|---|---|---|---|---|---|---|---|
| Random Guess | - | 24.4 | 25.2 | 22.9 | 24.2 | 31.2 | 25.9 |
| Qwen-VL3 (7B) | V | 43.2 | 67.6 | 54.3 | 55.0 | 48.3 | 53.4 |
| VideoLLaMA3 (7B) | V | 39.7 | 68.5 | 55.8 | 54.7 | 45.0 | 52.3 |
| Qwen2.5-Omni (7B) | V+A | 35.5 | 44.5 | 38.3 | 39.4 | 54.6 | 43.2 |
| GPT-4o | V | 33.6 | 50.9 | 62.1 | 48.9 | - | - |
| Gemini-2.5-Pro | V+A | 52.9 | 83.5 | 70.7 | 69.0 | 86.5 | 73.4 |
| Human | - | 84.6 | 88.5 | 87.0 | 86.7 | 94.4 | 88.6 |
消融实验(标注质量)¶
| 配置 | 比例 | 说明 |
|---|---|---|
| 标注员确认现有选项 | 75% | 自动生成的选项已足够 |
| 标注员重写正确答案 | 25% | 需要人工修正 |
| Cohen's Kappa (IAA) | 0.8833 | 标注一致性高 |
| 答案泄露移除比例 | ~6% | 无视觉输入也能答对的题 |
关键发现¶
- 情感感知是最大短板:即使 Gemini-2.5-Pro(最佳模型,52.9%)也远低于人类水平(84.6%),差距超 30 个百分点
- GPT-4o 意外表现差:在情感理解和部分人物识别任务上甚至低于多个开源模型,整体 12 任务均分 48.9% 被 Qwen-VL3 的 55.0% 超越
- 语音-视觉对齐是灾难性差距:几乎所有开源音视频模型在 AVAD 和 SCM 任务上表现接近随机水平,说明当前模型缺乏精确的唇读能力。唯一例外是 Gemini 系列
- 说话人情感识别更难:说话状态下情感识别准确率普遍比全数据集低 2-4 个百分点,因为说话时面部表情更复杂
- 开源 vs 商用差距正在缩小:Qwen3-VL 在视觉任务上已接近商业模型水平
亮点与洞察¶
- 模型错误转化为干扰项是基准构建方法论上的重要创新——传统做法生成随机干扰项,本文利用多模型集成的错误作为干扰项,使基准天然能区分模型的真实能力差异。巧妙之处在于这些干扰项正是模型最容易犯的错误
- 16 任务体系的设计对视频理解评估有结构性贡献——从内在情感到外在表现、从单模态到跨模态的系统分类,为后续工作提供了清晰的能力图谱
- 标注流水线的算子化设计可迁移到其他领域的基准构建——将 SOTA 模型作为自动标注器、人工仅做验证的范式大幅降低了基准构建成本
局限与展望¶
- 视频主要来自 Pexels(版权免费),场景多样性可能不如真实社交媒体或监控视频
- 情感标注依赖面部表情和语音,忽略了上下文线索(如事件背景对情感的影响)
- 仅评估了选择题形式,未考虑开放式回答评估(可能更接近实际应用需求)
- 人物轨迹追踪算子在遮挡严重场景中可能失效,影响下游标注质量
相关工作与启发¶
- vs Video-MME: Video-MME 是通用视频基准,HumanVBench 专注人体中心维度,两者互补
- vs Social-IQ: Social-IQ 混合了基础感知和高阶推理,HumanVBench 专注基础感知层,为高阶评估提供能力基线
- vs VEATIC: VEATIC 仅有离散情感分类,HumanVBench 扩展到时序情感分析、强度比较等多维度任务
评分¶
- 新颖性: ⭐⭐⭐⭐ 16 个细粒度人体中心任务体系和模型错误驱动的干扰项生成都是新贡献
- 实验充分度: ⭐⭐⭐⭐⭐ 30 个模型的全面评测,包含开源/商用/视觉/音视频多维度对比,标注质量验证充分
- 写作质量: ⭐⭐⭐⭐ 框架图清晰,任务分类系统,结果分析深入
- 价值: ⭐⭐⭐⭐⭐ 填补了人体中心视频理解评估的空白,揭示了当前模型的关键不足,对社区有重要指导意义
相关论文¶
- [CVPR 2026] SlotVTG: Object-Centric Adapter for Generalizable Video Temporal Grounding
- [CVPR 2026] Do You See What I Am Pointing At? Gesture-Based Egocentric Video Question Answering
- [CVPR 2026] Learning to Assist: Physics-Grounded Human-Human Control via Multi-Agent Reinforcement Learning
- [CVPR 2026] Reconstruction-Guided Slot Curriculum: Addressing Object Over-Fragmentation in Video Object-Centric Learning
- [CVPR 2026] VideoChat-M1: Collaborative Policy Planning for Video Understanding via Multi-Agent Reinforcement Learning