跳转至

SeriesBench: A Benchmark for Narrative-Driven Drama Series Understanding

会议: CVPR 2025
arXiv: 2504.21435
代码: https://github.com/ (GitHub仓库)
领域: 视频理解 / 多模态基准
关键词: 视频理解基准, 叙事理解, 电视剧理解, 多模态大模型, 思维链

一句话总结

提出 SeriesBench,首个面向叙事驱动电视剧理解的视频基准,涵盖105部剧集、28个任务、5大维度,并提出 PC-DCoT(情节-角色双链思维)框架使MLLM性能提升超10%。

研究背景与动机

领域现状:随着多模态大语言模型(MLLMs)快速发展,涌现了大量视频理解基准(如Video-MME、MVBench、TempCompass等)来评估模型的视频理解能力。这些基准主要关注独立视频片段中的"视觉元素"(如人物动作、物体状态)。

现有痛点:现有基准存在三个显著限制:(1) 只关注独立视频,忽略了多集剧集中连贯的叙事结构和角色发展;(2) 主要评估视觉元素(人物动作、物体状态),忽略了现代视频的多模态特性(剧本、音频、特效);(3) 很少涉及深层叙事推理(如"这个人为什么递这个东西?"),只停留在表层视觉识别。

核心矛盾:现实中视频内容通常以连续叙事的剧集形式呈现,需要跨视频的角色追踪和情节推理,但现有基准完全忽略了这种系列化叙事理解能力的评估。

本文目标:(1) 建立首个面向叙事驱动剧集理解的综合基准;(2) 涵盖字幕、音频、特效等多模态元素;(3) 提出提升MLLM叙事理解能力的推理框架。

切入角度:从人类追剧行为获取灵感——人们在看剧时会自然地追踪情节线和角色关系,通过构建情节事件链和角色时序链来模拟这种认知过程。

核心 idea:将剧集理解分解为5大任务维度(画面/剧本/音频/增强/理解),通过长跨度叙事标注和全信息转化方法构建基准,用PC-DCoT双链思维框架提升模型的叙事理解能力。

方法详解

整体框架

SeriesBench由三部分组成:(1) 数据集——105部精选剧集、1,072个视频片段、29,196个任务样本;(2) 任务体系——5大维度28个细粒度子任务,支持选择题、判断题和开放题三种问答格式;(3) PC-DCoT推理框架——通过双链结构增强MLLM的叙事理解能力。输入是系列视频及相关字幕/角色信息,输出是对叙事相关问题的准确回答。

关键设计

  1. 五维度28子任务体系:

    • 功能:提供对现代视频各组成元素的系统化评估覆盖
    • 核心思路:围绕现代视频的核心元素设计5大任务维度:[画面] 分析人物动作、场景转换、物体状态等视觉元素共6个子任务;[剧本] 聚焦世界观构建、情节发展、角色动机等叙事要素共7个子任务;[音频] 评估对白归属、语气情感、音效影响共5个子任务;[增强] 检查字幕识别、标签解读、特效理解共3个子任务;[理解] 综合所有元素进行未来预测和角色共鸣等高层任务共3个子任务。
    • 设计动机:此前基准只评视觉,但现代视频是多模态合成产物。五维度设计让评估与实际视频理解需求对齐,特别是[剧本]和[理解]维度弥补了叙事推理评估的空白。
  2. 长跨度叙事标注+全信息转化方法:

    • 功能:高效构建高质量的叙事理解问答数据
    • 核心思路:标注流程分两步。第一步"长跨度叙事标注":32名专业标注员先充分理解视频叙事,然后识别关键片段(重要事件、角色行动),将标注总结为融合所有相关内容的陈述句。第二步"全信息转化":利用GPT-4o将人工标注的陈述句结合视频的完整信息(字幕、主题、角色背景)转化为多种题型(判断题、选择题、开放题),标注内容自然成为题干和正确答案,相关视频信息构成干扰项。随机抽样500条标注显示96%符合质量标准。
    • 设计动机:直接让标注员写问题容易产生表层视觉问题。通过先标注叙事事件再转化为问题,确保问题要求深度叙事理解而非表层识别。全信息转化方法利用已有的丰富视频元数据高效生成多样化题型。
  3. PC-DCoT (情节-角色双链思维) 推理框架:

    • 功能:增强MLLM理解叙事驱动剧集中复杂情节和角色关系的能力
    • 核心思路:三步流程。(1) 事件与角色提取:MLLM接收原始视频帧和问题,提取需要追踪的关键事件和角色。(2) 双链构建:使用训练好的视频片段模型检索与事件对应的帧并聚合为独立事件序列,构建"情节事件链";同时利用角色肖像在视频中检索该角色的所有出现帧,构建"角色时序链"。(3) 双链合成与推理:根据精确的时间标注将两条链对齐,确定每个事件时间段内涉及的角色,合成后的统一表示支持MLLM进行更精准的叙事推理。
    • 设计动机:叙事视频中角色出现不连续但事件发展连贯,分别追踪再合并比直接处理整个视频更有效。模拟了人类追剧时同时关注"发生了什么"和"谁参与了"的认知方式。

损失函数 / 训练策略

PC-DCoT是推理时框架,不需要训练。但构建过程中使用了训练好的视频片段匹配模型来检索关键帧。标注过程使用GPT-4o进行全信息转化。评估使用准确率(选择题/判断题)和BLEU-2/METEOR/BERTScore F1(开放题)。

实验关键数据

主实验

模型 Overall VS(画面) SC(剧本) AU(音频) AG(增强) CO(理解)
Random Choice 37.7 39.3 38.2 35.5 36.5 38.8
Qwen2-VL (7B) 60.3 55.7 57.5 58.6 75.3 59.6
GPT-4o 62.8 55.8 62.8 60.6 79.9 59.6
GPT-4o + PC-DCoT 76.2 (+13.4) 78.6 76.1 73.8 82.1 61.7
InternVL2 + PC-DCoT 73.3 (+14.1) 76.5 71.4 67.3 81.1 66.7
Human 95.8 98.2 94.4 94.6 97.2 92.6

消融实验

配置 准确率提升 说明
InternVL2 baseline 59.2 无PC-DCoT
+ PC-DCoT 73.3 (+14.1%) 提升最大
Qwen2-VL baseline 60.3 无PC-DCoT
+ PC-DCoT 73.9 (+13.6%) 与InternVL2提升幅度相当
MiniCPM-V 2.6 baseline 59.1 无PC-DCoT
+ PC-DCoT 72.0 (+12.9%) 各架构普遍有效
GPT-4o baseline 62.8 商用模型
+ PC-DCoT 76.2 (+13.4%) 商用模型同样大幅受益

关键发现

  • SOTA模型在SeriesBench上表现大幅下降:在Video-MME等基准上达到80%的模型,在SeriesBench上仅约60%,表明叙事理解能力严重不足。主要原因是离散帧采样破坏了视觉连续性,模型过度依赖图像级描述而非叙事理解。
  • PC-DCoT跨模型普遍有效:4个模型平均提升13.5%,说明双链结构确实帮助模型更好地组织和利用叙事信息。
  • 开源与商用模型差距仍然显著:GPT-4o在[Script]任务上领先,但开源模型在视觉任务上可以接近甚至超越GPT-4o。
  • 有趣发现:VideoLLaMA2.1-AV加入音频后性能反而下降,说明当前音频-视觉对齐能力仍有缺陷,文本信息(字幕)比音频更有效。
  • 多集上下文的影响不一致:添加前后集内容并不总是提升性能,有时反而因增加token数导致性能下降。

亮点与洞察

  • 长跨度叙事标注方法:要求标注员理解完整叙事后再标注,而非逐帧标注,确保了问题的叙事深度。这种"先理解再标注"的范式可推广到其他需要深度理解的标注场景。
  • PC-DCoT的双链设计:情节链追踪"发生了什么",角色链追踪"谁参与了",通过时间轴对齐合并。这种分解-重组的推理策略用简单的结构解决了复杂的叙事理解问题。
  • 全信息转化方法:将标注的陈述句利用已有元数据自动转化为多种题型,大幅降低了标注成本,同时保证了题目质量。

局限与展望

  • 105部剧集虽然覆盖多种类型,但数量仍然有限,且主要来自快手平台中文短剧,文化和语言多样性不足
  • PC-DCoT依赖预训练的视频片段匹配模型来检索关键帧,模型质量直接影响双链构建效果
  • 即使使用PC-DCoT,最好的模型(76.2%)与人类水平(95.8%)仍有近20%差距,特别在复杂因果推理和多角色情节分析方面
  • 音频维度的评估受限于大多数Video-MLLM不支持音频输入,实际测试的是通过字幕间接理解音频的能力

相关工作与启发

  • vs Video-MME/MVBench: 这些基准只评估独立视频的视觉元素识别,SeriesBench扩展到系列化叙事理解,任务维度更丰富(5维 vs 1维),要求更深层的推理能力。
  • vs EgoSchema/MLVU: 虽然关注长视频理解,但仍限于单一视频,缺少跨视频的叙事关联。SeriesBench的多集设计更贴近真实视频消费场景。
  • vs TVBench: 关注电视节目但仍停留在视觉理解层面,SeriesBench首次系统化地评估叙事、音频、特效等多模态理解能力。

评分

  • 新颖性: ⭐⭐⭐⭐ 首个面向剧集叙事理解的基准,PC-DCoT思路简洁有效
  • 实验充分度: ⭐⭐⭐⭐⭐ 10个模型全面评估,4个模型验证PC-DCoT,多维度分析深入
  • 写作质量: ⭐⭐⭐⭐ 结构完整,任务定义清晰,表格信息丰富
  • 价值: ⭐⭐⭐⭐ 填补了叙事理解评估空白,但数据集规模和多样性仍有提升空间

相关论文