跳转至

VLOGGER: Multimodal Diffusion for Embodied Avatar Synthesis

会议: CVPR 2025
arXiv: 2403.08764
代码: 无(项目页面 https://enriccorona.github.io/vlogger/)
领域: 扩散模型 / 人体视频生成
关键词: 音频驱动视频生成, 扩散模型, 虚拟人, 3D人体模型, 时序一致性

一句话总结

VLOGGER 是首个从单张人像图片和音频输入生成包含面部表情与上半身手势的全身说话人视频的方法,通过两阶段扩散模型管线(音频→3D运动→视频)实现了高质量、可变长度的人物视频合成,在三个公开基准上超越了现有方法。

研究背景与动机

  1. 领域现状:音频驱动的说话人视频生成近年来取得了重要进展。现有方法主要集中在唇部同步(lip sync)和面部动画两个方向,如 SadTalker、StyleTalk 等通过面部关键点引导图像生成网络来产生说话人视频。
  2. 现有痛点:(a) 大多数方法只能生成面部/头部区域,需要先裁剪头部;(b) 不考虑身体运动和手势,而人类交流中手势和身体动作至关重要;(c) 很多方法针对每个人需要单独训练,无法泛化到新身份;(d) 时序一致性差,远离面部的区域容易产生模糊和闪烁。
  3. 核心矛盾:语音到姿态/表情是一对多的映射关系(同一段语音可以对应不同的手势和表情),需要随机建模;同时要保证生成视频在空间和时间上的一致性。
  4. 本文目标:构建一个通用的、不依赖特定人物训练的框架,能从单张照片生成包含头部运动、注视、眨眼、唇部动作以及上半身手势的高质量长视频。
  5. 切入角度:利用参数化 3D 人体模型(SMPL-X 类)作为中间表示,将问题分解为音频→3D运动和3D控制→视频两个阶段。
  6. 核心 idea:两阶段扩散管线——第一阶段用扩散模型从音频生成包含面部表情和身体姿态的 3D 运动序列,第二阶段用时序扩散模型将 3D 运动渲染为高质量视频,并通过时序外推(temporal outpainting)实现任意长度视频生成。

方法详解

整体框架

VLOGGER 是一个两阶段管线:输入为一张参考人物图像和一段音频(或文本经 TTS 转换)。第一阶段:音频驱动的运动生成网络 \(M\) 将梅尔频谱图转换为 3D 面部表情参数 \(\theta^e\) 和身体姿态残差 \(\Delta\theta^b\),并渲染成稠密的 2D 控制信号(包括语义分割、顶点位置图、扭曲参考图像)。第二阶段:时序图像扩散模型以这些 2D 控制信号和参考图像为条件,生成 128×128 基础分辨率视频,再通过级联超分辨率模块上采样到 256×256 或 512×512。通过时序外推策略可生成任意长度的视频。

关键设计

  1. 音频驱动的随机运动生成网络:

    • 功能:从音频生成包含面部表情和身体姿态的 3D 运动序列
    • 核心思路:基于 Transformer 架构(4 层多头注意力),在时间维度上使用因果掩码,以扩散过程建模音频到运动的一对多映射。网络预测表情参数 \(\theta^e_i\) 和姿态残差 \(\Delta\theta^b_i\)(相对于参考图像的偏移),使得生成的运动能适应任意初始姿态。训练损失为扩散重建损失 \(\mathcal{L}_{\text{diff}}\) 加上时序平滑损失 \(\mathcal{L}_{\text{temp}}\),其中表情和身体使用不同的时序损失权重。
    • 设计动机:预测残差而非绝对姿态使模型能适应不同参考图像的初始姿态;扩散框架自然建模了语音到姿态的随机性
  2. 时序图像扩散模型(Temporal Image Diffusion):

    • 功能:将 3D 运动控制信号转换为逐帧的高质量视频
    • 核心思路:在预训练 text-to-image 扩散模型(Imagen)基础上,借鉴 ControlNet 思路冻结原始模型权重,创建零初始化的可训练编码层副本来处理输入控制信号。在每个下采样块的第一层后、第二个 GroupNorm 激活前插入 1D 时序卷积层。2D 控制信号包括三种:(a) 稠密顶点位置图 \(C^d\);(b) 语义区域分割 \(C^m\);(c) 基于 3D 模型的扭曲参考图像 \(C^w\)(将参考图像中可见顶点的颜色映射到新姿态下)。训练分两阶段:先单帧学习控制层(大 batch),再加入时序组件训练视频模型。
    • 设计动机:扭曲参考图像 \(C^w\) 是关键创新——之前的面部重现方法使用扭曲图像但扩散架构未采用,本文首次将其引入扩散框架,显著提升了身份保持能力(消融实验验证)
  3. 时序外推(Temporal Outpainting)推理策略:

    • 功能:将固定长度 \(N\) 帧的生成模型扩展到任意长度视频生成
    • 核心思路:首先生成 \(N\) 帧,然后以前 \(N-N'\) 帧为条件,迭代生成新的 \(N'\) 帧。重叠区域比例(\(N-N'\))控制质量与速度的平衡,默认使用 50% 重叠。使用 DDPM 采样每个视频片段。
    • 设计动机:大多数视频扩散模型仅能生成固定短片段,此方法以简单有效的方式扩展到数千帧,重叠条件帧保证了时序一致性

损失函数 / 训练策略

  • 运动生成:扩散重建损失(直接预测 ground truth 而非噪声)+ 时序平滑损失,表情和身体使用不同权重
  • 视频生成:标准扩散噪声预测损失 \(\mathcal{L}^I_{\text{diff}}\)
  • 训练数据:自建 MENTOR 数据集,800K 身份、220 万小时视频,远超现有数据集(一个数量级)
  • 超分辨率:级联扩散模型(128→256 或 128→512)

实验关键数据

主实验

HDTF 数据集:

方法 FID↓ CPBD↑ LSE-D↓ LME↓ Expression↑ ArcFace↓ Jitter↓
SadTalker 19.44 0.520 7.73 3.01 0.287 0.874 5.51
StyleTalk 34.16 0.472 7.87 3.79 0.416 0.692 4.34
VLOGGER 18.98 0.621 8.10 3.05 0.397 0.759 5.05
VLOGGER (Best of 5) - 0.631 7.22 2.91 0.436 0.687 4.67

消融实验

设计选择消融(MENTOR 数据集):

配置 FID↓ LME↓ Jitter↓ 说明
不预测身体姿态残差 52.27 4.22 6.56 严重退化
不用时序损失 16.56 3.18 4.64 时序不平滑
只用头部控制(无身体) 16.95 3.10 4.45 身体生成质量差
Full model 15.36 3.06 3.58 最优

2D 控制信号消融:

控制信号 Face PSNR↑ Body PSNR↑ Full LPIPS↓
2D 骨架关键点 20.5 17.9 0.138
稠密身体表示 20.4 18.3 0.128
+ 扭曲参考图像 21.6 19.3 0.113
+ 训练策略 (Full) 22.2 20.2 0.095

关键发现

  • 身体姿态残差预测在 FID 中贡献最大:去掉后 FID 从 15.36 飙升到 52.27
  • 扭曲参考图像是身份保持的关键:加入后 Face PSNR 提升 1.2,LPIPS 降低 0.015
  • 时序外推 50% 重叠最优:25% 重叠时 jitter 更高,更多重叠则收益递减
  • 随机性采样多次取最优(Best of K)可持续提升各指标:Best of 8 在所有指标上均优于单次采样

亮点与洞察

  • 首次实现全身说话人视频生成:不仅是面部动画,还包括头部运动、手势、身体姿态,这对构建具有社交在场感的虚拟代理至关重要
  • 扭曲参考图像引入扩散架构是巧妙设计:利用 3D 人体模型将参考图像的像素映射到新姿态下作为初始引导,既保持身份又为扩散模型减轻了生成负担。这个思路可迁移到任何需要保持一致性的条件视频生成任务
  • MENTOR 数据集的规模和多样性(800K 身份)是方法成功的重要基础,但这也意味着该方法对数据依赖性极高

局限与展望

  • 基于 Google 内部模型和数据:Imagen 和 MENTOR 数据集的不可获取性限制了可复现性
  • 分辨率有限:基础分辨率 128×128 需要级联超分,最高 512×512 在当前标准下偏低
  • 手部生成质量:虽然引入了手部控制,但手部细节仍是生成模型的难点
  • 无法处理自遮挡和极端姿态变化:如转身等大幅度动作
  • 伦理风险:高质量单图驱动视频生成有 deepfake 风险

相关工作与启发

  • vs SadTalker: SadTalker 只处理裁剪后的面部、不考虑身体动作和手势;VLOGGER 生成完整上半身,更适合交流场景
  • vs MakeItTalk / Audio2Head: 这些方法在图像质量(FID)和身份保持上都不如 VLOGGER,且缺乏身体控制
  • vs StyleTalk: StyleTalk 有面部控制但需要裁剪面部,且 FID 最差(34.16);VLOGGER 在几乎所有指标上领先
  • vs 通用视频生成方法: Sora 等方法可以生成动态视频但缺乏对人物身份和姿态的细粒度控制,VLOGGER 填补了这一空白

评分

  • 新颖性: ⭐⭐⭐⭐ 首次将全身动作(包括手势)纳入音频驱动的人物视频生成,扭曲参考图像引入扩散框架是创新设计
  • 实验充分度: ⭐⭐⭐⭐ 三个公开基准+详尽消融+多样性分析+视频编辑应用展示,评估非常全面
  • 写作质量: ⭐⭐⭐⭐ 结构清晰,方法描述详细,图示直观
  • 价值: ⭐⭐⭐⭐ 对虚拟人、在线通信、内容创作等应用有直接推动作用,但数据集和基础模型的不可获取是遗憾

相关论文