跳转至

🎬 视频生成

🎞️ ECCV2024 · 16 篇论文解读

BlazeBVD: Make Scale-Time Equalization Great Again for Blind Video Deflickering

提出 BlazeBVD,利用经典 Scale-Time Equalization (STE) 在光照直方图空间提取 deflickering 先验(滤波光照图、曝光图、闪烁帧索引),将复杂的视频时空学习简化为 2D 空间网络逐帧处理 + 轻量 3D 时序一致性网络,在盲视频去闪烁任务上实现 SOTA 质量且推理速度比基线快 10 倍以上。

DragAnything: Motion Control for Anything using Entity Representation

提出DragAnything,利用扩散模型的隐空间特征作为实体表征(Entity Representation)来实现实体级运动控制,解决了现有轨迹驱动方法仅拖拽像素而无法精确控制目标对象运动的问题,在VIPSeg上实现SOTA的FVD/FID指标,用户研究中运动控制投票超出DragNUWA 26%。

DreamMotion: Space-Time Self-Similar Score Distillation for Zero-Shot Video Editing

提出基于分数蒸馏(Score Distillation)的零样本视频编辑框架DreamMotion,通过时空自相似性正则化在注入目标外观的同时保持原始视频的结构和运动完整性,适用于级联和非级联视频扩散模型。

Evaluating Text-to-Visual Generation with Image-to-Text Generation

提出VQAScore,利用VQA模型替代CLIP来评估文本-视觉生成质量,在复杂组合性提示上大幅超越CLIPScore,并发布GenAI-Bench基准。

Exploring Pre-trained Text-to-Video Diffusion Models for Referring Video Object Segmentation

本文首次探索预训练文本到视频(T2V)扩散模型的视觉特征用于视频理解任务,提出 VD-IT 框架,通过文本引导的图像投影和视频特定噪声预测两项关键设计,从固定的 T2V 扩散模型中提取具有优越时序语义一致性的视觉特征,在 R-VOS 四大基准上超越了使用判别式预训练视频骨干网络(如 Video Swin Transformer)的 SOTA 方法。

Exploring Pre-trained Text-to-Video Diffusion Models for Referring Video Object Segmentation

VD-IT首次探索预训练T2V扩散模型(ModelScopeT2V)在视频理解任务中的应用,通过Text-Guided Image Projection和Video-specific Noise Prediction设计,从固定T2V模型中提取语义对齐、时序一致的视频特征,在Referring VOS任务上超越传统判别式backbone。

FreeInit: Bridging Initialization Gap in Video Diffusion Models

提出 FreeInit,一种无需额外训练的推理采样策略,通过迭代精炼初始噪声的时空低频分量来弥合视频扩散模型训练与推理之间的初始化差距,显著提升生成视频的时序一致性。

FreeInit: Bridging Initialization Gap in Video Diffusion Models

发现视频扩散模型存在训练-推理初始化差异(训练时低频信息泄露导致初始噪声具有时序相关性,而推理时使用无相关的高斯噪声),提出 FreeInit 通过迭代精炼初始噪声的时空低频成分来弥合该差异,显著提升视频生成的时序一致性。

Kalman-Inspired Feature Propagation for Video Face Super-Resolution

本文提出 KEEP 框架,借鉴卡尔曼滤波原理在隐空间中递归融合前帧先验与当前帧观测,实现视频人脸超分辨率中面部细节的高保真恢复与时序一致性,在 VFHQ 数据集上 PSNR 超过此前最优方法 0.8 dB。

MagDiff: Multi-Alignment Diffusion for High-Fidelity Video Generation and Editing

提出首个统一视频生成与编辑的多对齐扩散模型 MagDiff,通过主体驱动对齐、自适应提示对齐和高保真对齐三种策略,在单一无微调框架中同时实现高质量视频生成与编辑。

MOFA-Video: Controllable Image Animation via Generative Motion Field Adaptions in Frozen Image-to-Video Diffusion Model

提出 MOFA-Video,通过设计多个领域感知的运动场适配器(MOFA-Adapter),在冻结的 Stable Video Diffusion 上实现多域可控图像动画,支持手绘轨迹、人脸关键点等多种控制信号及其零样本组合。

PhysDreamer: Physics-Based Interaction with 3D Objects via Video Generation

利用视频生成模型中隐含的物理动力学先验,为静态3D高斯对象估计空间变化的杨氏模量材料场,从而实现物理合理的交互式3D动力学合成。

RealViformer: Investigating Attention for Real-World Video Super-Resolution

本文系统研究了空间注意力和通道注意力在真实世界视频超分辨率(RWVSR)中的行为差异,发现通道注意力对退化伪影更鲁棒但会导致特征冗余,据此提出了带有改进通道注意力(ICA)和通道注意力融合(CAF)模块的 RealViformer,以更少的参数和更快的速度达到 SOTA。

SV3D: Novel Multi-view Synthesis and 3D Generation from a Single Image using Latent Video Diffusion

提出SV3D,将图像到视频扩散模型适配为多视图合成和3D生成,利用视频模型的泛化能力和多视图一致性,并引入显式相机控制。

VFusion3D: Learning Scalable 3D Generative Models from Video Diffusion Models

提出利用预训练视频扩散模型(EMU Video)作为多视图数据引擎,通过微调使其生成3D一致的多视图视频,从而构建约300万合成数据训练前馈式3D生成模型VFusion3D,实现从单张图片秒级生成3D资产,用户偏好率超过90%。

Videoshop: Localized Semantic Video Editing with Noise-Extrapolated Diffusion Inversion

提出Videoshop——一种免训练的局部语义视频编辑方法,用户可通过任意图像编辑工具修改视频首帧,系统基于噪声外推扩散反演和隐变量归一化技术,自动将编辑传播到所有帧,同时保持语义、空间和时序一致性,在10个指标上超越6个基线方法。