🎬 视频理解¶
🎞️ ECCV2024 · 共 14 篇
- ActionSwitch: Class-agnostic Detection of Simultaneous Actions in Streaming Videos
-
提出 ActionSwitch——首个无需类别信息即可检测流式视频中重叠动作实例的在线时序动作定位(On-TAL)框架,核心将多动作检测建模为有限状态机的状态分类问题,并辅以 conservativeness loss 减少碎片化误检,在 THUMOS14、FineAction、Epic-Kitchens 100 等数据集上在 OAD 扩展方法中达到 SOTA。
- Adapt2Reward: Adapting Video-Language Models to Generalizable Robotic Rewards via Failure Prompts
-
提出 Adapt2Reward,通过可学习的失败提示(failure prompts)将预训练视频语言模型适配为可泛化的语言条件奖励函数,仅需少量单一环境的机器人数据即可泛化到新环境和新任务,在 MetaWorld 上比前方法高出约 28%。
- AMEGO: Active Memory from Long EGOcentric Videos
-
提出 AMEGO,一种从长第一人称视频中在线构建结构化"活跃记忆"的方法,通过 HOI tracklet + 位置分段 + 语义无关的视觉查询,在新提出的 AMB benchmark 上超越 Video QA baselines 12.7%。
- Benchmarks and Challenges in Pose Estimation for Egocentric Hand Interactions with Objects
-
基于 HANDS23 挑战赛(AssemblyHands + ARCTIC 数据集),系统性地对第一人称视角下手-物体交互的 3D 姿态估计方法进行了基准测试和深入分析,揭示了畸变校正、高容量 Transformer 和多视角融合的有效性,以及快速运动、遮挡和窄视角下物体重建等仍未解决的挑战。
- BlazeBVD: Make Scale-Time Equalization Great Again for Blind Video Deflickering
-
提出 BlazeBVD,利用经典 Scale-Time Equalization (STE) 在光照直方图空间提取 deflickering 先验(滤波光照图、曝光图、闪烁帧索引),将复杂的视频时空学习简化为 2D 空间网络逐帧处理 + 轻量 3D 时序一致性网络,在盲视频去闪烁任务上实现 SOTA 质量且推理速度比基线快 10 倍以上。
- Classification Matters: Improving Video Action Detection with Class-Specific Attention
-
提出类别专属查询(class queries)机制,通过为每个动作类别分配独立的可学习查询,让模型动态关注与各类别相关的上下文区域,显著提升视频动作检测中的分类性能。
- CrossGLG: LLM Guides One-Shot Skeleton-Based 3D Action Recognition in a Cross-Level Manner
-
提出CrossGLG框架,利用LLM生成的文本描述以"全局→局部→全局"的方式引导骨架特征学习,在单样本3D动作识别中以仅2.8%的SOTA模型参数量大幅超越对手。
- Data Collection-Free Masked Video Modeling
-
提出基于伪运动生成器(PMG)从静态图像递归生成伪运动视频,结合掩码视频建模(VideoMAE)进行自监督预训练,完全摆脱真实视频数据的采集成本和隐私/版权顾虑,甚至可用合成图像实现有效的视频Transformer预训练。
- DINO-Tracker: Taming DINO for Self-Supervised Point Tracking in a Single Video
-
提出DINO-Tracker,将预训练DINOv2的语义特征与测试时单视频优化相结合,通过Delta-DINO残差微调和多源自监督损失实现长程稠密点追踪,在自监督方法中达到SOTA且可媲美有监督追踪器,尤其在长期遮挡场景中大幅领先。
- Elysium: Exploring Object-Level Perception in Videos via MLLM
-
提出Elysium,首个端到端可训练的多模态大语言模型系统化处理视频目标级任务(如目标跟踪),构建了百万级ElysiumTrack-1M视频数据集支持SOT/RSOT/Video-REG三类任务,并设计T-Selector token压缩网络在保持性能的同时大幅减少视觉token消耗。
- Nymeria: A Massive Collection of Multimodal Egocentric Daily Motion in the Wild
-
Nymeria是全球最大野外人体运动数据集,300h/264人多设备多模态自我中心数据和310.5K句语言描述。
- On the Utility of 3D Hand Poses for Action Recognition
-
提出 HandFormer,一种轻量级多模态 Transformer,将密集采样的 3D 手部姿态(捕捉细粒度动作)与稀疏采样的 RGB 帧(提供场景语义)结合,通过 micro-action 时序分解和 trajectory 编码高效建模手-物交互,在 Assembly101 和 H2O 上达到 SOTA,且纯 pose 模型以 5× 更少 FLOPs 超越已有骨架方法。
- PiTe: Pixel-Temporal Alignment for Large Video-Language Model
-
提出 PiTe,一种通过物体轨迹引导的像素-时序对齐方法,利用自动构建的 PiTe-143K 数据集在空间和时间维度上实现视频与语言的精细对齐,显著提升视频理解能力。
- R²-Tuning: Efficient Image-to-Video Transfer Learning for Video Temporal Grounding
-
R²-Tuning提出了一个仅需1.5%参数的轻量R²Block,通过从CLIP后层向前层的逆向递归方式聚合多层空间特征并精化时序关联,在6个VTG基准上以2.7M参数超越了使用额外时序骨干的4倍大方法。