跳转至

HumanOrbit: 3D Human Reconstruction as 360° Orbit Generation

会议: CVPR 2026 arXiv: 2602.24148 代码: 无 领域: 3D视觉 关键词: 3D人体重建, 视频扩散模型, 多视图生成, LoRA微调, 轨道视频

一句话总结

将单图3D人体重建转化为360°轨道视频生成问题,用仅500个3D扫描数据LoRA微调视频扩散模型(Wan 2.1)生成81帧环绕视频,再通过VGGT+Mesh Carving重建高质量纹理网格,无需位姿标注且在多视图一致性和身份保持上超越现有方法。

研究背景与动机

  1. 领域现状:从单张图像重建逼真3D人体是长期挑战,应用于通信、游戏、AR/VR等领域。当前路线主要有:大型重建模型(如InstantMesh)、人体专用模型(依赖3D人体数据集)、以及基于多视图扩散的方法。

  2. 现有痛点

  3. 3D人体数据稀缺:高质量多视图/3D数据集需要专业捕捉工作室(密集标定相机、受控环境),成本极高且多样性有限
  4. 图像扩散模型的多视图方法不一致:Zero-1-to-3、SyncDreamer等基于图像扩散的方法在跨视图一致性上仍有明显伪影,尤其在人脸和手部细节上
  5. 依赖外部先验:PSHuman等方法需要SMPL体型/相机位姿标注,限制了对半身照、头像等非全身场景的适用性
  6. 训练数据需求大:Human4DiT需要大规模多维度人体数据集

  7. 核心洞察:2D人体图像数据量远超3D数据集;最新的DiT视频扩散模型(如Wan 2.1)在数十亿真实视频上训练,已学到强大的时序一致性和隐式3D结构先验——可以将"生成环绕视频"视为"多视图合成"。

  8. 本文切入点:不做图像扩散适配,而是微调视频扩散模型生成环绕轨道视频——利用视频模型天然的时序一致性保证多视图几何一致,仅需极少3D数据即可训练。

方法详解

整体框架

两步pipeline: 1. HumanOrbit模型:给定单张输入图像,生成81帧360°环绕视频 2. 3D重建管线:VGGT估计相机参数和点云 → NormalCrafter估计法线图 → Poisson表面重建初始化 → 可微渲染Mesh Carving优化

关键设计

  1. 视频扩散模型的LoRA微调

基于Wan 2.1 Image-to-Video 480p模型(3D VAE + CLIP图像编码器 + umT5文本编码器 + DiT blocks)。输入图像经时间维度零填充后通过VAE编码为条件隐变量,与噪声和二值掩码拼接后由DiT块去噪。

训练策略: - 仅对DiT blocks施加LoRA(rank=32),保持其余参数冻结 - 训练数据:仅500个PosedPro 3D扫描的Blender渲染轨道视频,包含全身和肩部以上两种构图,加入轻微旋转增强 - 最终3000个视频,每个81帧,640×640分辨率 - 单张A100训练10 epochs

设计动机:视频扩散模型已从数十亿真实视频中学到复杂运动和相机轨迹的先验,LoRA微调只需教会模型"做环绕运动"这一特定模式,而非从头学3D一致性。这使得极少数据即可实现高质量多视图生成。

  1. 无位姿重建管线

  2. 相机估计:用VGGT(前馈式3D场景属性估计网络)直接从生成的多视图图像预测相机参数 \(\Pi = \{\pi_i\}_{i=1}^K\) 和深度投影点云,无需预定义相机轨迹

  3. 法线估计:用NormalCrafter获取时序一致的法线图
  4. 网格初始化:对VGGT点云做Poisson表面重建(而非依赖SMPL模型),保持对非全身场景的泛化性
  5. Mesh Carving优化:通过可微渲染迭代优化,损失函数:

$\(\mathcal{L}_{recon} = \mathcal{L}_{mask} + \mathcal{L}_{normal} = \sum_i \|M_i - \hat{M}_i\|_2^2 + \sum_i M_i \odot \|N_i - \hat{N}_i\|_2^2\)$

几何优化后,再优化逐顶点颜色:\(\mathcal{L}_{color} = \sum_i M_i \odot \|I_i - \hat{I}_i\|_2\)

设计动机:传统方法需要预定义相机位姿或SMPL拟合,限制适用范围。本文让SfM方法直接从生成视频估计一切参数,证明了生成视频的3D一致性足以支撑可靠的相机估计。

  1. 数据高效设计

关键在于视频扩散模型的预训练先验:Wan 2.1在数十亿视频上训练,已理解"围绕物体旋转"的运动模式。LoRA仅需少量参数(rank=32)即可将这种通用能力特化为精确的360°人体环绕轨道。500个3D扫描 → 3000个训练视频已足够。

损失函数 / 训练策略

  • 视频生成:标准扩散训练损失,LoRA rank=32,10 epochs,单A100
  • 网格重建\(\mathcal{L}_{recon} = \mathcal{L}_{mask} + \mathcal{L}_{normal}\),后续 \(\mathcal{L}_{color}\) 优化纹理
  • 无需体型标注、无需相机位姿标注、无需人脸识别模块

实验关键数据

主实验

数据集 指标 HumanOrbit PSHuman SV3D MV-Adapter
CCP (全身) CLIP Score ↑ 0.8317 0.8282 0.7888 0.7735
CCP (全身) MEt3R ↓ 0.3175 0.3576 0.2966 0.3721
CCP (全身) MVReward ↑ 0.8035 0.6814 0.2378 0.6795
CelebA (头像) CLIP Score ↑ 0.7073 - 0.6582 0.6729
CelebA (头像) MVReward ↑ 0.4947 - 0.4918 0.4727

消融实验

配置 关键指标 说明
VGGT vs COLMAP VGGT: 密集点云+连续轨迹; COLMAP: 稀疏点云+断裂轨迹 COLMAP导致重建缺失左臂
非人类物体(椅子/狗) 成功生成环绕视频 LoRA微调保留预训练泛化能力
固定仰角轨道 头顶/下巴等区域不可见 需探索更丰富的相机轨迹

关键发现

  • MVReward指标(最贴合人类偏好)上大幅领先PSHuman(0.8035 vs 0.6814),说明生成质量和一致性显著更好
  • SV3D倾向生成模糊轮廓和扭曲人脸;PSHuman缺乏细节关注;MV-Adapter偶尔出现拓扑错误(多余的鞋子)
  • VGGT能从生成视频中可靠恢复环形相机轨迹,间接证明了视频的3D一致性
  • 对头像场景同样有效(PSHuman因依赖SMPL无法处理),证明泛化性
  • 对非人类物体(椅子/狗)也能工作,说明学到的是通用环绕运动模式

亮点与洞察

  • 问题reformulation精妙:将多视图生成从"图像扩散+3D约束"转化为"视频扩散+轨道运动",天然获得时序一致性
  • 极致数据效率:仅500个3D扫描就能训练出超越需要大量3D数据的方法,核心在于利用预训练视频模型的强先验
  • 无位姿设计:不需要任何外部位姿标注(不需要SMPL、不需要预定义相机),让模型自由生成轨道后再用SfM恢复,避免了生成-标注不对齐问题
  • 方法极简但有效:整个方法仅增加LoRA参数,架构改动极小

局限性 / 可改进方向

  • 固定仰角:环绕轨道只在一个固定水平面上,头顶和下巴等区域不可见。可探索多高度轨道或螺旋轨迹
  • 推理速度慢:基于大型视频扩散模型,生成81帧环绕视频需约17分钟。减少帧数的初步尝试效果不佳,需探索更高效的推理策略
  • 依赖VGGT的鲁棒性:如果生成视频一致性差,VGGT的相机估计也会失败
  • 未与MEAT、Pippo等最新方法对比(代码未公开)

相关工作与启发

  • PSHuman:基于跨尺度多视图扩散+SMPL初始化的mesh carving,是最直接的对比基线
  • SV3D:Stability AI的轨道视频扩散模型(21帧),但在人体上一致性不足
  • VGGT:前馈式3D场景属性估计,替代传统SfM在生成视频上的应用
  • Wan 2.1:DiT视频扩散模型,本文证明了仅用LoRA微调即可将其特化为多视图生成工具
  • 启发:视频扩散模型作为隐式3D先验的载体,可能是单图3D重建的新范式。LoRA在保留预训练知识方面的优势使得小数据微调成为可能

评分

  • 新颖性: ⭐⭐⭐⭐ 视频扩散→多视图生成的范式转换思路新颖,无位姿设计简洁
  • 实验充分度: ⭐⭐⭐ 多视图生成评估全面,但3D重建仅有视觉对比无定量指标;缺少与部分最新方法对比
  • 写作质量: ⭐⭐⭐⭐ 动机清晰,方法简洁,实验展示直观
  • 价值: ⭐⭐⭐⭐ 数据效率极高的单图人体3D重建方案,对3D数据生成也有重要启发
  • 价值: 待评