跳转至

Vinedresser3D: Agentic Text-guided 3D Editing

会议: CVPR 2026
arXiv: 2602.19542
领域: 图像生成
关键词: 3D编辑, 文本引导, 智能体, Trellis, 流模型反演

一句话总结

提出 Vinedresser3D,一个以多模态大语言模型(MLLM)为核心的 3D 编辑智能体,无需用户提供 3D 掩码,通过自动解析编辑意图、定位编辑区域、生成多模态引导,并在原生 3D 生成模型(Trellis)的潜空间中执行基于反演的修补编辑,实现高质量文本引导的 3D 资产编辑。

研究背景与动机

文本引导的 3D 编辑是 3D 计算机视觉中的基础问题,广泛应用于数字内容创作、VR/AR 和机器人等领域。尽管 3D 生成已取得巨大进展,高质量 3D 编辑仍高度依赖专业艺术家和手动工具,效率低、门槛高。

现有 3D 编辑方法面临三大挑战:

语义理解不足:难以准确理解复杂的编辑请求

自动定位困难:无法仅从文本自动检测精确的 3D 编辑区域

编辑保真度差:难以在紧密遵循编辑指令的同时保持未编辑区域不变

现有方法主要分三类,各有缺陷:

  • SDS 类方法(Score Distillation Sampling):通过 2D 扩散模型梯度优化 3D 表示。计算昂贵,需逐场景优化,易产生全局非预期变化
  • "2D 编辑 + 3D 重建"流水线:先编辑多视角图像再重建。受限于多视角不一致和遮挡导致的信息丢失
  • 原生 3D 编辑(如 VoxHammer):在 3D 潜空间直接编辑,但仍需用户手动提供 3D 掩码,且无法理解复杂编辑请求

作者认为下一步的自然方向是:构建一个能理解高层文本指令、自动定位编辑区域、协调多个工具的 3D 编辑智能体。

方法详解

整体框架

Vinedresser3D 以 MLLM(Gemini-2.5-flash)为核心,流水线分四个阶段:

  1. 多模态引导生成:MLLM 解析编辑意图,生成文本和图像引导
  2. 编辑区域检测:自动定位 3D 资产中需编辑的区域
  3. 基于反演的 3D 编辑:在 Trellis 潜空间中执行修补式编辑
  4. 输出解码:将编辑后的 SLAT 解码为 3D 高斯或网格

关键设计1:基于 MLLM 的多模态引导生成

文本引导采用多步提示策略: - 第1步:MLLM 分析多视角渲染图 + 编辑指令 → 生成原始资产描述、识别编辑目标部件、分类编辑类型(添加/修改/删除) - 第2步:预测编辑后的完整描述(约束 MLLM 最大化保留非编辑区域的描述) - 第3步:提取新增/修改目标部件的独立描述 - 第4步:将描述分解为结构相关(Stage 1 几何)和外观相关(Stage 2 特征)两部分

图像引导:MLLM 从 24 个多视角候选中选择最佳视角(最大化编辑目标可见性),送入图像编辑模型(Nano Banana)生成参考图像。

关键设计2:自动编辑区域检测

无需用户提供 3D 掩码,这是相比已有方法的核心优势。

  1. 使用 PartField(3D 分割模型)将资产分解为 \(S\) 个语义部件(\(S \in [3,8]\)
  2. 将原始资产渲染图 + 分割着色图 + 目标文本输入 MLLM → 选择编辑区域 \(P_{\text{edit}}\)
  3. 针对不同编辑类型定义编辑区域:
\[R_{\text{edit}} = \begin{cases} C \backslash A & \text{添加(所有非资产体素)} \\ P_{\text{edit}} & \text{删除(直接移除目标部件)} \\ P_{\text{edit}} \cup (C \backslash bbox_{\text{pres}}) \cup V & \text{修改(含 KNN 边界判定)} \end{cases}\]

其中 \(V = \{v \mid v \in bbox_{\text{pres}} \backslash A, \text{PropKNN}(v) > \tau\}\)

对于修改操作,通过 KNN 比例阈值判断保留区域包围盒内的空体素归属,防止 Trellis 意外修改保留区域上方的体素层。

关键设计3:交叉 Trellis 反演-修补编辑

反演阶段:使用 RF-Solver(二阶 Taylor 展开提升反演精度)将原始 3D 资产反演回结构化噪声:

\[X_{i-1} = X_i + (t_{i-1} - t_i) v_\theta(X_i, t_i) + \frac{1}{2}(t_{i-1} - t_i)^2 v_\theta^{(1)}(X_i, t_i)\]

反演时 CFG 强度设为 0 以稳定反演轨迹并最小化重建误差。

编辑阶段:提出 Interleaved Trellis 编辑模块,交替使用 Trellis-text 和 Trellis-image 进行去噪: - Trellis-text:提供广泛的语义对齐和指令遵循能力 - Trellis-image:提供高保真度的细节(但受限于单视角遮挡) - 逐步交替可兼顾两者优势

每个去噪步中,编辑掩码外(未编辑区域)的潜特征从原始反演轨迹中注入,实现掩码引导的修补(inpainting)。

掩码处理细节: - Stage 1 掩码从 \(64^3\) 下采样到 \(16^3\) 的潜空间 - Stage 2 使用软掩码:保留区域边界体素按距离加权混合去噪和反演特征,消除边界浮动伪影 - 删除操作跳过 Stage 1,直接移除后用 Stage 2 平滑边界

损失函数

本方法为推理时方法,不涉及训练。Agent 自主探索不同正/负提示组合,选择最佳结果。支持多轮迭代编辑。

实验关键数据

主实验:定量对比(57个3D资产,涵盖添加/修改/删除)

方法 需人工掩码 CLIP-T↑ CD↓ PSNR↑ SSIM↑ LPIPS↓ FID↓
Instant3dit 0.227 0.027 20.86 0.851 0.153 80.35
VoxHammer 0.235 0.027 24.36 0.890 0.087 34.95
Trellis 0.247 0.010 37.35 0.984 0.017 31.10
Ours(自动掩码) 0.252 0.016 29.45 0.953 0.045 29.49
Ours + 人工掩码 0.252 0.008 37.69 0.984 0.015 27.38

用户研究(人类偏好)

对比方法 文本对齐胜率 未编辑保持胜率 3D质量胜率
vs. Trellis 92.5% 82.0% 90.8%
vs. VoxHammer 89.8% 79.3% 90.2%

消融实验

方法 PSNR↑ SSIM↑ LPIPS↓ FID↓
完整方法 29.45 0.953 0.045 29.49
去掉 Trellis-text(仅 image) 28.06 0.943 0.054 30.59
去掉编辑区域掩码 25.65 0.921 0.068 33.95

关键发现

  • 即使不使用人工 3D 掩码,Vinedresser3D 的 CLIP-T(文本对齐 0.252)和 FID(29.49)仍为全场最佳
  • 使用人工掩码后,所有指标均达到最优,尤其 PSNR 从 29.45 提升至 37.69
  • 用户研究中以 ~90% 的压倒性胜率超越所有基线
  • 交叉 Trellis 设计和编辑区域检测均对最终质量有显著贡献(消融证实)
  • 仅用 Trellis-image 时,遮挡区域出现扭曲或不合理输出

亮点与洞察

  1. 智能体范式的创新:首次将 MLLM 作为 3D 编辑的"大脑",协调图像编辑模型、3D 分割模型和 3D 生成模型,实现端到端文本引导 3D 编辑。这种方法论层面的创新比单一模型改进更有借鉴价值
  2. 2D MLLM 也能做 3D 推理:尽管 MLLM 仅在 2D 图像-文本数据上训练,通过多视角渲染输入能隐式理解 3D 空间语义(如准确定位编辑区域、理解空间关系)
  3. 自动掩码 vs 人工掩码的差距可控:自动检测已超越使用人工掩码的基线方法,在文本对齐和整体质量上表现最优
  4. 交叉去噪策略简单有效:Trellis-text 和 Trellis-image 各有短板,交替使用互补优缺
  5. 统一框架处理三种编辑:添加、修改、删除通过不同的 \(R_{\text{edit}}\) 定义在同一框架内处理

局限性

  1. MLLM 不接受原生 3D 输入:依赖多视角渲染传递 3D 信息,存在信息损失
  2. 外部工具不完美:PartField 有时产生不合理的分割结果,影响编辑区域的准确性
  3. 推理成本较高:需调用 MLLM 多次、渲染多视角、运行 3D 分割、执行图像编辑,整体延迟和开销较大
  4. 数据集规模有限:仅用 57 个 3D 资产评估(24 生成 + 33 人工创建),规模偏小
  5. 与 Trellis 深度耦合:迁移到其他 3D 生成模型需重新设计反演和编辑模块
  6. 单一最佳视角可能不够:对结构复杂的对象,一个视角的图像引导可能无法覆盖所有编辑细节

评分

⭐⭐⭐⭐ (4/5)

将 MLLM 智能体用于 3D 编辑是一个有吸引力的方向,方法设计合理,实验结果在文本对齐和用户偏好上明显领先。自动掩码检测消除了用户手动标注的需求,显著提升了易用性。不足在于评估规模较小、与 Trellis 耦合较深、推理成本未充分讨论。

相关论文