CloDS: Visual-Only Unsupervised Cloth Dynamics Learning in Unknown Conditions¶
会议: ICLR 2026
arXiv: 2602.01844
代码: https://github.com/whynot-zyl/CloDS
领域: 3D视觉
关键词: 布料动力学, 无监督学习, 高斯溅射, 可微渲染, 直觉物理
一句话总结¶
CloDS 提出首个从多视角视频中无监督学习布料动力学的框架,通过 Spatial Mapping Gaussian Splatting 建立 2D 图像到 3D 网格的可微映射,结合双位置不透明度调制解决自遮挡问题,使 GNN 在无物理参数监督下就能学到接近全监督水平的布料动力学。
研究背景与动机¶
- 领域现状:深度学习在模拟动态系统(流体、布料、多体动力学)方面取得了显著进展,但现有方法严重依赖已知物理属性作为监督信号(如粒子位置、网格节点坐标等)。
- 现有痛点:
- 真实场景中物理属性(材料参数、环境条件)往往未知,限制了方法的实用性
- 直觉物理方法(从视觉学动力学)主要针对刚体交互,对连续介质力学(尤其是布料)效果差
- 动态场景新视角合成方法无法泛化到未见帧;视频预测方法在频繁自遮挡下难以维护时序一致性
- 核心矛盾:布料具有无穷维状态空间、复杂自遮挡和大非线性变形,现有的粒子表示(如 NeuroFluid)不适合布料的薄片结构,而直接用 mesh-based Gaussian Splatting 又会因为自遮挡产生透视失真
- 本文要解决什么?
- 定义并解决 Cloth Dynamics Grounding(CDG)问题:从多视角视频无监督学习布料动力学
- 设计可微的 2D↔3D 映射,使得 GNN 动力学模型可以用像素级损失训练
- 解决大变形 + 强自遮挡下的渲染失真问题
- 切入角度:将问题分解为三个概率模型的联合学习——渲染 \(p(Y_t|M_t)\)、逆渲染 \(p(M_t|Y_{1:t})\) 和动力学转移 \(p(M_{t+1}|M_t)\),通过 Differentiable Visual Computing(DVC)框架将三者串联。
- 核心idea一句话:用 mesh-based Gaussian Splatting + 双位置不透明度调制建立可微的时序一致 2D-3D 映射,从视频中反演出 3D mesh 序列作为动力学学习的伪标签。
方法详解¶
整体框架¶
三阶段流水线:(1)用首帧 mesh + 多视角图像构建 Gaussian 组件表示 →(2)通过反向传播从后续帧图像中逆推 3D mesh 序列 \(\tilde{M}_{1:T}\) →(3)用恢复的 mesh 序列训练 GNN 动力学模型。
关键设计¶
- Spatial Mapping Gaussian Splatting (SMGS):
- 做什么:建立时序一致的 2D-3D 可微映射
- 核心思路:将 Gaussian 组件锚定在 mesh 面片上,每个 Gaussian 中心通过重心坐标插值 \(\mu_t = \beta_1 X_{t,1}^W + \beta_2 X_{t,2}^W + \beta_3 X_{t,3}^W\) 确定。当 mesh 变形时,Gaussian 通过相同的 \(\beta\) 系数和新的顶点位置自动更新。旋转矩阵由面法向量和 Gram-Schmidt 正交化确定,缩放由边长决定。
-
设计动机:基于 GaMeS 方法,但 GaMeS 无法处理大变形下的自遮挡。SMGS 的关键创新是双位置不透明度调制。
-
双位置不透明度调制 (Dual-Position Opacity Modulation):
- 做什么:动态控制每个 Gaussian 组件的不透明度 \(\alpha_{i,t} = f_\theta(\mu_{i,t}^W, \mu_{i,t}^M)\)
- 核心思路:同时考虑世界坐标(相对位置 \(\mu^W\))和 mesh 坐标(绝对位置 \(\mu^M\))来调制不透明度。\(f_\theta\) 是一个 MLP。世界坐标防止透视失真(重叠时正确分配权重),mesh 坐标防止布料移到未见区域时变透明。
-
设计动机:GaMeS 不调整运动中的不透明度→遮挡区域权重错误→透视和渲染错误。单用世界坐标→布料到新区域会变透明。两者结合才能同时解决这两个问题。
-
逆渲染恢复 3D 标签:
- 做什么:通过反向传播从 2D 图像中恢复 3D mesh 节点位置
- 核心思路:给定当前 mesh \(M_t\),优化位移 \(\Delta x_t^W\) 使得渲染结果 \(\tilde{I}_{t+1}\) 与目标图像 \(Y_{t+1}\) 匹配。递归应用可从首帧 mesh 恢复整个序列 \(\tilde{M}_{1:T}\)。
- 设计动机:不需要任何 3D mesh 标注(物理模拟器的输出),只需多视角视频即可获得训练动力学模型所需的伪标签。
损失函数 / 训练策略¶
- 阶段1(Gaussian构建):标准 3DGS 损失 \(\mathcal{L}_{render} = (1-\lambda)\mathcal{L}_1 + \lambda\mathcal{L}_{D-SSIM}\),\(\lambda=0.2\)
- 阶段2(mesh恢复):\(\mathcal{L}_{geometry} = \mathcal{L}_1(\text{SMGS}(\tilde{x}_{t+1}^W), Y_{t+1}) + \gamma\mathcal{L}_{edge}\),其中边损失保持节点间距离不变防止过度变形
- 阶段3(动力学训练):\(\mathcal{L}_{node} = \sum_{t=1}^T \text{MSE}(\hat{x}_t^W, x_t^W)\),rollout 长度 \(T=8\)
实验关键数据¶
主实验(布料动力学学习 - RMSE)¶
| 方法 | 监督 | Viewed 插值 | Viewed 外推 | Unviewed 插值 | Unviewed 外推 |
|---|---|---|---|---|---|
| MGN | 全部 mesh | 0.1286 | 0.1291 | 0.1358 | 0.1314 |
| MGN* | 50条 mesh | 0.1380 | 0.1388 | 0.1460 | 0.1362 |
| CloDS | 50mesh+50video | 0.1321 | 0.1344 | 0.1399 | 0.1339 |
| CloDS** | 全部 video | 0.1294 | 0.1307 | 0.1388 | 0.1325 |
动态场景新视角合成¶
| 模型 | PSNR↑ | SSIM×10↑ | LPIPS×1000↓ |
|---|---|---|---|
| 4DGS | 23.21 | 9.718 | 15.82 |
| GaMeS | 33.02 | 9.937 | 5.21 |
| SMGS (ours) | 36.24 | 9.959 | 3.53 |
| 3DGS (上界) | 39.63 | 9.986 | 2.53 |
关键发现¶
- CloDS 从视频学到的动力学接近全监督水平:CloDS** 用全部视频训练后 RMSE 与用全部 mesh 训练的 MGN 非常接近(差距<5%),证明无监督方案可行
- SMGS 大幅优于基线渲染方法:PSNR 比 GaMeS 高 3.2dB,比 4DGS 高 13dB
- 双位置不透明度调制缺一不可:去掉世界坐标→透视失真;去掉 mesh 坐标→移动区域变透明
- 泛化能力强:在未见初始状态的布料上,CloDS 的外推 RMSE 仅比 viewed 高 ~1%
亮点与洞察¶
- 将DVC框架引入布料动力学是很有远见的工作:建立了 渲染→逆渲染→动力学 的完整闭环,使得只需首帧 mesh + 多视角视频就能学到物理动力学。这个范式可以迁移到任何需要从视觉观测学习物理模型的场景。
- 双位置不透明度调制简单但关键:仅通过一个 MLP 同时接收世界坐标和 mesh 坐标来调制不透明度,就解决了自遮挡下的渲染失真。设计非常精巧,计算开销小。
- 三阶段训练的解耦设计很实用:阶段1和2不需要时序损失(单步训练),只有阶段3用 rollout。这使得前两阶段可以并行,大幅降低训练复杂度。
局限性 / 可改进方向¶
- 仅在 Blender 合成数据集上验证,真实场景中的噪声、光照变化、多物体交互未被充分测试
- mesh 的初始估计需要首帧的 mesh 作为先验,这在真实场景中可能不可用
- GNN 动力学模型(MGN)固定选择,未探索更强的动力学模型(如 Transformer-based)
- 仅处理单块布料,未考虑布料与其他物体的交互(如穿衣)
- 数据集中布料轨迹相对简单(flag),更复杂的场景(如衣服折叠)可能需要更多训练数据
相关工作与启发¶
- vs NeuroFluid: NeuroFluid 用粒子表示+可微渲染学流体动力学,但粒子不适合布料的薄片结构;CloDS 采用 mesh 表示更适合布料
- vs GaMeS: 同为 mesh-based Gaussian Splatting,但 GaMeS 不处理运动中的不透明度变化,导致遮挡区域渲染错误
- vs 4DGS/M5D-GS: 4D 动态场景方法在大变形场景下表现差,且不学习可泛化的动力学模型
评分¶
- 新颖性: ⭐⭐⭐⭐⭐ 首创CDG问题和相应的解决框架,双位置不透明度调制是创新点
- 实验充分度: ⭐⭐⭐⭐ 多个任务评测全面,但仅在合成数据上验证
- 写作质量: ⭐⭐⭐⭐ 数学建模清晰,但符号略多
- 价值: ⭐⭐⭐⭐ 开辟了从视觉学布料动力学的新方向,可迁移到机器人抓取等场景