跳转至

DAP-MAE: Domain-Adaptive Point Cloud Masked Autoencoder for Effective Cross-Domain Learning

会议: ICCV 2025
arXiv: 2510.21635
代码: https://github.com/CVI-SZU/DAP-MAE
领域: 3D视觉 / 自监督学习
关键词: 点云自监督学习, Masked Autoencoder, 跨域学习, 域适应, 3D点云分析

一句话总结

提出一种域自适应点云MAE框架(DAP-MAE),通过异构域适配器(HDA)和域特征生成器(DFG)两个模块,让一次跨域预训练即可在物体分类、人脸表情识别、部件分割、目标检测等多个不同域的下游任务上都达到SOTA。

背景与动机

3D点云数据相比2D图像来说规模小得多,不同应用领域(物体、人脸、场景)各自有独立的小数据集。现有的点云MAE方法(如Point-MAE、PiMAE、3DFaceMAE)通常只能在单一域上预训练并迁移到同域任务,换到别的域性能就会大幅下降。一个很自然的想法是把不同域的数据混在一起预训练——但实验发现,简单混合不同域数据反而会引入"域间噪声",导致下游任务性能不升反降。比如用ReCon-SMC在物体+人脸+场景数据上联合预训练,人脸表情识别和目标检测的准确率反而比单域预训练更低。

这揭示了一个关键矛盾:数据量不够想合并多域数据,但多域信息又会互相干扰。

核心问题

如何有效利用来自不同域(物体、人脸、场景)的点云数据进行联合预训练,使得一个模型只需预训练一次就能在多个域的下游任务上都获得提升,而不是被域间差异所拖累?

方法详解

整体框架

DAP-MAE基于标准的Transformer MAE架构(以ReCon-SMC为baseline),增加了两个核心组件:

  1. 异构域适配器(HDA):在tokenization阶段处理跨域差异
  2. 域特征生成器(DFG):通过对比学习提取域特征,指导下游任务适应

整体流程分为预训练和微调两个阶段,HDA在两个阶段使用不同的工作模式。

预训练数据来自三个域:ShapeNet(物体域𝕆,5万+点云),Enriched FRGCv2(人脸域𝔽,12万+3D人脸),S3DIS(场景域𝕊,室内点云场景)。每个点云统一采样4096个点。

关键设计

1. 异构域适配器(HDA)— 两种模式

HDA由三个并行的MLP组成,分别对应三个域。关键设计在于它在预训练和微调阶段采用完全不同的策略:

  • 预训练-适应模式(Adaptation Mode):根据输入点云所属的域,选择对应的MLP来处理token。物体域的点云走物体MLP,人脸的走人脸MLP,场景的走场景MLP。这样每个MLP专门学习一个域的几何特征,避免不同域信息混杂。

  • 微调-融合模式(Fusion Mode):冻结三个MLP的参数,让输入点云同时通过三个MLP,然后通过两个额外训练的MLP来生成融合系数,将三个MLP的输出进行加权线性融合。对应下游任务域的MLP输出作为主特征,其他两个域的MLP输出作为辅助特征。融合分两步(分别在每个MLP的两层FC之后各做一次)。

这个设计的精妙之处在于:预训练时让每个MLP独立学习一个域的表示(避免干扰),微调时则通过可学习的融合系数自适应地从其他域"借力"(利用跨域知识)。

2. 域特征生成器(DFG)

DFG设置了一个类别token和三个域token(物体、人脸、场景各一个)。通过交叉注意力机制从编码器输出的特征中分解出: - 域特征 \(d\):编码该点云属于哪个域的整体特征 - 类别特征 \(c\):编码该点云具体属于哪个类别的特征

预训练时只训练域特征(通过对比损失),微调时同时训练域特征和类别特征,三者(域特征、类别特征、点云特征)一起送入下游任务头。

损失函数 / 训练策略

预训练总损失\(\mathcal{L} = w_1 \mathcal{L}_{rec} + w_2 \mathcal{L}_{con}\)

  • 重建损失 \(\mathcal{L}_{rec}\):标准的Chamfer Distance,让decoder重建被mask的点云patch
  • 对比损失 \(\mathcal{L}_{con}\):同域的点云域特征要靠近(余弦相似度趋近1),不同域的要远离(引入margin \(a\)

最优权重配置为 \(w_1 = 100, w_2 = 0.001\),说明重建损失远比对比损失重要(对比损失容易过拟合)。

训练细节: - 预训练:batch size 512,AdamW优化器,学习率0.0005,cosine衰减,300 epochs - HDA微调时冻结三个MLP的参数(不冻结反而会过拟合,实验验证) - 硬件:NVIDIA V100 32GB

实验关键数据

任务/数据集 指标 DAP-MAE 前SOTA(单模态) 提升
ScanObjectNN OBJ_BG Acc(%) 95.18 95.18 (Point-FEMAE) 持平
ScanObjectNN PB_T50_RS Acc(%) 90.25 90.22 (Point-FEMAE) +0.03
BU-3DFE 表情识别 Acc(%) 89.83 89.15 (DrFER) +0.68
Bosphorus 表情识别 Acc(%) 88.45 86.77 (DrFER) +1.68
ShapeNetPart 部件分割 mIoU_c(%) 84.9 84.3 (PM-MAE) +0.6
ScanNetV2 目标检测 AP50 43.2 42.1 (ACT, 跨模态) +1.1
ScanNetV2 目标检测 AP25 64.0 63.8 (ACT/ReCon) +0.2

关键对比(同一baseline ReCon-SMC,单域预训练 vs 简单跨域预训练 vs DAP-MAE): - 物体分类:94.15% → 94.32%(简单混合+0.17)→ 95.18%(DAP-MAE +1.03) - 表情识别BOS:87.69% → 87.23%(简单混合-0.46)→ 88.45%(DAP-MAE +0.76) - 目标检测AP50:42.7% → 42.5%(简单混合-0.2)→ 43.2%(DAP-MAE +0.5)

这组对比最有说服力:简单混合跨域数据基本没用甚至有害,DAP-MAE则能有效利用跨域数据。

消融实验要点

  1. 组件消融(ScanObjectNN OBJ_BG):
  2. Baseline单域:94.15%
  3. +跨域数据(CD):94.32%(+0.17)
  4. +CD+HDA:94.66%(+0.51)
  5. +CD+DFG:94.66%(+0.51)
  6. +CD+HDA+DFG(完整DAP-MAE):95.18%(+1.03)
  7. HDA和DFG分别独立贡献,联合使用效果更佳

  8. HDA融合模式消融

  9. 不融合(只用对应域MLP):94.66%
  10. 直接相加融合:92.59%(灾难性下降!)
  11. FC预测系数融合:94.84%
  12. MLP预测系数融合(完整方案):95.18%

  13. 特征组合消融:域特征\(d\)、类别特征\(c\)、点云特征\(\mathcal{F}\)三者联合效果最佳(95.18%),各自独立时分别为93.80%、93.12%、94.49%

  14. 计算开销:相比baseline ReCon(43.6M参数,5.3G FLOPs),DAP-MAE仅增加0.2M参数和0.1G FLOPs——几乎可以忽略不计

亮点 / 我学到了什么

  1. 预训练和微调用不同策略处理跨域信息是核心洞察。预训练时"分而治之",微调时"合而为一"——这个思路适用于很多跨域/多任务学习场景。

  2. 简单混合多域数据不如不混合,这个实验验证了"域间干扰"问题的真实性,也为DAP-MAE的设计提供了坚实的motivation。

  3. 冻结HDA参数做融合这一决策很反直觉但很有效——放开参数反而过拟合。这说明预训练阶段学到的域-特异性表示是有价值的,需要保护。

  4. 对比损失权重要极小(0.001 vs 重建损失100),提示我们对比学习在MAE框架中容易过拟合,需要非常谨慎地平衡。

  5. 额外开销极小(+0.2M参数),说明该方法的增益主要来自设计上的巧妙,而非暴力增加模型容量。

局限性 / 可改进方向

  1. 无法动态扩展新域:当前三个域都是预先固定的,添加新域需要重新训练。作者在结论中也承认了这一点,提到未来可以用持续学习策略解决。

  2. 域的数量固定为3:HDA里硬编码了三个MLP对应三个域(物体、人脸、场景),缺乏灵活性。如果能做成动态数量的adapter会更通用。

  3. 预训练数据不平衡:ShapeNet 5万,FRGCv2 12万,S3DIS的具体规模会不同,可能存在域间数据量不均衡问题。

  4. 仅限纯点云:虽然在多个任务上超过了部分跨模态方法(PC+Image),但和使用图像+文本的ReCon-full比还有差距(如PB_T50_RS:90.25 vs 90.63)。结合跨模态信息可能进一步提升。

  5. 评估主要在室内/合成数据上:缺少户外场景(如自动驾驶点云)的验证。

与相关工作的对比

方法 模态 跨域支持 关键区别
Point-MAE 纯点云 单域 标准MAE,单域预训练单域迁移
ReCon-SMC 纯点云 单域(可强制跨域但效果差) DAP-MAE的baseline
ReCon-full PC+Image+Text 单域 跨模态蒸馏,训练成本高
ACT PC+Image 单域 2D预训练Transformer迁移到3D
Point-FEMAE 纯点云 单域 紧凑表示MAE,单块分类领先
DAP-MAE 纯点云 多域 唯一支持多域联合预训练,通用性最强

DAP-MAE是首个系统性解决"点云跨域MAE预训练"问题的工作,填补了这个空白。

与我的研究方向的关联

  • 跨域表示学习方法论:HDA的"预训练分离, 微调融合"设计思想可推广到其他模态的跨域学习(如2D→3D医学图像蒸馏中的域适配,参见 ideas/medical_imaging/20260316_2d_to_3d_medical_distill.md)
  • 3D部件组合性:DAP-MAE在ShapeNetPart分割上的提升说明跨域预训练也能增强部件级理解,与 ideas/self_supervised/20260317_cross_category_part_compositionality.md 中的跨类别部件发现思路有交叉——跨域信息可能帮助学到更通用的部件表示
  • 持续学习扩展:论文明确指出的"无法动态增加新域"是一个值得做的方向,可以考虑用adapter或prompt tuning来实现增量式域扩展

评分

  • 新颖性: ⭐⭐⭐⭐ 首次提出跨域点云MAE预训练框架,HDA的双模式切换设计有新意
  • 实验充分度: ⭐⭐⭐⭐ 覆盖4类任务6个数据集,消融实验很完整,参数量对比也有
  • 写作质量: ⭐⭐⭐⭐ 逻辑清晰,问题定义明确,图表信息量大
  • 对我的价值: ⭐⭐⭐ 跨域适配思想有参考价值,但和具体研究方向的直接关联不算太强