FastJAM: a Fast Joint Alignment Model for Images¶
会议: NeurIPS 2025
arXiv: 2510.22842
代码: https://github.com/BGU-CS-VIL/FastJAM
领域: 图学习 / 图像对齐
关键词: 图像联合对齐, 图神经网络, 单应性估计, 非参数聚类, 反向合成损失
一句话总结¶
提出 FastJAM,一种基于图的快速图像联合对齐方法:利用现成图像匹配器计算成对关键点对应,通过快速非参数聚类构建关键点图,GNN 传播聚合信息后预测每张图像的单应性参数,配合反向合成损失(inverse-compositional loss)消除正则化超参数需求。将联合对齐时间从小时/分钟级降至约 49 秒,同时对齐质量优于或持平现有方法。
研究背景与动机¶
领域现状:图像联合对齐(Joint Alignment, JA)是计算机视觉中的经典问题——给定一组属于同一语义类别的图像,目标是将它们对齐到统一坐标系中,使语义对应的部位出现在相同空间位置。这对于物体发现、3D 重建、生成模型预训练等下游任务都很有用。近年来出现了若干神经网络方法:Neural Congealing (CVPR 2023) 将 GAN 引入对齐、ASIC (ICCV 2023) 基于隐式模板进行对齐、SpaceJAM (ECCV 2024) 引入了轻量级空间变换。
现有痛点:这些方法存在三个共同问题:(1) 训练时间过长——Neural Congealing 需要 78 分钟(8 GPU)、ASIC 需要 67 分钟(4 GPU);(2) 模型容量大——Neural Congealing 有 28.7M 参数;(3) 都需要正则化项约束预测的变换不要太极端,引入了需要仔细调节的超参数。
核心矛盾:现有方法将联合对齐视为端到端的优化问题,每张图像的变换参数需要通过数千次迭代反复优化。这种"重优化"范式天然缓慢,且对正则化超参数敏感。
本文目标 能否用一种非迭代的方式从图像集合的成对对应关系中直接且快速地推断出联合对齐参数?
切入角度:图像间的成对关键点匹配天然构成图结构——关键点是节点、匹配关系是边。GNN 擅长在图结构上做信息传播和聚合,可以一次性地从全局对应关系中推断出每张图像的变换参数。
核心 idea:将联合对齐重新表述为图推理问题——成对匹配 → 关键点图 → GNN 预测变换参数——配合反向合成损失免去正则化调参。
方法详解¶
整体框架¶
FastJAM 是一个三阶段管线:
阶段一:成对匹配。用现成的预训练图像匹配器(如 SuperGlue、LoFTR)对图像集合中所有图像对计算关键点对应关系。每对图像产出一组匹配的关键点对 \((k_i^a, k_j^b)\),表示图像 \(a\) 的关键点 \(i\) 和图像 \(b\) 的关键点 \(j\) 语义对应。
阶段二:图构建。通过快速非参数聚类(不需要预设类别数),将跨图像的语义对应关键点归为同一簇。构建关键点图:节点是每张图像中的关键点,边包括两类——图像内同一图像的关键点之间的空间关系边、图像间同一簇的跨图像对应边。
阶段三:GNN 推理。图神经网络在关键点图上执行消息传递,传播和聚合跨图像的对应信息。然后通过图像级池化(将属于同一图像的所有关键点节点聚合),回归每张图像的单应性变换参数 \(H\)。
关键设计¶
-
快速非参数聚类:
- 功能:将来自不同图像的语义对应关键点自动归为同一簇,无需预设簇数
- 核心思路:利用成对匹配器已提供的对应关系,通过传递闭包或类似策略,将"A 的第 3 关键点↔B 的第 7 关键点↔C 的第 5 关键点"识别为同一语义部位。聚类结果决定了跨图像边的连接方式
- 设计动机:预设簇数的聚类(如 k-means)不适合联合对齐——不同类别图像的语义部位数量不可预知。非参数方法的自适应性使 FastJAM 在不同类别上都能工作
-
关键点图上的 GNN 消息传递:
- 功能:从局部的成对信息中全局地推断每张图像的变换参数
- 核心思路:GNN 在图上执行多轮消息传递。图像内部的边传播空间布局信息(一张图内关键点之间的相对位置),图像间的边传播对应信息(跨图像的语义匹配)。多轮传递后,每个关键点节点汇聚了来自多张图像的全局一致性信息。通过按图像 ID 做池化,得到图像级表示,再回归为 \(3 \times 3\) 单应性矩阵
- 设计动机:相比逐对估计单应性再做全局优化(传统管线),GNN 的消息传递天然实现了全局信息的多跳扩散,一次前向传播即可同时推断所有图像的变换
-
反向合成损失 (Inverse-Compositional Loss):
- 功能:消除对变换正则化项的需求,简化训练
- 核心思路:传统方法的损失通常是 \(L_{\text{align}} + \lambda L_{\text{reg}}\),其中正则化项防止预测变换过于极端(如过大缩放或旋转),\(\lambda\) 需要仔细调节。反向合成损失通过在关键点空间中组合当前预测变换和之前的变换来度量对齐误差,其数学形式自然地约束了变换的合理性,无需显式正则化
- 设计动机:去除超参数 \(\lambda\) 使方法在新数据集、新类别上更易使用,降低了实践中的调参负担
损失函数 / 训练策略¶
反向合成损失在关键点上计算,避免了像素级重建的开销。训练仅需约 600 次迭代(对比 Neural Congealing 的 8000 次、ASIC 的 20000 次),单 GPU 即可运行。模型仅 0.13M 参数,极其轻量。
实验关键数据¶
主实验¶
运行效率对比(SPair-71k 数据集,三个类别平均):
| 方法 | 参数量 | GPU 数 | 迭代次数 | 运行时间 | 加速比 |
|---|---|---|---|---|---|
| Neural Congealing (CVPR'23) | 28.7M | 8 | 8,000 | 01:18:30 | 1× |
| ASIC (ICCV'23) | 7.9M | 4 | 20,000 | 01:06:38 | ~1× |
| SpaceJAM (ECCV'24) | 0.016M | 1 | 700 | 00:06:00 | ~13× |
| FastJAM | 0.13M | 1 | 600 | 00:00:49 | ~96× |
对齐质量对比(SPair-71k 语义关键点传输准确度 PCK):
| 方法 | cat | dog | car | 平均 |
|---|---|---|---|---|
| Neural Congealing | 竞争性 | 竞争性 | 较低 | 第二 |
| SpaceJAM | 较好 | 较好 | 较好 | 第二/三 |
| FastJAM | 最优/持平 | 最优/持平 | 最优 | 第一 |
FastJAM 在对齐质量上持平或优于所有现有方法,同时比最快的 SpaceJAM 还快 ~7.4×。
消融实验¶
| 消融项 | 效果说明 |
|---|---|
| 去除非参数聚类(改为固定 k 聚类) | 跨图像对应关系质量下降,对齐精度降低 |
| 去除反向合成损失(改为传统损失+正则化) | 需要额外调 \(\lambda\),性能不稳定 |
| 减少 GNN 传播层数 | 全局一致性信息未充分扩散,对齐不均匀 |
| 不同匹配器(SuperGlue vs LoFTR) | 性能差异不大,证明方法对匹配器选择的鲁棒性 |
关键发现¶
- 96× 的速度提升使联合对齐从"离线预处理"变为"接近实时",这是量级突破而非边际改进
- 0.13M 参数远小于 Neural Congealing 的 28.7M,说明精心设计的图结构比暴力增大模型参数更高效
- 反向合成损失消除了正则化超参数,在不同类别上无需重新调参,大幅提升了实用性
- 在 CUB-200-2011 鸟类数据集上也展示了良好效果,证明跨域泛化能力
亮点与洞察¶
- 问题重新表述的威力:将联合对齐从"迭代优化问题"重新表述为"图推理问题",一下子把计算范式从数千次迭代变为单次前向传播。这种问题重新表述思路本身就很有启发性
- 模块化设计的实用价值:匹配器、聚类算法、GNN 都是独立且可替换的模块。当未来出现更好的匹配器时,FastJAM 可以直接受益而无需重新设计
- 反向合成损失的简洁性:一个好的损失函数设计可以同时消除超参数和提升性能——这在实际中的价值巨大,因为超参数调优往往是方法落地的最大障碍
- GNN 作为"全局推理引擎":利用 GNN 的消息传递机制在成对信息上做全局一致推理,这个范式可以迁移到任何需要从局部观测推断全局一致结构的任务(如多视角重建、协同定位等)
局限与展望¶
- 变换模型受限于单应性 (Homography):单应性假设图像间是平面射影变换关系,无法处理非刚性变形(如动物姿态变化)或复杂 3D 视角差异。扩展到薄板样条(TPS)或密集光流是重要方向
- 质量依赖匹配器:FastJAM 不训练匹配器——如果现成匹配器在特定领域(如医学图像、卫星图像)质量差,整个管线会受影响。可能需要领域适配
- 类内变异限制:对于类内外观变异极大的类别(如"椅子"包含从办公椅到躺椅的巨大形态差异),聚类可能产出噪声簇,降低 GNN 的推理质量
- 未探索端到端训练:当前是三阶段串行管线,匹配器和聚类都是固定的。端到端微调是否能进一步提升质量值得探索
- 缺少与密集对应方法的对比:如基于 DINO 特征的密集语义对应(如 DenseCorrespondence),这类方法在某些场景下可能更鲁棒
相关工作与启发¶
- vs Neural Congealing (CVPR 2023):用 GAN 做联合对齐,需要 8 GPU、28.7M 参数、78 分钟。FastJAM 用 1 GPU、0.13M 参数、49 秒实现了更好的对齐质量
- vs SpaceJAM (ECCV 2024):已经很轻量(0.016M 参数、6 分钟),但 FastJAM 进一步快了 7.4× 且对齐质量更好。核心差异是 FastJAM 用 GNN 全局推理替代了逐图像优化
- vs SuperGlue:SuperGlue 也用 GNN 做关键点匹配,但只处理两张图像间的匹配。FastJAM 在此基础上扩展到多图像联合对齐,GNN 的角色从"匹配"变为"全局对齐推理"
- 启发:在任何需要从大量成对关系中提取全局一致结构的问题中,"构图+GNN 推理"都是一个值得考虑的快速替代——比如多视角姿态估计、协同分割等
评分¶
- 新颖性: ⭐⭐⭐⭐ 将联合对齐表述为图推理问题 + 反向合成损失消除正则化,设计上每一步都有明确的动机
- 实验充分度: ⭐⭐⭐⭐ 多基准对比 + 消融 + 跨数据集泛化验证,定量和定性结果充分
- 写作质量: ⭐⭐⭐⭐ 方法描述清晰,与现有方法的对比直观,运行时间表格一目了然
- 价值: ⭐⭐⭐⭐ 96× 加速具有实用突破性意义,使联合对齐在实际流水线中可行
相关论文¶
- [NeurIPS 2025] GFM-RAG: Graph Foundation Model for Retrieval Augmented Generation
- [ACL 2025] Fast-and-Frugal Text-Graph Transformers are Effective Link Predictors
- [NeurIPS 2025] Heterogeneous Swarms: Jointly Optimizing Model Roles and Weights for Multi-LLM Systems
- [CVPR 2025] Hypergraph Vision Transformers: Images are More than Nodes, More than Edges
- [ACL 2025] Beyond Completion: A Foundation Model for General Knowledge Graph Reasoning