跳转至

Learning Structure-Semantic Evolution Trajectories for Graph Domain Adaptation

会议: ICLR 2026
arXiv: 2602.10506
代码: DiffGDA
领域: 图学习/领域自适应
关键词: 图域适应, 扩散模型, SDE, 连续演化, 域感知引导

一句话总结

提出DiffGDA——首个将扩散模型引入图域适应(GDA)的方法,用随机微分方程(SDE)建模源图到目标图的连续时间结构-语义联合演化过程,配合基于密度比的域感知引导网络驾驶扩散轨迹朝向目标域,理论证明收敛到最优适应路径,在8个真实数据集14个迁移任务上全面超越SOTA。

研究背景与动机

问题定义:图域适应(GDA)旨在将有标注源图(source graph)的知识迁移到无标注目标图(target graph),解决跨域分布偏移问题,本文聚焦节点级GDA任务。

现有范式:GDA两大范式——(1) 模型导向方法(学习域不变表示,如MMD、对抗训练),假设结构变化有限,在大结构差异下失效;(2) 数据导向方法(构建中间图桥接结构gap),依赖离散对齐步骤,灵活但受限于步数固定。

离散对齐的根本局限:真实世界图的结构受社交动态、引用增长、知识扩散等复杂过程驱动,演化是连续且非线性的。固定步数的离散对齐无法逼近实际的变换过程,特别是面对无标注图时,结构和语义缺乏显式锚点可供对齐。

连续演化的优势:连续时间建模(1)将结构变化表示为平滑时序轨迹,灵活适配非线性异构拓扑;(2)语义信息沿变换路径连续演化,模型自动学习最优对齐轨迹。

扩散模型的契机:扩散模型在捕捉复杂分布变换方面已取得巨大成功,SDE框架可将跨图迁移表示为连续概率流——自然统一结构与语义适应。

研究空白:现有图扩散模型主要关注对称扩散过程(生成任务),GDA需要非对称扩散(从源域到目标域的定向迁移),此前无人探索将扩散引入GDA领域。

方法详解

整体框架: DiffGDA

源图 G^S → [拼接特征+标签] → 前向扩散(SDE加噪) → 高斯分布
                                    ↓ 反向扩散
         域感知引导网络 → 引导扩散轨迹 → 生成中间图 G'
         GNN节点分类(交叉熵 + MMD对齐) → 目标图推断

组件一:前向扩散过程

将源图逐步加噪到高斯分布。关键设计——将节点特征 \(\mathbf{X}^{\mathcal{S}}\) 和标签 \(\mathbf{Y}^{\mathcal{S}}\) 沿通道维拼接为增广特征 \(\tilde{\mathbf{X}}^{\mathcal{S}} = [\mathbf{X}^{\mathcal{S}} || \mathbf{Y}^{\mathcal{S}}] \in \mathbb{R}^{N_{\mathcal{S}} \times (F+C)}\),将标签知识注入扩散过程。前向SDE为:

\[\mathrm{d}\mathbf{G}^{\mathcal{S}}_t = \mathbf{f}_t(\mathbf{G}^{\mathcal{S}}_t)\mathrm{d}t + g_t(\mathbf{G}^{\mathcal{S}}_t)\mathrm{d}\mathbf{w}\]

组件二:域引导反向扩散

反向SDE从噪声恢复图,但关键在于不是恢复源图分布,而是引导生成符合目标域分布的图。反向过程:

\[\mathrm{d}\mathbf{G}_t^{\mathcal{S}} = \big[\mathbf{f}_t(\mathbf{G}_t^{\mathcal{S}}) - g_t^2 \nabla_{\mathbf{G}_t^{\mathcal{S}}} \log p_t(\mathbf{G}_t^{\mathcal{S}})\big]\mathrm{d}\bar{t} + g_t \mathrm{d}\bar{\mathbf{w}}\]

引入两个网络: - Score网络 \(\mathbb{P}(\boldsymbol{\ell})\):估计score function \(\nabla \log p_t\),分解为节点特征和邻接矩阵两部分独立训练 - Guidance网络 \(\mathbb{Q}(\boldsymbol{\delta})\):学习密度比梯度,引导扩散朝目标域方向

组件三:域感知引导网络(核心创新)

定理1(核心):目标图的最优扩散网络满足:

\[\mathbb{P}(\boldsymbol{\ell}^{\star}) = \nabla_{\mathbf{G}_t^{\mathcal{S}}} \log p_t(\mathbf{G}_t^{\mathcal{S}}) + \nabla_{\mathbf{G}_t^{\mathcal{S}}} \log \mathbb{E}_{p(\mathbf{G}_0^{\mathcal{S}}|\mathbf{G}_t^{\mathcal{S}})} \frac{q(\mathbf{G}_0^{\mathcal{T}})}{p(\mathbf{G}_0^{\mathcal{S}})}\]

第一项是源图score function,第二项是目标/源分布密度比的梯度——这就是引导信号。

密度比估计:训练GNN分类器 \(\mathcal{C}_{\text{gnn}}\) 区分源/目标域节点,密度比近似为 \(q/p \approx (1-\mathbf{y}(\mathbf{x}))/\mathbf{y}(\mathbf{x})\)

关键设计——分解计算: - Score网络分为 \(\mathbb{P}(\boldsymbol{\ell}_1)\)(节点特征score,用MLP+GNN)和 \(\mathbb{P}(\boldsymbol{\ell}_2)\)(邻接结构score,用MLP+GMH多头注意力) - Guidance网络同样分为 \(\mathbb{Q}(\boldsymbol{\delta}_1)\)(特征域估计)和 \(\mathbb{Q}(\boldsymbol{\delta}_2)\)(结构域估计),均为轻量MLP

选择性扩散策略:超参 \(\alpha\) 控制扩散比例,仅对部分节点施加扩散,平衡效率与信息保留。

GNN训练

生成带标注的中间图 \(\mathbf{G}' = (\mathbf{X}', \mathbf{A}', \mathbf{Y}')\) 后,训练GNN:

\[\mathcal{L}_{\text{GNN}} = \mathcal{L}_{\text{CE}}(\text{GNN}(\mathbf{X}', \mathbf{A}'), \mathbf{Y}') + \eta \mathcal{L}_{\text{MMD}}(\text{GNN}(\mathbf{X}', \mathbf{A}'), \text{GNN}(\mathbf{X}^{\mathcal{T}}, \mathbf{A}^{\mathcal{T}}))\]

交叉熵+MMD对齐,端到端联合优化扩散和GNN参数。

实验结果

表1: Citation域6个迁移任务(Mi-F1/Ma-F1)

方法 A→C A→D C→A C→D D→A D→C 平均
GCN 70.82 65.05 65.44 69.46 59.92 66.83 64.83
UDAGCN 80.68 74.66 73.46 76.97 69.36 77.81 75.03
A2GNN(AAAI'24) 80.93 75.94 75.09 77.16 73.21 79.72 75.97
TDSS(AAAI'25) 80.41 74.04 72.88 77.23 72.38 79.04 75.72
GAA(ICLR'25) 80.03 73.32 73.15 76.04 68.32 78.27 72.65
DiffGDA 82.28 76.70 75.75 78.11 74.55 80.71 77.58

表2: Airport域6个迁移任务(Mi-F1/Ma-F1)

方法 U→B U→E B→U B→E E→U E→B 平均
AdaGCN 65.65 50.63 46.87 54.44 48.62 73.74 56.17
GraphAlign(KDD'24) 62.54 52.18 50.33 55.23 54.35 71.02 56.39
TDSS(AAAI'25) 67.43 52.05 47.62 51.80 46.08 55.73 49.24
DiffGDA 71.76 54.18 54.37 57.15 56.20 74.81 60.75

运行时间对比(表3)

方法 A→D总时间(s) A→D Mi-F1 A→C总时间(s) A→C Mi-F1
UDAGCN 83.19 67.52 104.91 72.64
GraphAlign 269.65 70.14 297.15 76.62
DiffGDA 126.73 73.41 125.41 80.23

DiffGDA比同为图生成的GraphAlign减少50%以上运行时间,同时性能更优。

关键发现

  1. 连续优于离散:DiffGDA在所有14个迁移任务上一致超越基于离散中间图的方法(GraphAlign、GGDA),证明连续时间演化建模在捕捉非线性结构差异方面的根本优势。

  2. 引导网络是关键:消融实验(Figure 2)显示,移除域感知引导网络导致最大性能下降(特别是B→E等高难度任务)——单纯的无引导扩散无法自动朝目标域方向演化。

  3. 三组件互补:引导网络稳定扩散路径、MMD促进跨域对齐、邻接约束保持结构依赖——三者缺一不可。

  4. 扩散步数的选择较鲁棒:T=40-80步即可收敛,过大T收益递减;采样比例α需根据图规模调整(大图受限于显存需用小α)。

  5. 表征空间更清晰:t-SNE可视化(Figure 5)显示DiffGDA生成更紧凑、分离更好的类簇,有效消除域无关噪声,增强类间可区分性。

亮点

  • "首次将扩散引入GDA"——开创性地用SDE扩散过程统一建模结构+语义适应,为GDA开辟全新范式
  • 密度比引导的精巧设计——不是从噪声直接生成目标,而是从源图出发,用密度比梯度引导扩散轨迹→保留源域标注的同时朝目标域演化
  • 标签注入扩散——将标签拼接到特征中参与扩散→生成的中间图自带标签→无需额外标签传播
  • 理论+实践双强——既有最优解收敛的理论证明(Theorem 1),又在14个任务上全面超越
  • 选择性扩散——仅对部分节点扩散(α控制比例),兼顾效率和信息保留

局限性

  • 可扩展性受限:大规模图受显存限制只能用小采样比例(α),Airport域任务中50%以上即OOM,大图场景实用性存疑
  • MMD对齐的额外开销:扩散生成后还需MMD对齐→说明扩散本身未能完全消除域差距,需要两阶段配合
  • 损失权重η敏感:η增大性能持续下降→过强对齐导致过度正则化→实际使用需精细调参
  • 仅验证节点分类:未在图分类、链接预测等其他图任务上验证泛化性

相关工作对比

维度 GraphAlign(KDD'24) DiffGDA
对齐方式 构建离散中间图 SDE连续演化
适应范式 数据导向(固定步数) 生成式(连续时间)
典型性能(Citation Avg) 67.41 77.58
运行时间 最慢(图生成开销大) 减少50%+
维度 A2GNN(AAAI'24) DiffGDA
核心思路 对抗+注意力聚合 扩散+域引导
适应范式 模型导向 生成式(数据导向)
Citation Avg 75.97 77.58
Airport Avg 49.57 60.75
结构差异适应 中等 强(连续非线性建模)
维度 GAA(ICLR'25) DiffGDA
核心思路 图增强+对齐 SDE扩散+域引导
Citation Avg 72.65 77.58
Airport Avg 51.98 60.75

评分

  • 新颖性: ⭐⭐⭐⭐⭐ 首次将扩散模型引入GDA,用SDE连续演化替代离散对齐,开创性工作
  • 实验充分度: ⭐⭐⭐⭐⭐ 8数据集14任务、16个baseline、消融/参数分析/效率对比/可视化齐全,显著性检验(p<0.05)
  • 写作质量: ⭐⭐⭐⭐ 数学推导清晰,框架图直观,公式符号统一
  • 实用价值: ⭐⭐⭐⭐ 为连续图域适应开辟新范式,但大图可扩展性仍需改进

相关论文