跳转至

Beyond Message Passing: Neural Graph Pattern Machine

会议: ICML2025
arXiv: 2501.18739
代码: GitHub - GPM
领域: graph_learning
关键词: 图模式, 随机游走, 消息传递, 子结构编码, Graph Transformer

一句话总结

提出 Neural Graph Pattern Machine (GPM),用随机游走采样图模式,通过语义路径与匿名路径的双编码器捕捉节点特征和拓扑结构,再用 Transformer 识别任务相关的关键模式,彻底绕过消息传递范式,在节点/边/图级任务上全面超越 SOTA。

研究背景与动机

核心矛盾

核心矛盾:标准 GNN 依赖消息传递,受限于 1-WL 测试表达力: - 无法区分三角形、k-clique、环等基本子结构 - 多跳消息传递存在 over-squashing,难捕捉长距离依赖 - 可解释性差

子结构/图模式为何重要

  • 社交网络中的三角闭合是社群稳定性指标
  • 分子图中的苯环是化学反应性核心子结构
  • 下游任务的归纳偏置蕴含在图模式中

现有痛点

现有痛点:1. 缺乏通用的图 tokenizer 2. 编码器仍依赖消息传递,继承其表达力限制 3. 缺少"哪些模式对任务最重要"的识别机制

方法详解

整体框架(三步走)

  1. Pattern Tokenizer:随机游走采样
  2. Pattern Encoder:语义路径 + 匿名路径双编码
  3. Important Pattern Identifier:Transformer 注意力筛选

Step 1: 基于随机游走的 Tokenizer

每条随机游走天然对应一个图模式: - 语义路径 \((v_0,...,v_L)\):保留节点身份和特征 - 匿名路径 \((\gamma_0,...,\gamma_L)\):将节点替换为首次出现位置编号

例如 "A-B-C-A-D" 和 "C-D-E-C-A" 都映射到 "0-1-2-0-3"(同一拓扑)。

理论保证:匿名路径分布足以重建 \(k\)-hop 子图(Proposition 3.2)。

Step 2: 双编码器

  • 语义路径用 Transformer 编码特征序列
  • 匿名路径用 GRU 编码 loop-based adjacency
  • 最终:\(p = \rho_s(w) + \lambda \cdot \rho_a(\phi)\)

Step 3: Transformer 模式识别

自注意力学习模式间的相对重要性,可选 class token 提升可解释性,均值池化后接预测头。

实验关键数据

跨任务全面评测

主实验

任务类型 数据集示例 GPM 表现
节点分类 Cora, ogbn-arxiv 多数 Top-1
链接预测 Collab, PPA 超越 GNN+GT
图分类 MUTAG, ogbg-molhiv 多数 Top-1
图回归 ZINC 超越所有消息传递方法

与不同范式的对比

消融实验

方法类型 代表 GPM 相对表现
标准 GNN GCN, GAT, GIN 显著优于
高阶 GNN GSN, CWN 优于或持平
Graph Transformer GPS, Graphormer 多数优于
随机游走方法 CRaWl 优于

关键发现

  1. 四类任务一致超越消息传递,OOD 泛化更强
  2. 可区分 GNN 无法区分的非同构图
  3. 长距离依赖数据上同样优秀
  4. 可扩展至大图,支持分布式训练
  5. class token 注意力提供可解释的模式重要性排序

亮点与洞察

  1. 彻底绕过消息传递,提出全新图学习范式。
  2. 随机游走"语义+匿名"双路径分解非常优雅。
  3. 通用性极强:同一框架处理节点/边/图三个层级。
  4. 可解释性是内建的而非事后补丁。
  5. 理论支撑扎实:匿名路径分布的充分统计性有形式化证明。

局限与展望

  1. 模式采样引入随机性,小图可能方差较大。
  2. 随机游走长度和采样数量需要调优。
  3. 在有向图、异构图上的适配还需进一步探索。
  4. 匿名路径 GRU 编码在超长游走上可能信息衰减。

相关工作与启发

  • 与 Graph Transformer 的区别:token 是图模式(子结构),不是单节点。
  • 与高阶 GNN 的区别:直接在模式空间工作,不做消息传递。
  • 启发:可做模式级掩码预训练,或自适应游走策略。

评分

  • 新颖性: ⭐⭐⭐⭐⭐(5.0/5)— 完全跳出消息传递范式
  • 实验充分度: ⭐⭐⭐⭐⭐(5.0/5)— 四类任务+OOD+可扩展性
  • 写作质量: ⭐⭐⭐⭐⭐(5.0/5)
  • 价值: ⭐⭐⭐⭐⭐(5.0/5)— 范式级贡献

相关论文