Logical Characterizations of GNNs with Mean Aggregation¶
会议: AAAI 2026
arXiv: 2507.18145
领域: 图学习 / 图神经网络理论
关键词: GNN表达能力, 均值聚合, 模态逻辑, 比率模态逻辑, 交替无关模态逻辑, 非一致性/一致性设定
一句话总结¶
系统刻画了以均值(mean)为聚合函数的 GNN 的表达能力:非一致设定下等价于比率模态逻辑(RML);一致设定下(相对 MSO)等价于模态逻辑(ML);当额外要求组合函数连续、分类函数为阈值时,表达能力显著下降至交替无关模态逻辑(AFML)。
研究背景与动机¶
GNN 的聚合函数选择(sum/max/mean)直接影响模型可表达的图性质,先前工作已将 sum-GNN 与分级模态逻辑(GML)、max-GNN 与模态逻辑(ML)建立对应,但 mean 聚合——GraphSAGE、GCN 等主流架构的核心操作——缺乏完整的逻辑刻画。
Mean 聚合在实践中广泛使用的原因包括: 1. GraphSAGE、PinSAGE 等系统直接采用 mean 聚合 2. GCN 使用加权版本的 mean 3. Mean 聚合兼容随机采样,适合高度节点
核心问题:Mean-GNN 能精确表达哪些图性质?在不同理论设定(一致/非一致、有无连续性约束)下分别等价于何种逻辑?
方法详解¶
整体理论框架¶
论文分两大设定(非一致 vs 一致)和两类技术约束(一般 vs 连续+阈值)来刻画 Mean-GNN 的表达能力,给出双向翻译(GNN→逻辑、逻辑→GNN),并与 sum/max 聚合进行系统比较。
| 设定 | Mean (连续+阈值) | Mean (一般) | Sum | Max |
|---|---|---|---|---|
| 非一致 | RML | RML | GML | ML |
| 一致 (相对 MSO) | AFML | ML | GML | ML |
| 一致 (绝对) | >> AFML | >> ML | >> GML | ML |
关键设计一:比率模态逻辑(RML)与非一致设定¶
- 定义新逻辑 RML:模态算子 ◇^{≥r}φ 表示"至少 r 比例的后继满足 φ"
- Mean-GNN → RML:由于 mean 只关注邻居特征向量的比率分布,可为每层每个特征向量构造 RML 公式
- RML → Mean-GNN:将 RML 公式的子公式逐层编码为 GNN 的特征向量分量,利用 n² 放大因子区分不同比率
- 推论:非一致设定下 Max-GNN ⊊ Mean-GNN ⊊ Sum-GNN(严格层次)
关键设计二:一致设定下 Mean-GNN ∩ MSO = ML¶
- RML 的模态算子无法在 MSO 中表达,因此一致设定下 RML 被截断为 ML
- 关键工具:图缩放不变性——c 倍缩放图 c·G 不改变 mean 聚合的结果
- 利用 Ehrenfeucht-Fraïssé 博弈,证明缩放 + GML 博弈的 Duplicator 策略可从 ML 博弈策略导出
- 结果:一致设定下 Mean-GNN(相对 MSO)与 Max-GNN 表达能力相同,均等价于 ML
关键设计三:连续+阈值约束下 AFML 刻画¶
- 实际 GNN 的组合函数通常连续(支持反向传播),分类函数通常为阈值
- Mean^{c,t}-GNN → AFML:利用 AFML 博弈(Spoiler 只能选择一个方向)+ 图扩展引理,证明连续组合+阈值分类的 Mean-GNN 无法混合 ◇ 和 □
- AFML → Mean^{c,t}-GNN:将 AFML 公式中的真值编码为 (0,1] 区间的正值、假值编码为 0,利用 truncated ReLU/sigmoid 实现
- 核心发现:连续性+阈值约束使 Mean-GNN 表达能力从 ML 降至 AFML,但对 sum/max 无影响
损失函数/目标函数¶
本文为纯理论工作,不涉及训练损失函数。核心目标是建立逻辑 ↔ GNN 的双向等价翻译。
实验¶
本文为理论论文,无实验部分,但提供了完整的定理-证明体系。
主要结果总览¶
| 定理 | 内容 | 设定 |
|---|---|---|
| Thm 1 | Mean-GNN ⊆ RML ⊆ simple Mean-GNN | 非一致 |
| Thm 7 | Mean-GNN ∩ MSO ⊆ ML ⊆ simple Mean-GNN | 一致 |
| Thm 12 | Mean^{c,t}-GNN ∩ MSO ⊆ AFML ⊆ simple Mean^{c,t}-GNN | 一致 + 连续阈值 |
| Cor 1 | Max-GNN ⊊ Mean-GNN ⊊ Sum-GNN | 非一致 |
| Cor 2 | Max-GNN = Mean-GNN ∩ MSO ⊊ Sum-GNN ∩ MSO | 一致 |
关键消融/对比¶
| 特性 | Mean | Sum | Max |
|---|---|---|---|
| 连续+阈值约束降低表达能力? | ✅ 从 ML 降至 AFML | ❌ | ❌ |
| 图缩放不变性 | ✅ | ❌ | ❌ |
| 激活函数通用性(非一致设定) | 任意连续非多项式 | 任意连续非多项式 | 仅 ReLU/truncated ReLU |
关键发现¶
- Mean 聚合的实际表达能力低于直觉预期:在实际约束(连续组合+阈值分类)下等价于 AFML,不能混合存在性 (◇) 和全称性 (□)
- 三种聚合函数形成严格层次:Sum > Mean > Max(非一致),Sum > Mean = Max(一致+MSO)
- 连续性/阈值约束仅影响 mean 聚合,不影响 sum 和 max
亮点¶
- 首次完整刻画 Mean-GNN 的逻辑对应,填补了 GNN 表达能力理论的重要空白
- 引入 比率模态逻辑(RML) 和 交替无关模态逻辑(AFML) 两个新逻辑工具
- 揭示了 实际约束(连续+阈值)对 mean 聚合的独特影响——这是 sum/max 不具备的现象
- 图缩放不变性作为关键技巧,优雅地将问题从 RML 降维到 ML
- 理论结果覆盖 ReLU、truncated ReLU、sigmoid 等主流激活函数
局限性¶
- 纯理论工作,无实验验证理论预测对实际任务的指导意义
- 一致设定下 ML → Mean-GNN 的翻译使用了不连续激活函数或不自然的分类函数(将无理数分类为 1),实用性有限
- 是否可扩展到异构聚合(不同层使用不同聚合函数)未探讨
- 未讨论加权 mean(如 GCN 的归一化方式)的逻辑刻画
- Max-GNN 的激活函数通用性问题(能否扩展到所有连续非多项式函数)仍开放
相关工作¶
- Sum-GNN 逻辑刻画:Barceló et al. (2020) 证明 Sum-GNN ↔ GML(相对 FO)
- Max-GNN 逻辑刻画:Tena Cucala et al. (2024) 将 Max-GNN 翻译为非递归 datalog
- GNN 表达能力的非逻辑方法:Xu et al. (ICLR 2019) 研究不同聚合函数的表达能力,但未使用逻辑刻画
- Transformer 层的模态逻辑刻画:与 mean 聚合紧密相关
- 单调 Mean-GNN 的逻辑解释:Morris & Horrocks (2025)
评分¶
⭐⭐⭐⭐ (4/5)
理论贡献扎实完整,系统性地填补了 Mean-GNN 逻辑刻画的空白。RML 和 AFML 的引入为后续研究提供了精确的分析工具。但纯理论性质限制了对实际 GNN 设计的直接指导作用,且部分翻译构造的实用性不足。
相关论文¶
- [AAAI 2026] Enhancing Logical Expressiveness in GNNs via Path-Neighbor Aggregation
- [AAAI 2026] Adaptive Initial Residual Connections for GNNs with Theoretical Guarantees
- [AAAI 2026] MoToRec: Sparse-Regularized Multimodal Tokenization for Cold-Start Recommendation
- [AAAI 2026] RFKG-CoT: Relation-Driven Adaptive Hop-count Selection and Few-Shot Path Guidance for Knowledge-Aware QA
- [AAAI 2026] S-DAG: A Subject-Based Directed Acyclic Graph for Multi-Agent Heterogeneous Reasoning