Curriculum Abductive Learning¶
会议: NeurIPS 2025
arXiv: 2505.12275
代码: 无
领域: LLM推理 / 神经符号学习
关键词: Abductive Learning, 课程学习, 知识库分区, 神经符号推理, 训练稳定性
一句话总结¶
提出 Curriculum Abductive Learning (C-ABL),通过将知识库按依赖结构分割为子知识库并渐进式引入训练,大幅缩小 ABL 的 abduction 搜索空间,显著提升训练稳定性、收敛速度和最终精度。
研究背景与动机¶
-
领域现状:Abductive Learning (ABL) 是一种将机器学习与逻辑推理结合的框架——学习模型从原始输入预测符号概念标签,推理模块通过 abduction 生成与知识库一致的候选修正标签,反馈给模型重新训练。这个循环使得系统能逐渐将预测与逻辑约束对齐。
-
现有痛点:由于 abduction 的不确定性,当知识库复杂时,abduction 搜索空间 \(|\mathbb{S}|\) 可以指数级增长(\(\leq N^m\),\(N\) 为概念标签数,\(m\) 为序列长度)。大量"合理但错误"的候选标签会误导训练,导致模型在不同假设间振荡,收敛缓慢且不稳定。
-
核心矛盾:现有方法(ABL, A3BL 等)聚焦于改进候选选择策略(consistency optimization),但当搜索空间本身过大时,再好的选择策略也难以弥补——这是根本性的瓶颈。
-
本文要解决什么? 如何主动管理和缩减 abduction 搜索空间的大小,而不是仅在大空间内做更好的选择。
-
切入角度:许多知识库具有内在的阶段性或层次结构(如法律领域中简单基础条款 vs 复杂例外条款)。可以利用这种结构,将知识库按复杂度分阶段引入。
-
核心idea一句话:将知识库按依赖图分割为递增复杂度的子知识库序列,在训练中渐进式引入,从而在每个阶段大幅缩小搜索空间。
方法详解¶
整体框架¶
C-ABL 将标准 ABL 的训练过程改造为 \(P\) 个课程阶段。输入是完整知识库 \(\mathcal{KB}\),先通过分区算法将其分割为子知识库序列 \(\mathcal{KB}_1, \ldots, \mathcal{KB}_P\)。在第 \(p\) 阶段,仅使用 \(\mathcal{KB}_p\) 指导 abduction 推理,逐步扩展直到使用完整知识库。
关键设计¶
- 依赖图构建与知识库分区(Algorithm 1):
- 做什么:将 \(\mathcal{KB}\) 分割为有序的子知识库序列
- 核心思路:首先构建规则间的依赖图 \(G=(V,E)\),每个节点是一条规则,若规则 \(r_i\) 的头谓词出现在 \(r_j\) 的体中则连边。然后按三个原则分区:(1) 依赖内聚——相互依赖的规则聚在同一阶段;(2) 复杂度递增——简单规则先引入,复杂规则后引入;(3) 自包含推理——每个阶段的子知识库可独立推理。算法先为每个概念标签初始化聚类,递归扩展,合并重复聚类,拓扑排序后形成累积的子知识库序列。
-
设计动机:通过利用知识库的符号结构(而非将其视为黑箱),实现对搜索空间复杂度的主动管控。
-
课程引导训练:
- 做什么:在第 \(p\) 阶段用 \(\mathcal{KB}_p\) 替代完整 \(\mathcal{KB}\) 进行 ABL 训练
- 核心思路:阶段 \(p\) 的 abduction 空间为 \(\mathbb{S}_p = \{\mathbf{z} \in \mathcal{Z}_p^m \mid \mathbf{z} \wedge \mathcal{KB}_p \models y\}\),其大小上界为 \(|\mathcal{Z}_p \setminus \mathcal{Z}_{p-1}|^m\),远小于完整空间的 \(N^m\)。当阶段 \(p\) 中所有概念标签的预测精度超过随机猜测基线 \(1/|\mathcal{Z}|\) 后,进入下一阶段。
-
设计动机:每个阶段只需要处理新引入的概念标签,之前学到的概念作为稳定基础,从而指数级缩小搜索空间。
-
自包含推理的理论保证:
- 做什么:确保每个阶段的子知识库在其概念域内逻辑完备且一致
- 核心思路:Theorem 3.2 证明了 \(\mathcal{KB}_p\) 对于 \(\mathcal{Z}_p\) 上的任意公式 \(\varphi\) 同时满足 soundness(不会推出全局无效的结论)和 completeness(可以推出所有有效结论)。Corollary 3.3 证明最终阶段 \(\mathcal{KB}_P\) 与完整 \(\mathcal{KB}\) 在所有概念标签上逻辑等价。
- 设计动机:避免阶段性训练引入逻辑不一致——确保每个阶段的"简化版"推理完全可信。
训练策略¶
- 阶段转换条件:所有当前概念标签精度超过 \(1/|\mathcal{Z}|\)(仅在验证集评估,不用于训练)
- 收敛保证:Theorem 4.5 证明 ABL 的迭代复杂度为 \(\mathcal{O}(|\mathbb{S}|^2 \cdot \rho^2 / \varepsilon^2)\),缩小 \(|\mathbb{S}|\) 直接加速收敛
- 平滑过渡:Theorem 4.6 (逻辑一致性) + Theorem 4.7 (拓扑连续性,Stone space 嵌套) 共同保证阶段间不会发生灾难性遗忘
实验关键数据¶
主实验:多位数加法¶
| 任务 | ABL | A3BL | C-ABL | 提升 |
|---|---|---|---|---|
| 十进制 d=2 | 74.49% | 75.62% | 76.74% | +1.1% |
| 十进制 d=3 | 74.50% | 74.65% | 77.65% | +3.0% |
| 十进制 d=4 | 73.05% | 73.28% | 76.30% | +3.0% |
| 十六进制 d=1 | 60.87% | 22.45% | 63.02% | +2.2% |
| 十六进制 d=2 | 61.75% | 60.75% | 64.25% | +2.5% |
| 十六进制 d=3 | 64.14% | 65.81% | 66.67% | +0.9% |
训练时间方面,C-ABL 在十进制 d=4 上仅需 132.6 分钟 vs ABL 的 253.6 分钟(节省 48%)。
消融实验:不同任务¶
| 任务 | ABL | A3BL | C-ABL |
|---|---|---|---|
| 国际象棋攻击(精度) | 73.75% | 74.96% | 86.79% |
| 国际象棋攻击(收敛迭代) | 4560 | 3389 | 2553 |
| 司法量刑 10%标注(F1) | 0.895 | - | 0.904 |
| 司法量刑 50%标注(F1) | 0.910 | - | 0.920 |
关键发现¶
- 复杂度越高提升越大:在十六进制和高位数设置下(知识库更大、搜索空间更大),C-ABL 的优势更明显
- 国际象棋任务提升最显著(+12%精度),因为二值目标标签导致超大 abduction 空间,C-ABL 的分区策略效果最好
- 训练曲线更平滑:C-ABL 在前几百次迭代就快速提升,到 1000 次迭代接近最终性能;而 ABL 表现出明显的震荡和停滞
- 阶段间无灾难性遗忘:之前学到的概念标签精度在新阶段引入后保持稳定
亮点与洞察¶
- 从"选得更好"到"搜得更少"的范式转换:之前的工作都在大搜索空间里做更好的选择,C-ABL 直接缩小搜索空间本身。这个思路简洁但深刻——与其在海里捞针,不如先把海缩小。
- 知识库的符号结构是未被利用的免费信息:知识库在 ABL 中一直被视为黑箱,但其内部的依赖结构天然提供了课程学习的阶段划分。这个观察可以迁移到任何使用结构化知识的学习系统。
- 理论分析非常完整:从搜索空间缩小(Thm 4.2)到迭代复杂度(Thm 4.5)到阶段过渡平滑性(Thm 4.6-4.7),形成了完整的理论链条。
局限性 / 可改进方向¶
- 分区算法依赖知识库具有良好的层次/阶段结构,对于高度耦合(无法有效分区)的知识库效果可能有限
- 阶段转换条件(精度超过 \(1/|\mathcal{Z}|\))比较简单,可能不是最优的——过早或过晚过渡都会影响效果
- 实验主要在合成任务上(数字加法、棋盘),真实世界任务只有一个(司法量刑),scale 较小
- 未与更多现代 LLM 结合的神经符号方法对比
相关工作与启发¶
- vs ABL/A3BL: 它们在固定的完整搜索空间中改进选择策略,C-ABL 从源头缩小搜索空间,思路更根本
- vs 数据级课程学习(Bengio 2009等): 传统课程学习在数据侧做简单→困难的排序,C-ABL 在知识/逻辑侧做排序,是一个新的维度
- vs NeurASP/DeepProbLog: 这些概率神经符号方法通过加权模型计数做推理,计算成本高;C-ABL 通过缩小推理空间降低成本
评分¶
- 新颖性: ⭐⭐⭐⭐ 将课程学习应用到知识库分区是新颖的视角,但核心思想(缩小搜索空间)比较直觉
- 实验充分度: ⭐⭐⭐⭐ 三个任务+理论分析,但真实世界任务较少且规模小
- 写作质量: ⭐⭐⭐⭐⭐ 写作清晰,动机→方法→理论→实验的逻辑链非常流畅
- 价值: ⭐⭐⭐⭐ 对 ABL 社区有明确贡献,但 ABL 本身的应用范围相对有限