AutoToM: Scaling Model-based Mental Inference via Automated Agent Modeling¶
会议: NeurIPS 2025
arXiv: 2502.15676
代码: 有
领域: 心智理论 / LLM Agent
关键词: Theory of Mind, 贝叶斯逆规划, 自动agent建模, 心智推理, LLM
一句话总结¶
AutoToM 实现完全自动化的基于模型的心智理论推理——自动提出 agent 模型(贝叶斯网络结构)并进行贝叶斯逆规划,通过推理不确定性迭代调整模型(添加心智变量/扩展时间步),在5个 ToM benchmark 上超越 SOTA LLM 和推理模型,且产生类人的置信度估计。
研究背景与动机¶
- 领域现状:Theory of Mind(理解他人心智状态)有两大方法:直接 prompt LLM(容易系统性错误)和基于模型的贝叶斯逆规划(鲁棒但需手工定义 agent 模型)。
- 现有痛点:贝叶斯逆规划需要人工指定心智变量(目标、信念等)和因果结构,泛化差。
- 核心矛盾:LLM 灵活但不鲁棒;逆规划鲁棒但不灵活——如何兼得?
- 切入角度:用 LLM 自动发现 agent 模型结构,然后在该模型上做贝叶斯推理。
- 核心idea一句话:自动模型发现 + 自动贝叶斯逆规划 = 可扩展鲁棒的机器心智理论。
方法详解¶
关键设计¶
- 自动贝叶斯逆规划:
- 给定 agent 模型(贝叶斯网络),用 LLM 作为计算后端执行推理
-
不假设模型结构或变量表示——任意图结构都可处理
-
自动 Agent 模型发现:
- 先提出初始模型(最小必要变量)
- 根据推理不确定性迭代调整:
- 不确定性高→添加新心智变量(如从"目标"扩展到"目标+信念")
- 或扩展考虑的时间步范围
-
直到模型效用足够高
-
迭代细化:
- 模型效用 = 推理结果的置信度
- 低效用触发模型扩展
实验关键数据¶
| 方法 | 5 benchmark 平均 | 递归推理 | 长上下文 |
|---|---|---|---|
| GPT-4o | 中等 | 差 | 差 |
| o1/o3 | 较好 | 中等 | 中等 |
| AutoToM | 最好 | 最好 | 最好 |
关键发现¶
- 在复杂场景(多 agent、深度递归推理)上优势最明显
- 产生类人的置信度估计(不只是答案,还有确信程度)
- 在 embodied assistance 任务中成功应用——根据推断的人类意图辅助决策
亮点与洞察¶
- 自动模型发现解决了基于模型方法最大的瓶颈(手工建模)
- 不确定性驱动的模型扩展优雅——只在需要时增加复杂度
- 对需要理解人类意图的 AI 系统(如辅助机器人、对话系统)有直接应用
局限性 / 可改进方向¶
- 模型发现仍依赖 LLM 的常识推理质量
- 多 agent 场景的计算成本随递归深度增长
评分¶
- 新颖性: ⭐⭐⭐⭐⭐ 完全自动化的模型化ToM是突破性贡献
- 实验充分度: ⭐⭐⭐⭐⭐ 5个benchmark+认知实验+embodied任务
- 写作质量: ⭐⭐⭐⭐⭐ 框架清晰,图表优秀
- 价值: ⭐⭐⭐⭐⭐ 对社会智能AI有重要影响