跳转至

AutoToM: Scaling Model-based Mental Inference via Automated Agent Modeling

会议: NeurIPS 2025
arXiv: 2502.15676
代码: 有
领域: 心智理论 / LLM Agent
关键词: Theory of Mind, 贝叶斯逆规划, 自动agent建模, 心智推理, LLM

一句话总结

AutoToM 实现完全自动化的基于模型的心智理论推理——自动提出 agent 模型(贝叶斯网络结构)并进行贝叶斯逆规划,通过推理不确定性迭代调整模型(添加心智变量/扩展时间步),在5个 ToM benchmark 上超越 SOTA LLM 和推理模型,且产生类人的置信度估计。

研究背景与动机

  1. 领域现状:Theory of Mind(理解他人心智状态)有两大方法:直接 prompt LLM(容易系统性错误)和基于模型的贝叶斯逆规划(鲁棒但需手工定义 agent 模型)。
  2. 现有痛点:贝叶斯逆规划需要人工指定心智变量(目标、信念等)和因果结构,泛化差。
  3. 核心矛盾:LLM 灵活但不鲁棒;逆规划鲁棒但不灵活——如何兼得?
  4. 切入角度:用 LLM 自动发现 agent 模型结构,然后在该模型上做贝叶斯推理。
  5. 核心idea一句话:自动模型发现 + 自动贝叶斯逆规划 = 可扩展鲁棒的机器心智理论。

方法详解

关键设计

  1. 自动贝叶斯逆规划
  2. 给定 agent 模型(贝叶斯网络),用 LLM 作为计算后端执行推理
  3. 不假设模型结构或变量表示——任意图结构都可处理

  4. 自动 Agent 模型发现

  5. 先提出初始模型(最小必要变量)
  6. 根据推理不确定性迭代调整:
    • 不确定性高→添加新心智变量(如从"目标"扩展到"目标+信念")
    • 或扩展考虑的时间步范围
  7. 直到模型效用足够高

  8. 迭代细化

  9. 模型效用 = 推理结果的置信度
  10. 低效用触发模型扩展

实验关键数据

方法 5 benchmark 平均 递归推理 长上下文
GPT-4o 中等
o1/o3 较好 中等 中等
AutoToM 最好 最好 最好

关键发现

  • 在复杂场景(多 agent、深度递归推理)上优势最明显
  • 产生类人的置信度估计(不只是答案,还有确信程度)
  • 在 embodied assistance 任务中成功应用——根据推断的人类意图辅助决策

亮点与洞察

  • 自动模型发现解决了基于模型方法最大的瓶颈(手工建模)
  • 不确定性驱动的模型扩展优雅——只在需要时增加复杂度
  • 对需要理解人类意图的 AI 系统(如辅助机器人、对话系统)有直接应用

局限性 / 可改进方向

  • 模型发现仍依赖 LLM 的常识推理质量
  • 多 agent 场景的计算成本随递归深度增长

评分

  • 新颖性: ⭐⭐⭐⭐⭐ 完全自动化的模型化ToM是突破性贡献
  • 实验充分度: ⭐⭐⭐⭐⭐ 5个benchmark+认知实验+embodied任务
  • 写作质量: ⭐⭐⭐⭐⭐ 框架清晰,图表优秀
  • 价值: ⭐⭐⭐⭐⭐ 对社会智能AI有重要影响