跳转至

🦾 LLM Agent

💬 ACL2025 · 共 40

A Multi-Agent Framework for Mitigating Dialect Biases in Privacy Policy Question-Answering Systems

提出多 Agent 协作框架缓解隐私政策 QA 中的方言偏差——Dialect Agent 将方言查询翻译为标准美式英语(SAE)并验证意图保留,Privacy Policy Agent 利用领域专长生成答案,两者迭代协商至达成一致。在 PrivacyQA 和 PolicyQA 上将 GPT-4o-mini 零样本准确率从 0.394 提升至 0.601,方言间最大 F1 差距降低 82%。

Agentic Reasoning: A Streamlined Framework for Enhancing LLM Reasoning with Agentic Tools

Agentic Reasoning 提出了一个将 Web 搜索、代码执行和知识图谱记忆(Mind-Map)三种 Agent 工具集成到 LLM 推理过程中的框架,在 DeepSeek-R1 上将 Humanity's Last Exam 准确率从 9.4% 提升到 23.8%(+14.4%),GPQA 从 71.5% 到 81.2%,接近 OpenAI Deep Research 水平。

AndroidGen: Building an Android Language Agent under Data Scarcity

提出AndroidGen——一个在数据稀缺条件下增强Android Agent能力的框架(ExpSearch+ReflectPlan+AutoCheck+StepCritic四模块),在AndroidWorld上以GPT-4o达到46.8%成功率(vs M3A的27.7%),并能自动生成高质量轨迹数据训练开源模型达到竞争力水平。

AndroidLab: Training and Systematic Benchmarking of Android Autonomous Agents

提出AndroidLab——首个统一训练和评估Android Agent的系统性框架,包含9个App上的138个可复现任务,同时支持纯文本(XML模式)和多模态(SoM模式)模型,并构建Android Instruct数据集(94.3k步骤),将开源LLM的成功率从4.59%提升至21.50%。

Assessing Agentic LLMs in Multilingual National Bias

首次研究 LLM 作为推理型 Agent 在多语言场景下的国籍偏见——在大学申请/旅行/搬迁三个决策场景中,让 GPT-3.5/GPT-4/Sonnet 对同一实体(大学/城市)用不同语言打分,发现普遍存在"本地语言偏向"(用中文问清华得 10 分,用英文问只得 7 分),GPT-4 在英语上偏见减少但非英语上偏见显著,CoT 不一定缓解反而可能放大偏差。

Bel Esprit: Multi-Agent Framework for Building AI Model Pipelines

提出 Bel Esprit——基于多 Agent 框架的对话式 AI 管线构建系统,通过子 Agent 协作(需求澄清→管线构建→验证→模型填充)将用户的模糊需求转化为由多个 AI 模型组成的可执行管线(如多语言视频配音→语音识别+翻译×3+TTS×3),在人工策划和合成数据上验证有效性。

Beyond Numeric Rewards: In-Context Dueling Bandits with LLM Agents

系统评估了 LLM 在 Dueling Bandits(偏好反馈强化学习)中的零样本上下文决策能力,发现 GPT-4 Turbo 在弱遗憾(weak regret)上表现出色但强遗憾(strong regret)存在差距,进而提出 LEAD 框架(LLM with Enhanced Algorithmic Dueling),通过将经典 DB 算法与 LLM 智能体细粒度自适应融合来同时获得理论保证和鲁棒性。

Caution for the Environment: Multimodal LLM Agents are Susceptible to Environmental Distractions

本文首次系统研究了多模态 GUI Agent 对环境干扰(弹窗广告、推荐内容等)的脆弱性,在无恶意攻击的自然场景下,即使最强的 MLLM(包括GPT-4o)也有 20-40% 的概率被环境中的无关内容分散注意力而执行偏离用户目标的操作。

Leveraging Dual Process Theory in Language Agent Framework for Real-time Simultaneous Human-AI Collaboration

提出 DPT-Agent,首个将双过程理论(Dual Process Theory)系统化地融入语言智能体框架的方法——用有限状态机(FSM)+code-as-policy 作为快速直觉的 System 1,用心智理论(ToM)+异步反思的 LLM 作为慢速深思的 System 2,首次实现了自主的实时同步人机协作(在 Overcooked 困难版中)。

EMULATE: A Multi-Agent Framework for Determining the Veracity of Atomic Claims by Emulating Human Actions

提出 EMULATE 多智能体事实核查框架,通过 7 个专职 LLM agent 模拟人类验证声明的完整行为链(搜索→排序→内容评估→证据充分性判断→分类),在三个事实核查 benchmark 上的 Macro-F1 和 Weighted-F1 均超越现有方法。

Explorer: Scaling Exploration-Driven Web Trajectory Synthesis for Multimodal Web Agents

提出 Explorer——一个可扩展的多智能体 pipeline,通过自主网页探索和逐步精炼来合成大规模多模态 web 轨迹数据集(94K 成功轨迹,49K+ URL,720K 截图),训练的 Explorer-7B 在 Mind2Web-Live、MiniWob++ 等 benchmark 上达到甚至超过 GPT-4 水平。

FACT-AUDIT: An Adaptive Multi-Agent Framework for Dynamic Fact-Checking Evaluation of Large Language Models

提出FACT-AUDIT——一个基于重要性采样和多智能体协作的自适应动态事实核查评估框架,通过动态生成测试数据、迭代探测模型弱点、并同时评估verdict预测和justification质量,全面审计LLM的事实核查能力边界。

GUI-explorer: Autonomous Exploration and Mining of Transition-aware Knowledge for GUI Agent

提出 GUI-explorer,一个无需训练的 GUI agent,通过自主探索收集功能感知的交互轨迹,并以无监督方式从状态转换三元组中挖掘 transition-aware 知识,在 SPA-Bench 和 AndroidWorld 上分别达到 53.7% 和 47.4% 的任务成功率。

GuideBench: Benchmarking Domain-Oriented Guideline Following for LLM Agents

提出 GuideBench 基准测试,系统评估 LLM 在领域导向指南遵循方面的能力,覆盖 7 个任务类别共 1272 个实例,从规则遵循、规则更新鲁棒性和人类偏好对齐三个维度评估 18 个 LLM,发现当前模型在复杂领域规则遵循上仍有较大提升空间。

Gödel Agent: A Self-Referential Agent Framework for Recursive Self-Improvement

提出 Gödel Agent,一种受 Gödel Machine 启发的自引用 Agent 框架,能通过 Python monkey patching 在运行时读取和修改自身代码(包括修改自身的修改逻辑),实现递归自改进,在 DROP/MGSM/MMLU/GPQA 上超越手工设计和元学习优化的 Agent。

iAgent: LLM Agent as a Shield between User and Recommender Systems

提出用户-Agent-平台三层范式,在用户和推荐系统之间插入 LLM Agent 作为保护层,通过指令解析、知识获取、重排序和动态用户画像实现个性化推荐,在四个数据集上平均提升 16.6%,同时有效缓解回音室效应和低活跃用户的不公平问题。

Enhancing Interpretable Image Classification Through LLM Agents and Conditional Concept Bottleneck Models

提出 Conditional Concept Bottleneck Models (CoCoBMs) 和 LLM-driven Concept Agent 框架,通过类别条件化的概念评分机制和基于环境反馈的动态概念库优化,在 6 个数据集上提升分类准确率 6% 的同时将可解释性提升约 30%。

Adaptive Tool Use in Large Language Models with Meta-Cognition Trigger

提出 MeCo(Meta-Cognition Trigger),通过表示工程从 LLM 内部提取"元认知信号"——模型对自身能力的自我评估——来自适应决定是否需要调用外部工具,无需微调且计算开销极小,在多个骨干模型和基准上显著改善工具使用决策的准确性。

Unveiling Privacy Risks in LLM Agent Memory

本文系统研究了 LLM Agent 记忆模块的隐私风险,提出 MEXTRA 黑盒记忆提取攻击,通过精心设计的定位-对齐攻击 prompt 和自动化多样 prompt 生成方法,在医疗和网购两种 Agent 上成功提取大量私人查询记录。

A Multi-Agent Framework for Mitigating Dialect Biases in Privacy Policy Question-Answering Systems

提出一个双 Agent 框架(Dialect Agent + Privacy Policy Agent),通过方言感知翻译和迭代协作来消除隐私政策QA系统在不同英语方言间的性能差距,无需重训练或方言特定微调,在 PrivacyQA 和 PolicyQA 上将方言间最大性能差距降低最高 82%。

Multiple LLM Agents Debate for Equitable Cultural Alignment

提出 Multi-Agent Debate 框架,让两个 LLM agent 围绕文化场景进行辩论并由 judge LLM 仲裁,在 NormAd-eti 基准上显著提升文化适应准确率和跨文化群体公平性,使 7-9B 小模型达到 27B 模型的性能水平。

NexusSum: Hierarchical LLM Agents for Long-Form Narrative Summarization

提出 NexusSum,一个三阶段多Agent LLM框架(对话转描述→层次摘要→迭代压缩),无需微调即可处理书籍/电影/电视剧等长叙事文本的摘要生成,在 BookSum 上 BERTScore 提升达 30%。

OS-Kairos: Adaptive Interaction for MLLM-Powered GUI Agents

提出 OS-Kairos,通过协作探测框架标注每步置信度分数并微调进基座模型,使 GUI Agent 能在每步预测置信度、自主决定执行或请求人类干预,在复杂场景下任务成功率 (TSR) 从 OS-Atlas-Pro-7B 的 14.29% 提升到 88.20%,在 AITZ 和 Meta-GUI 基准上也有 24~87% 的绝对提升。

OS Agents: A Survey on MLLM-based Agents for General Computing Devices Use

首篇全面综述 MLLM 驱动的操作系统代理(OS Agents),系统梳理其基础组件、构建方法、评估基准和未来方向。

OS Agents: A Survey on MLLM-based Agents for Computer, Phone and Browser Use

首个系统性综述基于(多模态)大语言模型的操作系统智能体(OS Agents),覆盖基础概念、构建方法(基础模型+Agent框架)、评估基准和商业产品,全面梳理了从CogAgent到Anthropic Computer Use等50+工作的技术演进。

OS-Genesis: Automating GUI Agent Trajectory Construction via Reverse Task Synthesis

提出OS-Genesis,一种"先交互探索再逆向生成任务"的GUI agent轨迹数据合成范式,通过无人监督的UI元素遍历收集状态转移三元组,逆向合成任务指令后用Trajectory Reward Model质量控制,在AndroidWorld上将Qwen2-VL-7B性能从9.82%提升至17.41%,接近GPT-4o的23.70%。

Play2Prompt: Zero-shot Tool Instruction Optimization for LLM Agents via Tool Play

提出 Play2Prompt,通过让 LLM 自主"玩"工具(试探输入输出行为)来零样本地生成工具使用示例和优化工具文档,无需任何标注数据即可显著提升 LLM agent 的工具调用能力。

R2D2: Remembering, Replaying and Dynamic Decision Making with a Reflective Agentic Memory

R2D2 提出了一个结合 Remember(经验回放缓冲区 + A* 搜索导航)和 Reflect(错误反思 + 反思记忆存储)两范式的 Web Agent 框架,将 Web 导航从 Unknown MDP 转化为 Known MDP,在 WebArena 上导航错误减少 50%,任务完成率提升 3 倍,超越 SOTA 17%。

REPRO-Bench: Can Agentic AI Systems Assess the Reproducibility of Social Science Research?

本文提出 REPRO-Bench,一个包含 112 个社会科学论文实例的基准,用于评估 AI Agent 自动化评估论文可重复性的能力;现有最佳 Agent 准确率仅 21.4%(低于随机猜测的 25%),作者进一步开发的 REPRO-Agent 将准确率提升至 36.6%(71% 相对提升)。

REPRO-Bench: Can Agentic AI Systems Assess the Reproducibility of Social Science?

提出 REPRO-Bench,包含 112 个社会科学论文的可复现性评估任务,发现现有 AI Agent(最高准确率仅 21.4%)远不足以自动化该流程,并据此开发 REPRO-Agent 将准确率提升至 36.6%。

Select, Read, and Write: A Multi-Agent Framework of Full-Text-based Related Work Generation

提出 Select-Read-Write 三 Agent 协同框架,通过图感知的阅读顺序决策和共享工作记忆机制,实现基于论文全文(而非摘要)的 Related Work 自动生成,在 Llama3-8B / Claude-3-Haiku / GPT-4o 三个基座模型上均取得一致提升,Citation Graph 策略效果最优。

Self-Taught Agentic Long-Context Understanding

提出 AgenticLU 框架,通过 Chain-of-Clarifications (CoC) 工作流让 LLM 自主生成澄清问题并检索相关上下文,再通过 SFT+DPO 两阶段微调将树搜索路径蒸馏到模型中,使 8B 模型在 128K 长上下文 QA 任务上大幅超越基线。

SMART: Self-Aware Agent for Tool Overuse Mitigation

揭示 LLM Agent 中的"工具过度使用"现象(≥30% 的工具调用是不必要的),提出 SMART 元认知范式,通过在推理步骤中显式标注"知识驱动 vs 工具依赖"来训练 Agent 的自感知能力,7B 模型匹配 GPT-4o 水平。

SUDO: Screen-based Universal Detox2tox Offense for Agentic Security

提出 SUDO 两阶段攻击框架针对计算机使用 Agent:静态阶段用 Detox2tox 将恶意请求去毒化→生成执行计划→回毒化恢复恶意载荷;动态阶段用检查清单迭代优化攻击,在 MANUS 上达到 63.19% 攻击成功率。

SynWorld: Virtual Scenario Synthesis for Agentic Action Knowledge Refinement

SynWorld 提出让 Agent 在合成的虚拟场景中通过蒙特卡洛树搜索(MCTS)来探索和优化动作知识(工具描述和工作流),使 Agent 能够自主适应新环境的工具使用,在 ToolBench 上比 ReAct 基线提升约 9 个百分点。

Table-Critic: A Multi-Agent Framework for Collaborative Criticism and Refinement in Table Reasoning

提出 Table-Critic 多智能体框架,通过 Judge-Critic-Refiner-Curator 四个专门化 Agent 的协作批评与迭代精化,配合自进化模板树累积批评知识,在 WikiTQ 和 TabFact 上分别实现 73.7% 和 91.7% 的准确率,大幅超越现有方法。

The Behavior Gap: Evaluating Zero-shot LLM Agents in Complex Task-Oriented Dialogs

提出一个综合评估框架来量化 LLM agent 与人类专家在任务导向对话中的"行为差距"(dialog acts、工具使用、知识利用三个维度),发现行为差距随任务复杂度增加显著扩大(相关系数 0.963),缩小行为差距可平均提升 24.3% 性能。

Theorem-of-Thought: A Multi-Agent Framework for Abductive, Deductive, and Inductive Reasoning in Language Models

将推理建模为三个并行 agent(溢因、演绎、归纳),各自生成推理链并转化为形式化推理图(FRG),通过 NLI 引导的贝叶斯信念传播评估内部一致性,选择得分最高的推理图作为最终答案,在 WebOfLies 和 MultiArith 上一致超越 CoT/SC 基线。

ToolHop: A Query-Driven Benchmark for Evaluating Large Language Models in Multi-Hop Tool Use

提出ToolHop——首个query-driven构建的多跳工具使用评估数据集(995个多跳查询+3912个本地可执行工具),评估14个LLM后发现最强的GPT-4o仅达49.04%准确率,揭示了不同模型家族在工具使用策略上的显著差异。

ToolHop: A Query-Driven Benchmark for Evaluating Large Language Models in Multi-Hop Tool Use

提出 ToolHop——一个包含 995 个多跳查询和 3912 个本地可执行工具的基准数据集,通过"查询驱动"的数据构建方式(先有查询再造工具)确保工具间有真实依赖关系和可验证答案,评测 14 个 LLM 发现最强的 GPT-4o 准确率仅 49%,揭示了不同模型家族在工具使用上的显著策略差异。