跳转至

📊 LLM评测

💬 ACL2025 · 89 篇论文解读

A Conformal Risk Control Framework for Granular Word Assessment and Uncertainty Calibration of CLIPScore Quality Estimates

提出基于 conformal risk control 框架对 CLIPScore 进行细粒度词级错误检测和不确定性校准,通过简单的注意力掩码采样生成分数分布,在保持模型无关性的同时提供形式化的风险控制保证。

MisMatched: A Benchmark for Scientific Natural Language Inference

引入 MisMatched——首个覆盖非 CS 领域(心理学、工程、公共卫生)的科学 NLI 评估基准,包含 2,700 对人工标注句子对,最佳 SLM 基线(SciBERT)Macro F1 仅 78.17%,最佳 LLM 基线(Phi-3)仅 57.16%,并证明训练时加入隐式关系句子对可提升模型性能。

AbGen: Evaluating Large Language Models in Ablation Study Design and Evaluation for Scientific Research

提出 AbGen——首个评估 LLM 设计消融实验能力的基准(1500 条专家标注数据来自 807 篇 NLP 论文),发现最强 LLM (DeepSeek-R1) 与人类专家差距 14.4%,且 LLM-as-Judge 评分与人类评估严重不一致。

Access Denied Inc: The First Benchmark Environment for Sensitivity Awareness

首次形式化定义 LLM "敏感性感知"(Sensitivity Awareness)概念——评估 LLM 能否根据基于角色的访问控制(RBAC)规则决定信息是否可以提供——并构建自动化评估基准 Access Denied Inc,在 7 个主流 LLM 上发现即使数据高度结构化且规则极简,最佳模型 Grok-2 仍有 18.28% 的泄露率。

Ad-hoc Concept Forming in the Game Codenames as a Means for Evaluating Large Language Models

将桌游Codenames实现为LLM评测基准,LLM同时扮演线索给出者(Spymaster)和猜测者(Field Operative),在13种不同难度实验中与确定性对手对战,14个模型中最佳(o3-mini)胜率仅49%,揭示了LLM在词汇关联、策略选择和纠错能力上的显著局限。

AD-LLM: Benchmarking Large Language Models for Anomaly Detection

提出首个LLM异常检测基准AD-LLM,系统评估LLM在零样本检测、数据增强和无监督模型选择三个核心任务中的能力,发现GPT-4o零样本检测在多数数据集上超越传统训练方法,合成数据对灵活表示的检测器有效但对几何假设模型有害,推理型LLM模型选择接近最优但解释缺乏数据集针对性。

AndroidLab: Training and Systematic Benchmarking of Android Autonomous Agents

提出AndroidLab——一个系统性的Android智能体评测与训练框架,包含统一的操作环境、138个任务的可复现基准测试和94.3K步骤的指令数据集,通过微调将开源LLM成功率从4.59%提升至21.50%。

AntiLeakBench: Preventing Data Contamination by Automatically Constructing Benchmarks with Updated Real-World Knowledge

提出 AntiLeakBench 自动化反泄露基准框架,通过追踪 Wikidata 知识更新历史识别 LLM 截止时间后的新知识,自动构建单跳/多跳 QA 测试样本(附真实 Wikipedia 支撑文档),确保知识级严格无污染,12 个 LLM 的大规模实验证实截止后性能普遍下降(EM 跌幅显著)验证了框架有效性。

Atomic Calibration of LLMs in Long-Form Generations

系统研究长文本生成中的原子级校准(atomic calibration),将置信度获取方法分为判别式和生成式两类,发现两者互补且提出基于置信度一致性的融合策略,揭示了模型在生成过程中置信度变化的有趣模式。

Batayan: A Filipino NLP Benchmark for Evaluating Large Language Models

提出 Batayan——首个全面的菲律宾语 LLM 评测基准,覆盖理解/推理/生成三大能力的 8 个任务(含 3 个全新菲律宾语任务),由母语者翻译和标注确保语言真实性,评测 50+ 开源和商用 LLM 后发现菲律宾语表现显著落后于英语,显式菲律宾语支持和模型规模的提升均能带来明显增益。

BelarusianGLUE: Towards a Natural Language Understanding Benchmark for Belarusian

为白俄罗斯语(Belarusian,东斯拉夫语族)构建了首个NLU benchmark——BelarusianGLUE,包含5个任务约15K条实例,系统评估了BERT系列和LLM的表现,发现简单任务(情感分析)接近人类水平但难任务(Winograd)仍有显著差距,且最优模型类型因任务而异。

Benchmarking LLMs and LLM-based Agents in Practical Vulnerability Detection for Code Repositories

提出 JitVul 基准,将每个函数与其引入漏洞和修复漏洞的commit关联,基于879个CVE覆盖91种漏洞类型,系统评估了LLM和ReAct Agent在仓库级别漏洞检测中的能力,发现ReAct Agent优于纯LLM但两者均有较大改进空间。

Benchmarking Uncertainty Quantification Methods for Large Language Models with LM-Polygraph

构建了 LM-Polygraph 不确定性量化(UQ)基准,实现了30+种SOTA方法,在11个文本生成任务上系统评估了UQ和置信度归一化技术的效果,为LLM幻觉检测提供了统一的评测框架。

BESSTIE: A Benchmark for Sentiment and Sarcasm Classification for Varieties of English

构建 BESSTIE,首个针对英语变体(澳大利亚/印度/英国英语)的情感分析和讽刺检测标注基准,通过 9 个微调 LLM 评估发现模型在印度英语(外圈变体)上表现显著差于内圈变体,跨变体泛化能力也有限。

Beyond One-Size-Fits-All: Tailored Benchmarks for Efficient Evaluation

提出 TailoredBench 方法,为每个待评估的目标模型自适应构建定制化核心集(Native-coreset),而非使用所有模型共享的静态子集,通过自适应源模型选择、可扩展 K-Medoids 聚类和校准估计策略,在仅需 20-40 个样本的推理预算下将准确率估计的 MAE 平均降低 31.4%

Browsing Lost Unformed Recollections: A Benchmark for Tip-of-the-Tongue Search and Reasoning

提出 BLUR(Browsing Lost Unformed Recollections),一个包含 573 道真实"话到嘴边"(tip-of-the-tongue) 已知物品搜索与推理问题的基准数据集,人类准确率 98%,而最佳 AI 系统仅约 56%,揭示了当前 AI 在工具使用和多跳推理上的巨大差距。

CalibraEval: Calibrating Prediction Distribution to Mitigate Selection Bias in LLMs-as-Judges

提出 CalibraEval,一种无标签的推理时去偏方法,通过将去偏问题形式化为优化任务,利用非参数保序算法(NOA)学习校准函数,将 LLM 评判器的观测概率分布映射到无偏分布,有效缓解 LLM-as-Judge 中的选择偏差。

Improving the Calibration of Confidence Scores in Text Generation Using the Output Distribution's Characteristics

针对文本生成中多个有效输出导致传统置信度指标失效的问题,提出两种任务无关的置信度度量——"比率"(头部vs中部概率比)和"尾部稀薄度"(分布尾部薄厚),仅依赖模型输出概率即可改善 BART/Flan-T5 在摘要、翻译、问答任务上的置信度校准。

Can External Validation Tools Improve Annotation Quality for LLM-as-a-Judge?

提出 Evaluation Agent,一个工具增强的 LLM-as-a-Judge 框架,通过集成网络搜索(事实核查)、代码执行和数学验证工具,在长文本事实验证上将与人类一致性从 63% 提升到 81%,在编程评估上从 31% 提升到 71%,且对无关领域几乎无退化。

CFBench: A Comprehensive Constraints-Following Benchmark for LLMs

提出 CFBench——一个包含 1000 条精标样本、覆盖 200+ 真实场景和 50+ NLP 任务的中文大规模约束遵循基准,系统性地定义了 10 大类 25+ 子类的约束分类体系,并设计结合约束满足率(CSR)、指令满足率(ISR)和需求优先级满足率(PSR)的多维评估框架,揭示当前顶级 LLM 在约束遵循方面仍存在显著提升空间。

ChatBench: From Static Benchmarks to Human-AI Evaluation

通过用户实验将 MMLU 静态基准转换为用户-AI 对话,构建 ChatBench 数据集(396 道题、7336 段对话),发现 AI-alone 准确率无法预测 user-AI 准确率,并训练用户模拟器使相关性提升 22-26 个百分点,为可扩展的交互式评估奠基。

CodeMEnv: Benchmarking Large Language Models on Code Migration

提出 CodeMEnv,首个系统评估 LLM 跨环境代码迁移能力的基准,包含 922 个样本、19 个 Python/Java 包、3 个层次化任务(定位不兼容函数→描述变更→迁移代码),9 个 LLM 的平均 Pass@1 仅 26.50%,GPT-4o 最高 43.84%,揭示 LLM 更熟悉新版本函数且存在版本推理逻辑不一致问题。

Com2: A Causal-Guided Benchmark for Exploring Complex Commonsense Reasoning in Large Language Models

提出 Com2,一个基于因果事件图和因果理论(干预/反事实)构建的复杂常识推理基准,包含 2500 道主题和 1254 道侦探故事题目,揭示 LLM 在推理深度与广度上的显著不足。

Can You Really Trust Code Copilots? Evaluating Large Language Models from a Code Security Perspective

本文提出多任务代码漏洞评估基准 CoV-Eval,覆盖代码补全、漏洞修复、检测和分类四个任务及18种漏洞类型,并开发了与人类专家高度一致的判断模型 VC-Judge,对20个LLM的综合评估揭示了代码安全领域的关键挑战。

CoV-Eval: Can You Really Trust Code Copilots? Evaluating Large Language Models from a Code Security Perspective

提出 CoV-Eval,首个多任务代码漏洞评估基准,涵盖代码补全、漏洞修复、漏洞检测和漏洞分类四个维度,并开发 VC-Judge 漏洞判断模型替代传统静态分析工具,对 20 个 LLM 进行全面评估,发现虽然多数 LLM 能检测漏洞代码,但仍倾向生成不安全代码且漏洞修复能力有限。

CuLEmo: Cultural Lenses on Emotion - Benchmarking LLMs for Cross-Cultural Emotion Understanding

提出 CuLEmo,首个评估文化感知情感预测的多语言基准数据集,涵盖 6 种语言/文化(阿姆哈拉语、阿拉伯语、英语、德语、印地语、西班牙语),通过 400 个文化相关场景评估 LLM 的跨文化情感理解能力,发现情感表达在不同文化间存在显著差异且 LLM 表现参差不齐。

CulturalBench: A Robust, Diverse, and Challenging Cultural Benchmark by Human-AI CulturalTeaming

通过 Human-AI CulturalTeaming(人机协作红队测试)流水线构建 CulturalBench,包含 1,696 个人类撰写并经五人独立验证的文化知识问题,覆盖 45 个全球地区和 17 个主题。CulturalBench-Hard(True/False格式)对最强模型(OpenAI o1)也仅 61.5%,远低于人类的 92.4%,揭示了模型在多答案问题上的模式寻求倾向和跨区域文化知识的不均衡表现。

EcomScriptBench: A Multi-task Benchmark for E-commerce Script Planning via Step-wise Intention-Driven Product Association

定义电商脚本规划(EcomScript)任务并构建首个大规模基准 EcomScriptBench(60 万脚本 + 240 万产品),通过购买意图桥接动作步骤与产品搜索的语义鸿沟,揭示当前 LLM 在该任务上的显著不足。

EditInspector: A Benchmark for Evaluation of Text-Guided Image Edits

本文提出 EditInspector,一个基于人工标注的多维度文本引导图像编辑评估基准,覆盖编辑准确性、伪影检测、视觉质量、场景融合度、常识一致性和变化描述六个维度,揭示了当前 VLM 在全面评估编辑质量方面的不足,并提出在伪影检测和差异描述生成上超越 SOTA 的两种新方法。

EducationQ: Evaluating LLMs' Teaching Capabilities Through Multi-Agent Dialogue Framework

提出 EducationQ 多智能体对话框架,通过模拟真实课堂中教师-学生的形成性评估交互来评估 LLM 的教学能力,发现教学效果与模型规模或通用推理能力不呈线性关系,Llama 3.1 70B 在教学中表现最优。

ELABORATION: A Comprehensive Benchmark on Human-LLM Competitive Programming

提出首个全面评估人类-LLM协作竞赛编程的基准ELABORATION,通过覆盖编程全流程的人类反馈分类体系和8320题精标注数据集,揭示LLM独立解题能力有限(困难题仅3.4% Pass@1),但人类反馈(尤其编码阶段的专家反馈)可带来平均9.3%的显著提升。

EvoWiki: Evaluating LLMs on Evolving Knowledge

提出 EvoWiki,一个可自动更新的动态评估基准,将知识分为稳定 (stable)、演化 (evolved) 和未知 (uncharted) 三级,系统评估 LLM 对演化知识的利用能力,发现 RAG 和持续学习 (CL) 结合使用具有协同效应。

Exposing Numeracy Gaps: A Benchmark to Evaluate Fundamental Numerical Abilities in Large Language Models

提出 NumericBench 综合基准,通过 6 类数据集评估 LLM 的 6 种基本数值能力(数字识别、算术运算、上下文检索、比较、汇总、逻辑推理),发现包括 GPT-4o、DeepSeek-V3 在内的 SOTA 模型在简单数值任务上仍表现极差,并深入分析了 5 种根因。

FinanceReasoning: Benchmarking Financial Numerical Reasoning More Credible, Comprehensive and Challenging

提出 FinanceReasoning benchmark,通过重标注公开数据集、构建 3,133 个 Python 金融函数库和新增 908 道专家标注难题,在可信度、全面性和挑战性三个维度提升金融数值推理评估能力。

From Tools to Teammates: Evaluating LLMs in Multi-Session Coding Interactions

提出 MemoryCode 合成多会话数据集评估 LLM 在长期交互中追踪和执行编码指令的能力,发现即使 GPT-4o 在提供完整对话历史时准确率也下降 67%,揭示了当前 LLM 在前瞻性记忆和信息整合上的根本局限。

GRACE: A Granular Benchmark for Evaluating Model Calibration Against Human Calibration

提出GRACE基准,通过渐进式增量问答和真人vs模型竞赛收集1749个数据点,以人类校准表现为参照评估LLM校准能力,并引入CalScore指标发现:虽然人类准确率可能低于模型,但人类在校准方面普遍优于SOTA模型——模型在不确定时过度自信、在正确时又信心不足。

GuessArena: Guess Who I Am? A Self-Adaptive Framework for Evaluating LLMs in Domain-Specific Knowledge and Reasoning

提出 GuessArena,一种基于"猜猜我是谁"博弈游戏的自适应 LLM 评估框架,通过领域知识建模和多轮交互推理,在五个垂直行业中有效区分模型的领域知识和推理能力。

HalluLens: LLM Hallucination Benchmark

提出了 HalluLens 幻觉基准,明确区分幻觉与事实性,建立了外在幻觉(与训练数据不一致)和内在幻觉(与输入上下文不一致)的清晰分类体系,引入三个动态可重生成的外在幻觉评估任务,并全面分析了现有基准的局限性。

HellaSwag-Pro: A Large-Scale Bilingual Benchmark for Evaluating the Robustness of LLMs in Commonsense Reasoning

构建首个大规模双语(中英)LLM 常识推理鲁棒性评估基准 HellaSwag-Pro,通过 7 种推理形式变体对 1,600 道原始题生成 11,200 道变体题,在 41 个 LLM 上的系统评估表明所有模型在常识推理鲁棒性上远未达标——否定变换平均准确率仅 9.01%,人机差距显著。

Help Me Write a Story: Evaluating LLMs' Ability to Generate Writing Feedback

本文定义了"LLM 生成写作反馈"这一新任务,构建了包含 1,300 个带有受控写作缺陷的故事数据集(StoryFeedback,共 83K 对故事-反馈),通过自动指标和人工评估系统地测试了 8 个 LLM 在反馈的具体性、正确性、问题检测和正面评价适当性四个维度的表现,发现模型能给出具体且基本正确的反馈,但常常抓不住最大的写作问题,且不善于判断何时该给正面评价。

HomeBench: Evaluating LLMs in Smart Homes with Valid and Invalid Instructions Across Single and Multiple Devices

本文提出HomeBench,首个同时包含合法与非法指令、覆盖单设备和多设备场景的智能家居LLM评估基准,发现即使是GPT-4o在包含非法指令的多设备场景中成功率也仅为0.0%。

How Far are LLMs from Being Our Digital Twins? A Benchmark for Persona-Based Behavior Chain Simulation

本文提出BehaviorChain基准,首次评估LLM模拟连续人类行为的能力,包含1001个人格画像下的15846个行为样本,发现即使是最先进的模型在连续行为模拟任务上仍表现不佳。

HPSS: Heuristic Prompting Strategy Search for LLM Evaluators

整合 8 个影响 LLM 评估提示效果的关键因子(评分尺度、ICL 示例、评估标准、参考答案、CoT、AutoCoT、度量指标、组件顺序),提出基于遗传算法的启发式提示策略搜索方法 HPSS,在 12,960 种组合空间中高效找到最优提示策略,仅用基线 5% 的生成成本即超越 G-Eval 和 CloserLook。

Influences on LLM Calibration: A Study of Response Agreement, Loss Functions, and Prompt Styles

本文系统研究影响 LLM 校准(calibration)的三大因素——多模型响应一致性、损失函数选择和 prompt 风格,提出 Calib-n 框架通过训练辅助模型聚合多个 LLM 的响应来估计置信度,发现响应一致性和 focal loss 能显著改善校准性能。

JuStRank: Benchmarking LLM Judges for System Ranking

首次大规模研究 LLM 判官在系统排名任务中的表现,提出 JuStRank 基准,收集 48 个判官对 63 个系统的 150 万条评分,揭示实例级判断能力与系统级排名能力之间存在显著差距,并发现判官的"果断性"(decisiveness)和"系统特异性偏见"两个可量化的系统级行为特征。

KITAB-Bench: A Comprehensive Multi-Domain Benchmark for Arabic OCR and Document Understanding

KITAB-Bench 是一个涵盖 9 大领域 36 个子领域共 8,809 个样本的综合性阿拉伯语 OCR 基准,评估结果显示现代视觉语言模型(如 GPT-4o、Gemini)在字符错误率上平均超过传统 OCR 方法 60%,但在 PDF-to-Markdown 转换中最优模型仅达到 65% 准确率,凸显了阿拉伯语文档理解的巨大挑战。

KRISTEVA: Close Reading as a Novel Task for Benchmarking Interpretive Reasoning

本文提出 KRISTEVA,首个评估 LLM 细读(close reading)能力的基准,包含 1331 道从大学课堂数据中构建的多选题,覆盖风格特征提取、上下文检索、特征-上下文多跳推理三个递进难度层次,19 个 SOTA LLM 在 11 个任务中的 10 个上仍落后于人类专家。

La Leaderboard: A Large Language Model Leaderboard for Spanish Varieties and Languages of Spain and Latin America

构建首个面向西班牙和拉丁美洲语言的开源LLM排行榜,整合66个数据集覆盖西班牙语、加泰罗尼亚语、巴斯克语、加利西亚语,评估50个模型并分析训练策略、算力与性能的关系。

Language Complexity Measurement as a Noisy Zero-Shot Proxy for Evaluating LLM Performance

利用语言复杂度计算任务(LIX 可读性指标和平均依存距离 ADD)作为 LLM 通用能力的零样本代理评估方法,在瑞典语论文上测试 6 个模型,发现 LIX 误差与 MMLU 分数呈强负相关(\(r=-0.875\), \(p=0.026\)),表明结构分析能力可作为模型通用能力的廉价近似指标。

Language Model Probabilities are Not Calibrated in Numeric Contexts

系统研究了语言模型在数值上下文中的概率校准问题,发现即使在简单场景(如从袋中取弹珠)下,包括 GPT-4o 在内的所有测试模型均严重校准不良,存在基于词序、词频和词标识的系统性偏差(如某些模型总选第一个选项,其他模型总选第二个),指令微调加剧了模式崩塌。

MARS: Benchmarking the Metaphysical Reasoning Abilities of Language Models with a Multi-task Evaluation Dataset

本文提出了 Metaphysical Reasoning(形而上推理) 的形式化定义,将分布变化下的推理分解为三步判别过程,并构建了首个大规模评估基准 Mars(355K 标注数据),实验表明 20+ 语言模型在该任务上表现均不理想,揭示了 LLM 在理解事件组成要素变化及其因果效应方面的显著短板。

McBE: A Multi-task Chinese Bias Evaluation Benchmark for Large Language Models

提出首个多任务中文偏见评估基准 McBE,包含 4,077 条偏见评估实例(BEI),覆盖 12 种偏见类别和 82 个子类别,通过 5 种评估任务(偏好计算/子类别分类/场景选择/偏见分析/偏见评分)多角度量化 LLM 中的中文偏见,并揭示"参数越大偏见越强"的传统结论可能源于单任务评估的局限性。

MDBench: A Synthetic Multi-Document Reasoning Benchmark Generated with Knowledge Guidance

提出 MDBench,一个通过「结构化知识→LLM 辅助增强→自然文本生成」管线合成的多文档推理 QA 基准,可控地注入跨文档依赖,对前沿 LLM 构成显著挑战(最佳模型 EM 仅~60%)。

Mis-prompt: Benchmarking Large Language Models for Proactive Error Handling

提出 Mis-prompt 基准,包含 4 项评估任务、14 类错误分类体系和 14,969 条数据集,系统研究 LLM 在无显式错误处理指令时的主动纠错能力,发现当前 LLM 主动纠错能力严重不足,SFT 可显著提升。

MMLU-CF: A Contamination-free Multi-task Language Understanding Benchmark

提出 MMLU-CF,一个包含 20,000 道题的无数据污染多任务语言理解基准,通过从更广泛的来源收集数据并应用三条去污染规则(改写题目、打乱选项、随机替换选项)来避免无意和恶意的数据泄露,最强模型 GPT-4o 在该基准上仅获得 73.4%(MMLU 上为 88.0%)。

Movie101v2: Improved Movie Narration Benchmark

提出 Movie101v2 大规模双语电影叙事基准(203 部电影、46K 中英文视频-叙事对),将自动电影叙事拆解为 L1 视觉事实描述 → L2 情节叙述 → L3 可部署 AD 三阶段渐进目标,设计基于 LLM 的分级评估框架,系统基线测试多种 LVLM 并深入分析视觉感知与文本生成的核心瓶颈。

Navigating Rifts in Human-LLM Grounding: Study and Benchmark

系统研究人与 LLM 对话中的 grounding(建立共识)失败问题,发现 LLM 主动澄清的频率仅为人类的 1/3、主动追问的频率仅为 1/16,提出 Rifts 基准(约 1.8K 任务)评测 LLM 的 grounding 能力,并通过 grounding forecaster 实现初步干预。

NorEval: A Norwegian Language Understanding and Generation Evaluation Benchmark

本文提出 NorEval,一个包含 24 个人工创建数据集、覆盖 9 类任务的挪威语综合评测套件,系统地评测了 19 个开源挪威语语言模型在语言理解和生成上的能力,发现模型在常识推理、真实性和指令遵循上仍显著落后于人类。

ONEBench to Test Them All: Sample-Level Benchmarking Over Open-Ended Capabilities

ONEBench提出了一种新的基准评测范式:将多个评测数据集的样本合并为统一数据池,通过Plackett-Luce排名聚合算法在样本级别进行模型比较,支持异构指标聚合、不完整数据处理和个性化能力探测。

Pap2Pat: Benchmarking Outline-Guided Long-Text Patent Generation with Patent-Paper Pairs

构建了包含 1.8k 专利-论文配对的 Pap2Pat 基准,提出基于大纲的分块专利描述生成方法 COPGen,并设计了基于 NLI 的事实性/覆盖率/风格评估指标,系统评测了当前 LLM 在超长专利文档生成上的能力与不足。

PapersPlease: A Benchmark for Evaluating Motivational Values of Large Language Models Based on ERG Theory

提出PapersPlease基准,包含3700个基于ERG动机理论构建的道德困境场景,让LLM扮演移民检查官决定是否放行,揭示了6个LLM在动机价值优先级上的显著差异以及对边缘化身份群体的偏见。

PATCH: Psychometrics-Assisted Benchmarking of LLMs Against Human Populations

提出 PATCH 框架,将心理测量学中的项目反应理论(IRT 3PL/2PL 模型)引入 LLM 基准测试,在 TIMSS 2011 八年级数学测试(88 道题、56 个国家/地区)上对比 GPT-4V、Gemini-Pro-Vision、Qwen-VL 与人类群体的能力值,发现 IRT 能力估计与简单准确率排名显著不同,GPT-4V 与韩国/新加坡/中国台北学生处于同一排名区间;同时发布 4 个高质量数据集(TIMSS 2011 & 2008 数学/科学/物理)。

PhysReason: A Comprehensive Benchmark towards Physics-Based Reasoning

提出 PhysReason 基准,包含 1200 道物理题(平均 8.1 步解题),设计了答案级和步骤级两层自动评估框架 PSAS,揭示顶尖模型(Deepseek-R1、o3-mini)在物理推理上准确率不足 60%,并识别出四大推理瓶颈。

READoc: A Unified Benchmark for Realistic Document Structured Extraction

READoc 提出了首个将文档结构化提取(DSE)定义为端到端 PDF 到 Markdown 转换的统一基准,包含 3,576 篇来自 arXiv/GitHub/Zenodo 的真实文档和三模块评估套件(标准化+分割+评分),首次揭示了当前 DSE 系统与真实场景需求之间的差距。

RealHiTBench: A Comprehensive Realistic Hierarchical Table Benchmark for Evaluating LLM-Based Table Analysis

提出 RealHiTBench——首个全面评估 LLM 对复杂层次化表格理解能力的基准,包含 708 张来自 13 个平台、24 个领域的真实复杂表格和 3,752 道题目,定义了 5 种复杂结构类型和 5 大任务类型,并提出基于树结构的 TreeThinker 推理管线显著提升模型对层次化表头的理解能力。

Retrieval Models Aren't Tool-Savvy: Benchmarking Tool Retrieval for Large Language Models

提出ToolRet——首个大规模工具检索基准(7.6k检索任务、43k工具),揭示现有强IR模型在工具检索任务上表现不佳(最强模型nDCG@10仅33.83),并贡献超20万训练实例的ToolRet-train数据集,显著提升IR模型的工具检索能力和端到端工具使用任务通过率。

Revisiting 3D LLM Benchmarks: Are We Really Testing 3D Capabilities?

揭示了 3D LLM 评测中的"2D-Cheating"问题——将点云渲染为图像后,2D VLM 在部分基准上超越 3D SOTA,说明这些基准未能有效评估真正的 3D 理解能力,并据此提出了有效 3D 评测的设计原则。

Right Answer, Wrong Score: Uncovering the Inconsistencies of LLM Evaluation in Multiple-Choice QA

系统揭示了LLM在多选问答(MCQA)评估中的不一致性——不同评估策略(RegEx/Logprobs/xFinder)和提示设置(约束/自由生成)组合会导致模型性能报告产生显著差异,且即使是SOTA的LLM-based答案提取器也无法可靠识别推理矛盾,呼吁建立标准化评估协议。

RuleArena: A Benchmark for Rule-Guided Reasoning with LLMs in Real-World Scenarios

提出 RuleArena——一个基于航空行李费、NBA交易规则、税务法规三个真实场景的benchmark,用于评估LLM遵循复杂自然语言规则进行推理的能力;实验发现即使最强模型(o1-preview)在最难任务上准确率也不足50%,暴露了LLM在规则召回、规则区分和数学计算三方面的系统性缺陷。

SANSKRITI: A Comprehensive Benchmark for Evaluating Language Models' Knowledge of Indian Culture

构建了覆盖印度全部 36 个行政区域、16 类文化属性、21,853 道 MCQ 的大规模文化知识基准 SANSKRITI,在 11 个 LLM/SLM/ILM 上的零样本评测揭示模型文化知识存在严重的地域和属性不均衡。

SeedBench: A Multi-task Benchmark for Evaluating Large Language Models in Seed Science

提出 SeedBench——首个面向种子科学(种子育种)的多任务 LLM 评测基准,包含 2,264 道专家验证题目,覆盖基因信息检索、基因功能调控和品种选育三大育种流程,对 26 个 LLM 进行系统评估,揭示了当前 LLM 与真实育种需求之间的显著差距。

skLEP: A Slovak General Language Understanding Benchmark

本文提出 skLEP,首个面向斯洛伐克语的综合性自然语言理解基准,包含 9 个多层级任务(词级、句对级、文档级),并对斯洛伐克语专有模型、多语言模型和英语模型进行了系统评测,发现 mDeBERTaV3 在平均性能上超越了所有斯洛伐克专有模型。

Something's Fishy In The Data Lake: A Critical Re-evaluation of Table Union Search Benchmarks

系统性分析了主流表联合搜索 (Table Union Search, TUS) 基准测试的三大结构性缺陷——过度重叠、语义简单、真值噪声,揭示简单的词袋 (BoW) 和预训练嵌入基线就能在这些基准上达到或超越复杂 SOTA 方法的效果,调研结论指出当前基准无法有效评估语义理解能力。

StrucText-Eval: Evaluating LLM's Reasoning on Structure-Rich Text

提出 StrucText-Eval——通过自动生成语义无关的结构化文本样本,覆盖 8 种结构化语言和 29 个任务共 5,800 个样本,以可控的嵌套深度和宽度调节难度,揭示最强开源 LLM 在困难集上仅 45.8% 而人类达 92.6%,系统性暴露了 LLM 在纯结构推理上的严重短板。

StructFlowBench: A Structured Flow Benchmark for Multi-turn Instruction Following

提出 StructFlowBench,一个融入结构流建模的多轮指令遵循基准测试,定义了六种基本的轮间关系(跟进、精炼、回忆、总结、扩展、不相关),建立了双层约束评估体系(轮内约束 + 轮间结构约束),系统评估了 13 个主流 LLM 在多轮对话结构理解上的能力。

SwiLTra-Bench: The Swiss Legal Translation Benchmark

构建了 SwiLTra-Bench——一个包含超过 18 万对齐瑞士法律翻译对的大规模多语言基准(覆盖法律、判例摘要、新闻稿,涵盖德法意罗英五种语言),系统评估了前沿 LLM 和微调开源 SLM 在法律翻译上的表现,并提出 SwiLTra-Judge 自动评估方法。

TiC-LM: A Web-Scale Benchmark for Time-Continual LLM Pretraining

本文提出TiC-LM,一个基于114个月Common Crawl数据(2.9T tokens)的大规模时间持续学习基准,通过150+实验系统评估了优化器、数据回放和正则化方法在持续预训练场景下的表现,发现自回归学习率调度结合固定比例数据回放可以在仅2.6倍计算量下接近从头训练的性能。

Towards Dynamic Theory of Mind: Evaluating LLM Adaptation to Temporal Evolution of Human States

提出 DynToM 基准,通过 1,100 个社会情境中 5,500 个时序关联场景和 78,100 道题目,评估 LLM 追踪人类心理状态时序演化的能力,揭示模型平均落后人类 44.7%。

Towards Objective Fine-tuning: How LLMs' Prior Knowledge Causes Potential Poor Calibration?

揭示LLM的先验知识在微调过程中会导致校准退化(已知数据引发过度自信,未知数据反而有利于校准),提出CogCalib认知感知校准框架,在训练中根据知识偏差动态应用不同学习策略,在保持任务性能的同时平均降低57%的ECE。

TripCraft: A Benchmark for Spatio-Temporally Fine Grained Travel Planning

提出TripCraft——一个整合真实世界时空约束(公共交通、活动可用性、用户画像等)的旅行规划基准数据集,配套五个连续评估指标,系统评估LLM生成行程的质量,在参数指导设置下将餐饮时间分数从61%提升至80%。

TripTailor: A Real-World Benchmark for Personalized Travel Planning

提出 TripTailor,一个基于真实数据的大规模旅行规划 benchmark,包含 40 个城市的 50 万+ POI 和近 4000 条真实行程,并引入可行性、合理性和个性化三维评估框架,发现最先进 LLM 生成的行程不到 10% 能达到人类水平。

TUMLU: A Unified and Native Language Understanding Benchmark for Turkic Languages

提出 TUMLU 和 TUMLU-mini,首个面向突厥语系 9 种语言的原生多任务语言理解基准,包含 38,139 道中高中学科多选题,覆盖拉丁/西里尔/阿拉伯三种文字系统,系统评估了 13 个开源与闭源 LLM,揭示了文字系统、语言资源量和 CoT 对模型性能的差异化影响。

VITAL: A New Dataset for Benchmarking Pluralistic Alignment in Healthcare

本文构建了首个面向医疗健康领域的多元化对齐(pluralistic alignment)基准数据集 VITAL,包含 13.1K 价值观情境和 5.4K 多选题,并通过对 8 个 LLM 的广泛评估表明,现有多元化对齐技术(尤其是 ModPlural)在医疗场景下表现不佳,简单的 prompting 反而效果更好。

VoxEval: Benchmarking the Knowledge Understanding Capabilities of End-to-End Spoken Language Models

提出 VoxEval,首个支持端到端纯语音输入-输出评估的 SpeechQA 基准,涵盖 56 个学科、26 种输入音频条件,系统揭示了当前端到端语音大模型在知识理解和数学推理方面的严重不足。

WebWalker: Benchmarking LLMs in Web Traversal

提出 WebWalkerQA 基准评测 LLM 在网页深层遍历中的信息获取能力,并设计 WebWalker 多智能体框架通过 Explore-Critic 范式模仿人类网页导航行为,结合 RAG 的横向-纵向集成显著提升了复杂问答性能。

Where Are We? Evaluating LLM Performance on African Languages

构建了覆盖517种非洲语言、30个数据集、16类任务的 Sahara 基准,系统评估24个LLM在非洲语言上的表现,揭示语言政策驱动的数据不平等如何直接影响模型效果。

WiCkeD: A Simple Method to Make Multiple Choice Benchmarks More Challenging

提出 WiCkeD 方法,通过随机将多选题的一个选项替换为"以上都不对"来增加现有基准难度,使18个 LLM 的平均性能下降12.1个百分点,且链式思维推理也无法弥补这一下降。

WXImpactBench: A Disruptive Weather Impact Understanding Benchmark for Evaluating Large Language Models

提出首个面向极端天气影响理解的LLM评估基准WXImpactBench,包含四阶段数据构建流水线和两个评估任务(多标签分类与排序问答),系统性评估了多个LLM在气候适应领域的能力。

YESciEval: Robust LLM-as-a-Judge for Scientific Question Answering

提出YESciEval框架,结合九维细粒度评估准则和SFT+RL对齐策略来缓解LLM评估者的乐观偏差(optimism bias),在科学问答场景下构建鲁棒的开源LLM-as-a-Judge系统,无需人类标注和闭源模型。