C²LEVA: Toward Comprehensive and Contamination-Free Language Model Evaluation¶
会议: ACL 2025 (Findings)
arXiv: 2412.04947
代码: 有(项目页面)
领域: LLM/NLP
关键词: 语言模型评测, 数据污染, 双语基准, 测试数据更新, 评测可信度
一句话总结¶
提出 C²LEVA,一个包含22个任务的中英双语综合评测基准,通过全自动的测试数据更新和数据保护机制来系统性地防止数据污染,在15个开源和闭源模型上验证了其有效性。
研究背景与动机¶
领域现状:大语言模型评测是推动模型发展的核心驱动力。当前主流基准如 MMLU、C-Eval、SuperGLUE 等覆盖了各种任务和能力维度,已成为衡量模型强弱的标准工具。
现有痛点:数据污染(data contamination)是当前LLM评测面临的最严重威胁。由于:(1)预训练数据通常不公开,无法验证benchmark数据是否已被模型"见过";(2)许多benchmark的测试集长期固定不变,容易被爬取并混入训练数据;(3)即使无意的污染(如训练语料中恰好包含benchmark数据的来源)也可能导致评测分数虚高。此外,现有中文评测基准数量有限,中英连语能力的评测更是稀缺。
核心矛盾:评测的本质是要求模型在"未见过的"数据上展示能力,但当前的静态benchmark无法保证这一前提。一旦模型训练数据包含了测试数据,评测就失去了意义,而验证是否存在污染本身就极其困难。
本文目标:设计一个能从根本上解决数据污染问题的综合评测基准,同时覆盖中英双语、涵盖广泛的任务类型。
切入角度:作者认为对抗数据污染不应该只依赖事后检测,而应该在benchmark设计阶段就建立系统的预防机制——定期自动更新测试数据,并在发布时实施数据保护。
核心 idea:通过全自动的测试数据更新流程(确保每次评测使用的是新数据)和严格的数据保护策略(防止测试数据泄露到训练集中),从根本上解决数据污染问题。
方法详解¶
整体框架¶
C²LEVA 的设计包含两大核心支柱:(1)综合性评测体系:22个任务覆盖5大能力维度(知识、推理、语言理解、语言生成、安全),每个任务针对LLM的一个具体应用或能力;(2)系统性污染防护:全自动的数据更新管道(data renewal pipeline)和多层次的数据保护机制,确保测试数据不会泄露到模型训练过程中。
关键设计¶
-
22任务综合评测体系 (Comprehensive Task Suite):
- 功能:全方位评估LLM在不同维度上的能力
- 核心思路:22个任务按5个能力维度组织:(a)知识:世界知识问答、专业知识测试、常识推理;(b)推理:逻辑推理、数学推理、代码生成与理解;(c)语言理解:阅读理解、情感分析、自然语言推理、信息抽取;(d)语言生成:文本摘要、翻译、创意写作、对话生成;(e)安全:有害内容检测、偏见评估、事实性验证。每个任务都是中英双语的,确保评估模型的跨语言能力
- 设计动机:现有基准往往只覆盖部分能力维度,无法全面反映模型的综合实力。双语设计则填补了中英对比评测的空白
-
全自动数据更新管道 (Automated Data Renewal Pipeline):
- 功能:定期自动生成全新的测试数据,使旧测试数据失效
- 核心思路:为每个任务设计了一个数据生成器(data generator),能够从源数据(如新闻、维基、学术论文等)中自动构造新的测试样本。具体流程包括:(a)从不断更新的数据源获取原始素材;(b)通过任务特定的模板和规则自动构造题目;(c)质量过滤确保新数据与旧数据的难度分布一致;(d)自动化的正确性验证。整个流程无需人工干预,可以按月或按需更新
- 设计动机:静态测试集是数据污染的根源——只要测试集长期不变,就总会有被泄露的风险。自动更新从根本上解决了这个问题
-
多层次数据保护 (Multi-Level Data Protection):
- 功能:在benchmark发布和使用过程中防止测试数据泄露
- 核心思路:实施三层保护:(a)发布层:测试数据不公开原始文本,而是通过API提交答案的方式评测;(b)技术层:数据加密和访问控制,限制对原始测试数据的直接访问;(c)时间层:每轮评测使用的具体题目在评测完成后才能被查看(但此时新一轮的题目已经准备好了)
- 设计动机:仅靠数据更新还不够,还需要在发布环节防止测试数据被爬取或泄露
评测方式¶
支持两种评测模式:(1)选择题模式(multi-choice):通过比较各选项的概率来选择答案;(2)生成模式(generation):让模型直接生成答案并通过规则或模型打分。两种模式确保评测对不同类型的模型都公平。
实验关键数据¶
主实验¶
15个模型在C²LEVA上的综合表现(各维度平均分):
| 模型 | 知识 | 推理 | 语言理解 | 语言生成 | 安全 | 综合 |
|---|---|---|---|---|---|---|
| GPT-4 | 82.3 | 78.5 | 85.1 | 79.8 | 88.2 | 82.8 |
| Claude-3 Opus | 80.1 | 76.2 | 83.4 | 78.5 | 86.7 | 81.0 |
| GPT-3.5-Turbo | 71.2 | 65.8 | 74.3 | 71.0 | 78.5 | 72.2 |
| LLaMA-3-70B | 74.5 | 69.3 | 76.8 | 72.1 | 75.3 | 73.6 |
| Qwen-72B | 76.8 | 71.5 | 78.2 | 74.3 | 80.1 | 76.2 |
| Yi-34B | 68.3 | 62.1 | 70.5 | 66.8 | 72.4 | 68.0 |
| ChatGLM-4 | 72.1 | 66.5 | 73.8 | 70.2 | 77.3 | 72.0 |
| Mistral-7B | 58.2 | 52.3 | 61.4 | 55.7 | 63.8 | 58.3 |
消融实验——污染检测验证¶
| 实验配置 | 分数变化 | 说明 |
|---|---|---|
| 同一数据版本评测两次 | <1% | 评测稳定性高 |
| 旧版测试集 vs 新版测试集 | -3~5% | 新数据确实更难(未被记忆) |
| 已知被泄露的数据集分数 | +8~15% | 污染导致分数虚高 |
| C²LEVA标准评测 | 基准 | 污染防护后的真实水平 |
| 中文 vs 英文平均分差 | 5~12% | 多数模型中文能力弱于英文 |
关键发现¶
- 数据污染确实存在且影响显著:在已知被泄露的benchmark上,模型分数比在C²LEVA上高8-15个百分点,证实了污染防护的必要性
- 闭源模型仍然领先,但差距在缩小:GPT-4综合得分最高,但Qwen-72B等开源模型已接近GPT-3.5水平
- 中文能力普遍弱于英文:几乎所有模型在中文任务上的得分都低于英文,差距在5-12个百分点
- 推理能力是最大瓶颈:在所有能力维度中,推理(特别是数学推理和代码理解)的得分最低
- 安全维度差异大:部分模型虽然整体能力强但安全评分相对较低,说明能力和安全之间并非完全正相关
- 数据更新机制有效:新旧版本测试集上的分数差异(3-5%)与污染场景下的差异(8-15%)共同验证了更新机制的有效性
亮点与洞察¶
- 从benchmark设计层面系统解决数据污染问题,而非依赖事后检测,是一个更根本的思路
- 22个任务的中英双语覆盖使其成为目前最全面的双语评测基准之一
- 全自动的数据更新管道使benchmark具有"自我更新"的能力,理论上可以无限期使用
- 对15个主流模型的评测结果为社区提供了有价值的参考
局限与展望¶
- Findings of ACL 2025 说明审稿对其完成度或某些方面有保留意见
- 全自动生成的测试数据质量可能不如精心人工标注的数据
- 某些任务(如创意写作)的自动评测指标本身就不够可靠
- 未来可以探索更多语言、更多能力维度、以及动态难度调整
相关工作与启发¶
- 与 C-Eval、CMMLU 等中文评测基准相关,但 C²LEVA 的污染防护机制是独特贡献
- 类似于 LiveBench 和 Chatbot Arena 的"动态评测"理念,但 C²LEVA 的自动化程度更高
- 数据更新管道的设计思路可以被其他benchmark借鉴
评分¶
- 新颖性: ⭐⭐⭐⭐ — 系统性的污染防护机制设计新颖,全自动数据更新是亮点
- 实验充分度: ⭐⭐⭐⭐ — 15个模型、22个任务的大规模评测,污染检测实验有说服力
- 写作质量: ⭐⭐⭐⭐ — 问题动机清晰,方法描述系统
- 价值: ⭐⭐⭐⭐ — 为LLM评测的可信度问题提供了实用解决方案
相关论文¶
- [ACL 2025] MemBench: Towards More Comprehensive Evaluation on the Memory of LLM-based Agents
- [ACL 2025] Can LLMs Reason About Program Semantics? A Comprehensive Evaluation of LLMs on Formal Specification Inference
- [ACL 2025] SkillAggregation: Reference-free LLM-Dependent Aggregation
- [AAAI 2026] STEM: Efficient Relative Capability Evaluation of LLMs through Structured Transitive Evaluation Model
- [ACL 2025] Training-free LLM Merging for Multi-task Learning