跳转至

Enhancing Linguistic Competence of Language Models through Pre-training with Language Learning Tasks

会议: ACL 2026
arXiv: 2601.03448
代码: https://github.com/gucci-j/l2t
领域: llm_evaluation
关键词: 语言能力, 预训练, 语言学习任务, 语言习得, 结构化刺激

一句话总结

L2T 提出了一种预训练框架,将 14 种语言学习任务(字符级→篇章级)与标准 next-token prediction 混合训练,在 500M/1B 参数规模上将 BLiMP 语言能力得分提升 2-3 个百分点并加速其习得过程,同时保持通用推理性能。

研究背景与动机

领域现状:语言模型通过因果语言建模(CLM)在原始文本上预训练,能学到世界知识和推理能力,但对语言能力(linguistic competence)——理解形态学、句法、语义现象的能力——并未显式优化。

现有痛点: - LM 往往表现为"随机鹦鹉"(stochastic parrots),模仿表面模式而未掌握底层语言结构 - 这类似于人类的死记硬背(rote learning),只复制模式而不理解生成规则 - 现有改进方法通常依赖架构修改或复杂课程设计,增加了工程复杂度

核心矛盾:CLM 是单一任务目标,优先学习表面统计特征而非语言结构理解;而人类不是通过单一目标习得语言的,而是通过多任务学习。

本文目标:在预训练阶段引入结构化语言学习任务,提升模型的语言能力并加速其习得过程,同时不损害通用推理性能。

切入角度:受人类语言习得启发——人类通过纠错、重组、补全等多种任务学语言——将原始文本自动转换为多粒度的结构化输入-输出对,在预训练中提供显式的语言结构刺激。

核心 idea:预训练不应只做序列重建(CLM),还应包含需要"提取和重组信息"的多样化语言学习任务,形成结构化脚手架促进语言能力发展。

方法详解

整体框架

L2T 框架将原始文本自动转换为 14 种语言学习任务的结构化输入-输出对,覆盖四个语言粒度层级(字符、词、句子、篇章),与标准 CLM 数据混合后用于从零预训练。任务生成完全自动、无需外部标注资源,直接从原始文本诱导结构。

关键设计

  1. 四层级 14 种语言学习任务:

    • 功能:在预训练中提供多粒度的结构化语言刺激
    • 核心思路:
      • 字符级(4 种):字符计数、掩码字符重建、空格恢复、错别字纠正——目标是增强形态学意识
      • 词级(5 种):尾词预测、掩码词重建、随机词纠正、词序重排、token 类型计数——打破线性序列依赖,促进结构推断
      • 句子级(2 种):无关句删除、句序重排——需要句间关系理解
      • 篇章级(3 种):中间填充、后半补全、单词生成文本——支持全局连贯性和歧义消解
    • 设计动机:类比人类通过纠错提升形态学意识、通过词序重排学习句法结构、通过补全任务学习全局连贯性
  2. 两种数据场景设计:

    • 功能:验证 L2T 在不同资源条件下的鲁棒性
    • 核心思路:
      • Disjoint(数据充足):100B token 拆分为两半,一半做 CLM,一半生成 L2T 样本(~36B raw + ~64B L2T)
      • Shared(数据受限):42B token 既做 CLM 又生成 L2T 样本,总计 100B tokens
    • 设计动机:Disjoint 测试数据多样性 + 结构化任务的效果;Shared 测试同源数据下结构化刺激 vs 重复暴露(类比"多任务学习 vs 死记硬背")
  3. 无外部监督的结构诱导:

    • 功能:从原始文本自动生成训练信号,无需人工标注
    • 核心思路:每种任务定义一种确定性/随机化变换,将文本段自动转换为 (x, y) 对,其中 x 是扰动/查询输入,y 是恢复/分析输出
    • 设计动机:与指令微调(需要外部监督)不同,L2T 直接从原始文本诱导结构,成本低且可扩展

损失函数 / 训练策略

  • 在所有 token 上计算损失(包括 L2T 任务的输入和输出部分)
  • 使用 Qwen2.5 架构 + Mistral tokenizer(32K 词表),从零预训练 500M 和 1B 模型
  • 总预训练预算固定为 100B tokens,超过 Chinchilla 最优阈值以评估充分训练场景

实验关键数据

主实验(语言能力 - BLiMP)

规模 数据 Raw L2T 提升
500M Disjoint 78.6 80.2 +1.6
500M Shared 78.1 80.9 +2.8
1B Disjoint 79.0 80.8 +1.8
1B Shared 78.9 81.2 +2.3

通用基准

规模 数据 Raw avg L2T avg 差异
500M Disjoint - - -0.87 (轻微下降)
1B Disjoint - - -0.07 (几乎无差)
500M Shared - - +0.15 (轻微上升)
1B Shared - - -1.38 (下降,主要在 ARC)

消融实验(单任务分析)

任务 语言能力 说明
9/14 种任务 超越 Raw 基线 Char Count、Reordering 等提供关键结构脚手架
Space、Masked Char 低于 Raw 基线 单独使用时训练信号不稳定
组合 L2T 超越大多数单任务 多任务互补,稳健性更好

关键发现

  • Island effects(岛屿效应)改善最显著,+6.9~11.3 分,说明多粒度结构化任务有助于捕捉长距离依赖
  • L2T 模型从训练 5B tokens 起就超越 Raw 基线,且优势持续保持——加速了语言能力习得
  • Shared 场景下效果更明显(+2.3~2.8 vs +1.6~1.8),说明"结构化刺激"比"重复暴露"更有效
  • L2T 还提升了流体推理(RPM +5.4%)和数值能力等更广泛的认知智能

亮点与洞察

  • "语言模型 = 死记硬背"的类比很有洞察力,L2T 用多任务结构化刺激破解单一 CLM 的表面模式学习问题
  • 任务设计有理论支撑:每类任务对应人类语言习得研究中的已知有效策略(纠错→形态学,重排→句法等)
  • 无需外部标注、无需架构修改,纯数据层面的干预使得方法高度可扩展
  • 即使在相同源文本(Shared)上,多任务变换比重复暴露更有效,这一发现对数据效率研究有重要启示

局限与展望

  • 仅在 500M 和 1B 规模验证,10B+ 规模的效果未知,大模型可能对 raw 文本比例更敏感
  • 基于单次训练运行,统计显著性有限(虽然两种规模 × 两种数据场景的一致性提供了间接证据)
  • 任务设计集中在句子级及以下,缺乏篇章级和跨句的更复杂任务
  • 1B Shared 场景下通用推理下降 1.38 分,大模型在结构学习和知识巩固间需更好平衡
  • 仅在英语上评估,多语言泛化有待验证

相关工作与启发

  • vs 标准 CLM 预训练: L2T 将语言能力提升 2-3 分且加速习得,代价是通用性能轻微下降
  • vs 指令微调: L2T 在预训练阶段引入结构化信号,不需要外部监督数据
  • vs 课程学习/架构修改: L2T 仅通过数据变换实现,无需修改模型架构或复杂训练策略

评分

  • 新颖性: ⭐⭐⭐⭐ 预训练中混合语言学习任务的思路独特,人类语言习得的类比有深度
  • 实验充分度: ⭐⭐⭐⭐ 多规模、多数据场景、单任务分析、认知评估,但单次运行是不足
  • 写作质量: ⭐⭐⭐⭐⭐ 理论动机→任务设计→实验验证的逻辑链非常完整清晰

相关论文