跳转至

📚 预训练

💬 ACL2025 · 40 篇论文解读

Stealing Training Data from Large Language Models in Decentralized Training through Activation Inversion Attack

本文首次提出针对去中心化训练的激活反转攻击(AIA),通过构建影子数据集训练攻击模型,恶意阶段可以从传输的激活值中重建训练数据,在 GPT2-XL 上实现了 62% 的邮件地址窃取准确率。

Adversarial Tokenization

本文发现 LLM 管线中 BPE tokenizer 只使用唯一一种分词方式,但同一字符串存在指数级多种合法分词;通过对抗性地选择非标准分词方案,可以在不改变原始文本的情况下绕过安全对齐,攻击成功率与现有 SOTA 文本级攻击方法相当。

AsyncLM: Efficient and Adaptive Async Pre-training of Language Models

本文提出AsyncLM,一种高效的异步预训练框架,通过自适应梯度补偿和动态批量调度策略解决异步分布式训练中的梯度过期问题,在保持与同步训练相当的模型质量的同时,将大规模语言模型预训练的吞吐量提升了1.4-1.8倍。

AutoDS: Autonomous Data Selection with Zero-shot Generative Classifiers for Mathematical Texts

提出 AutoDS——用基座语言模型自身作为零样本生成分类器,通过 YES/NO token 的 logits 计算连续 LM-Score 来自动评估数学文本质量,筛选高质量语料做持续预训练,在 MATH/GSM8K/BBH 上实现约 2 倍 token 效率提升。

Between Circuits and Chomsky: Pre-pretraining on Formal Languages Imparts Linguistic Biases

提出在自然语言预训练前先在形式语言上进行"pre-pretraining",发现具有层级依赖结构的形式语言(如 k-Shuffle Dyck)能为 Transformer 提供有效的归纳偏置,使 1B 参数模型以 33% 更少的 token 达到相同的语言建模损失。

Chinese Grammatical Error Correction With Pre-trained Models and Linguistic Clues

本文提出一种融合预训练语言模型和多层级语言学线索(拼音、字形、句法依存)的中文语法纠错方法,通过显式注入语言学先验知识提升纠错模型对中文特有错误类型的识别和修正能力。

CritiQ: Mining Data Quality Criteria from Human Preferences

CritiQ 提出了一种基于 Agent 协作的数据质量标准自动挖掘方法,仅需约 30 个人类偏好标注对即可自动发现可解释的数据质量标准,并训练评分器进行高效数据选择,在代码、数学和逻辑领域的实验中显著提升了 Llama 3.1 的下游性能。

Data-Constrained Synthesis of Training Data for De-Identification

本文系统研究了在数据受限条件下,如何利用领域适应的LLM生成合成临床文本,并通过机器标注训练NER模型进行个人身份信息(PII)检测,发现机器标注器的质量而非生成模型的规模是决定合成数据效用的关键因素。

Data Caricatures: On the Representation of African American Language in Pretraining Corpora

结合定量实验、人工判断和定性分析,系统评估了 12 个开源预训练语料库中非裔美国人语言(AAL)的数量与质量:发现 AAL 仅占 0.007%–0.18% 的文档(远低于人口比例),C4 中 28.9% 的 AAL 文本被判为不适合 LLM 生成、24.5% 强化有害刻板印象,且 16 种自动过滤器中有 13 种系统性地偏向保留白人主流英语(WME)而非 AAL。

Data Whisperer: Efficient Data Selection for Task-Specific LLM Fine-Tuning via Few-Shot In-Context Learning

Data Whisperer 提出一种无需训练的注意力加权 few-shot ICL 数据选择方法,利用预训练模型自身的 ICL 能力和注意力分数为训练样本打分,仅用 10% 数据即可超越全量微调性能,同时比现有方法快 7-20 倍。

DavIR: Data Selection via Implicit Reward for Large Language Models

提出 DavIR 数据选择方法,通过对基座模型与参考模型的损失差进行参考模型损失归一化(而非 token 数归一化),有效消除 RHO 目标中的序列长度依赖,使仅 6% 的 Alpaca 数据集(3K/52K)训练出的模型优于全量数据训练模型,同时将归一化思想推广到 DPO 得到 DavIR-DPO,在 AlpacaEval 上提升 Zephyr 8% 的对齐性能。

Diversity Explains Inference Scaling Laws: Through a Case Study of Minimum Bayes Risk Decoding

从 bias-diversity 分解的理论视角重新解释 MBR 解码:质量估计误差 MSE = Bias - Diversity,增加 diversity(伪参考的多样性)是提升 MBR 性能的关键;进一步通过信息论扩展到一般推理方法,揭示 diversity 是推理 scaling law(增加采样提升性能但边际递减)的理论根源,并在机器翻译、摘要、图像描述任务上实证验证。

An Effective Incorporating Heterogeneous Knowledge Curriculum Learning for Sequence Labeling

提出面向序列标注任务的双阶段课程学习(DCL)框架,通过数据级与模型级两阶段由易到难训练策略,配合基于贝叶斯不确定性的 token 级动态难度度量和 Root 函数训练调度器,在 CWS、POS、NER 三类任务上实现性能提升与训练加速超 27% 的双重收益。

Emergent Abilities of Large Language Models under Continued Pretraining for Language Adaptation

揭示了持续预训练(CPT)进行语言适应时,混入英文数据对保留模型上下文学习(ICL)能力和下游涌现能力至关重要——尽管不影响验证困惑度;并提出课程学习和 EMA 权重平均作为替代方案。

FR-Spec: Accelerating Large-Vocabulary Language Models via Frequency-Ranked Speculative Sampling

提出FR-Spec框架,通过基于词频的词表空间压缩优化投机采样的draft候选选择,将LM Head计算开销降低75%,在保持输出分布不变的前提下实现EAGLE-2之上额外1.12×加速。

How Do LLMs Acquire New Knowledge? A Knowledge Circuits Perspective on Continual Pre-Training

从知识电路(knowledge circuit)演化视角研究LLM持续预训练中的新知识获取机制,在GPT-2/Llama/Phi三个架构上发现:(1)与已有知识相关的新知识更容易获取;(2)知识电路经历"形成→优化"的明显相变;(3)电路演化遵循"中深层先建立提取功能→浅层后丰富知识表示"的深到浅模式。

Improving Continual Pre-training Through Seamless Data Packing

提出 Seamless Packing (SP) 数据打包策略,通过两阶段方法——滑动窗口处理长文本 + FFD 算法打包短文本——在持续预训练中保持上下文连续性、最小化截断和填充,在 99% 的实验设置中超越基线方法。

Inconsistent Tokenizations Cause Language Models to be Perplexed by Japanese Grammar

揭示了 tokenizer 的不一致分词是导致 LLM 无法遵守日语"第一人称心理谓词限制"等细微语法规则的根本原因——当限制测试句子为一致分词时,Llama 3 的困惑度差异可改善28倍。

Incorporating Domain Knowledge into Materials Tokenization

提出 MATTER——一种面向材料科学的领域感知分词框架,通过训练材料概念检测器 MatDetector 并将检测结果注入分词的合并排序中,避免领域术语碎片化,在生成和分类任务上分别平均提升 4% 和 2%。

InSerter: Speech Instruction Following with Unsupervised Interleaved Pre-training

提出 InSerter(交错语音-文本预训练)方法,通过 TTS 将大规模文本语料合成为交错的语音-文本序列进行预训练,大幅提升 SpeechLLM 的语音指令遵循能力,并构建首个全面的语音指令遵循基准 SpeechInstructBench。

Large Vocabulary Size Improves Large Language Models

实验证明更大的 subword 词汇表大小 (vocabulary size) 能持续提升 LLM 在下游任务上的性能,并提出了一种简洁的词汇表替换方法 (Swap & Insert) 用于持续训练场景下切换到更合适的词汇表。

LEANCODE: Understanding Models Better for Code Simplification of Pre-trained Large Language Models

本文提出LeanCode,一种基于上下文感知注意力分数的代码简化方法,利用CLS注意力(分类任务)和编码器-解码器注意力(生成任务)来衡量token重要性,在代码搜索和代码摘要任务上分别比SOTA方法DietCode/SlimCode提升最高60%和29%,同时减少高达40.9%的推理时间。

Making LLMs Better Many-to-Many Speech-to-Text Translators with Curriculum Learning

提出 LLM-SRT,将语音到文本翻译(S2TT)任务转化为语音识别与翻译联合任务(SRT),并通过三阶段课程学习策略(ASR→SMT→SRT)有效利用 LLM 的机器翻译能力,在低资源场景(每种语言不到 10 小时数据)下实现 15×14 语言对的 SOTA 多对多语音翻译性能。

Meta-rater: A Multi-dimensional Data Selection Method for Pre-training Language Models

提出Meta-rater多维数据选择框架,定义PRRC四个质量维度(专业性/可读性/推理性/清洁度),通过proxy模型回归学习多个质量分数的最优加权组合,使1.3B模型训练收敛速度翻倍、下游任务提升3.23%。

Model Performance-Guided Evaluation Data Selection for Effective Prompt Optimization

提出 IPOMP——一种两阶段评估数据选择方法,第一阶段通过语义聚类和边界分析选取多样化样本,第二阶段利用提示优化过程中的实时模型性能迭代替换冗余样本,在 BIG-bench 和 LIAR 上将提示优化效果提升 1.6%-3.1%,稳定性提升 50%+,额外开销不到 1%。

Nemotron-CC: Transforming Common Crawl into a Refined Long-Horizon Pretraining Dataset

Nemotron-CC 通过分类器集成提升高质量 token 召回、合成数据改写扩展唯一 token 数量、对高质量数据取消启发式过滤三大策略,从 Common Crawl 构建了 6.3T token 的长周期预训练数据集(含 4.4T 唯一真实 token + 1.9T 合成 token),在 15T token 训练场景下使 8B 模型 MMLU 达 70.3,超越同规模训练的 Llama 3.1 8B 的 65.3。

Optimizing Pre-Training Data Mixtures with Mixtures of Data Expert Models

提出Mixture of Data Experts (MDE)方法,通过在各数据域上独立训练专家模型并用混合权重进行概率级集成,高效近似不同数据混合比下的语言模型损失,大幅提升预训练数据混合比例的搜索效率和预测精度。

Pre-Training Curriculum for Multi-Token Prediction in Language Models

针对小语言模型(SLM)难以直接受益于多 token 预测(MTP)目标的问题,提出前向/反向课程学习策略——前向课程(NTP→MTP)使 SLM 在保持自推测解码加速的同时提升生成质量,反向课程(MTP→NTP)在 NTP 性能上更优但失去推理加速优势。

Retrofitting Large Language Models with Dynamic Tokenization

本文提出对已有语言模型进行动态分词改造(dynamic tokenization),通过受 BPE 启发的子词合并算法动态决定 token 边界,结合预训练的嵌入预测超网络在线计算合并后 token 的嵌入向量,在 encoder 模型上实现平均 >20% 的序列长度缩减且性能仅下降不到 2%,在 decoder 模型上也实现了最高 17% 的序列缩减。

SCAR: Data Selection via Style Consistency-Aware Response Ranking for Efficient Instruction-Tuning

SCAR 识别出回复的"语言形式"和"指令惊奇度"是影响 LLM 指令微调效果的两个关键风格因素,并提出基于风格一致性的排序方法自动选择高质量训练数据,仅用 0.7% 的原始数据就能让微调后的 LLM 匹配甚至超越全数据集训练的性能。

Second Language (Arabic) Acquisition of LLMs via Progressive Vocabulary Expansion

受人类第二语言习得启发,提出渐进式词表扩展(Progressive Vocabulary Expansion)方法,通过分阶段指数增长地扩展阿拉伯语子词到 LLaMA2 词表中,在保留原模型英语知识的同时高效适配阿拉伯语,构建出 AraLLaMA 7B/13B 模型。

Splintering Nonconcatenative Languages for Better Tokenization

提出 Splinter,一种预分词步骤,通过迭代剪除模板字符将非拼接性语言(希伯来语、阿拉伯语、马来语)的词重排为线性形式,使标准 BPE/UnigramLM 能发现形态学上有意义的连续片段,在内在指标和希伯来语下游任务上均优于原始分词。

Stealing Training Data from Large Language Models in Decentralized Training through Activation Inversion Attack

提出 Activation Inversion Attack(AIA),首次系统揭示去中心化训练(流水线并行)中恶意阶段可通过截获中间激活值高效重构训练数据,在 Bloom-7B1 微调场景下可精确恢复 62% 的私人邮件和接近 100% 的生日信息。

Synthesizing Post-Training Data for LLMs through Multi-Agent Simulation

本文提出 MATRIX 多智能体模拟器和 MATRIX-Gen 场景驱动指令生成器,通过模拟真实社会场景来合成高质量的 LLM 后训练数据,仅用 20K 条合成数据训练的 Llama-3-8B 在 AlpacaEval 2 和 Arena-Hard 上超过了使用超过 10M 数据训练的 Meta 官方 Llama-3-8B-Instruct。

TokAlign: Efficient Vocabulary Adaptation via Token Alignment

提出 TokAlign,基于 Token 共现信息学习两个词表之间的一对一映射矩阵,高效替换 LLM 的词表,实现跨语言知识迁移和跨模型 token 级蒸馏。

Tokenization is Sensitive to Language Variation

系统研究了 BPE tokenizer 的三个关键设计选择(拟合语料、pre-tokenizer、词表大小)对语言变体鲁棒性任务和敏感性任务下游性能的差异化影响,并提出基于 logistic regression 的 task-aware tokenizer 评估指标,显著优于 Rényi efficiency 等 task-agnostic 指标。

Towards Effective and Efficient Continual Pre-training of Large Language Models

系统性地研究了对Llama-3 (8B)进行持续预训练的数据策略,通过主题级数据混合、困惑度课程学习和高质量合成科学QA数据三大策略,仅用100B token就显著增强了中文能力(C-Eval +8.81)和科学推理能力(MATH +12.00),同时有效保持了原始英语能力。

Training Dynamics Underlying Language Model Scaling Laws: Loss Deceleration and Zero-Sum Learning

发现语言模型训练中存在 loss deceleration(损失减速)现象——损失曲线在 log-log 空间呈分段线性,根因是 zero-sum learning(ZSL):per-token 梯度系统性对立导致破坏性干涉,将一部分样本的改善抵消另一部分的恶化;scale up 通过降低减速触发损失 \(L_d\) 和提升减速后斜率 \(r_d\) 来缓解 ZSL,为突破 scaling law 瓶颈提供了可直接干预的机制。

Unsupervised Morphological Tree Tokenizer

提出 TreeTok,一种基于无监督神经形态结构归纳的分词器,通过 MorphOverriding 机制和自监督目标学习字符级树结构,以自顶向下词表匹配方式进行分词,在形态分割和语言建模任务上均优于 BPE/WordPiece。

Velocitune: A Velocity-based Dynamic Domain Reweighting Method for Continual Pre-training

提出 Velocitune 框架,通过学习速度(learning velocity)动态调整持续预训练中各数据域的采样权重——优先加大学习较慢的域的权重,并利用 scaling law 低成本估计目标损失,在数学/代码推理和系统命令生成任务上显著优于静态混合基线。