Understanding Silent Data Corruption in LLM Training¶
会议: ACL 2025
arXiv: 2502.12340
代码: 无
领域: LLM/NLP
关键词: 静默数据损坏, LLM训练, 硬件故障, 训练稳定性, 梯度噪声
一句话总结¶
本文首次系统研究了真实世界静默数据损坏(SDC)对LLM训练的影响,通过将不健康节点与健康节点配对并引入同步机制,在子模块计算、单步梯度、累积训练三个层面揭示了SDC的特征和影响模式。
研究背景与动机¶
随着LLM训练规模不断增大(如Llama 3 405B使用16K H100 GPU),硬件故障的概率也在增加。静默数据损坏(SDC)是一种新兴的硬件错误,它导致硬件在不产生任何错误信号的情况下悄悄输出错误的计算结果。Meta报告在54天预训练中有6次非计划中断归因于SDC,Google估计在Gemini训练期间每1-2周就会发生一次SDC事件。
尽管SDC在大规模训练中日益普遍,但此前没有公开工作系统地刻画真实SDC对LLM训练的影响。先前研究的局限在于:(1) 多使用故障注入模拟,而非真实SDC;(2) 多关注推理阶段,鲜少关注训练动态。本文首次利用从生产级硬件管理流程中筛选出的真实不健康节点进行研究。
方法详解¶
整体框架¶
作者与云计算平台合作,获取了因SDC未通过生产级压力测试的不健康节点(15个)和通过测试的健康节点(15个)。通过XLA编译器确保确定性执行,消除非SDC来源的非确定性,将不健康节点的计算结果与健康节点进行精确对比。
研究分三个层次展开: - RQ1:SDC对Transformer子模块计算输出的影响 - RQ2:SDC对单步优化器梯度的影响 - RQ3:SDC在多步训练中的累积影响
关键设计¶
-
计算同步机制(Computation Synchronization):
- 用于隔离RQ1中子模块级别的SDC影响
- 设计了"锁步并行(Lock-step Parallelism)"通信网格:在前向传播中,每个子模块计算完成后、reduce-scatter之前,对比不健康和健康节点的输出,并用健康节点值覆盖不健康节点,防止SDC错误累积到下一个子模块
- 反向传播中同理,防止错误通过反向传播积累
- 关键假设:通信过程本身不受SDC影响(通过校验码保障)
-
参数同步机制(Parameter Synchronization):
- 用于隔离RQ2中单步训练的SDC影响
- 每完成一步优化器更新后,将健康节点的参数广播到不健康节点进行覆盖
- 确保每一步优化器都从相同参数开始
-
度量指标设计:
- 失配频率(Mismatch Frequency):不匹配元素数占总元素数的比例,衡量SDC发生的普遍程度
- 失配严重度(Mismatch Severity):非零相对差异的平均值,衡量SDC造成的偏差程度
- 最坏情况噪声信号比(WCNTS):梯度差异L2范数与真实梯度L2范数之比的最大值
损失函数 / 训练策略¶
实验使用类Llama3-8B配置的decoder-only Transformer(16层、隐层4096),采用张量并行(TP)使模型适配单节点。微调实验使用Mistral-7B-v0.3在6个多选问答任务上进行指令微调。
实验关键数据¶
主实验¶
RQ1: 子模块计算影响
| 节点 | fwd/attn频率 | fwd/ffn频率 | bwd/attn频率 | bwd/ffn频率 |
|---|---|---|---|---|
| Node 1 | 1.55e-5 | 5.06e-7 | 1.56e-4 | 2.81e-6 |
| Node 10 | 4.78e-3 | 1.03e-3 | 1.92e-3 | 7.98e-5 |
| Node 11 | 2.89e-2 | 2.25e-3 | 6.71e-3 | 1.08e-4 |
SDC影响在不同节点间差异巨大:Node 10/11失配频率高,而Node 2/3在此设置中完全无SDC发生。
RQ2: 梯度影响
| 节点 | WCNTS比率 |
|---|---|
| Node 11 (最差) | 0.051 |
| Node 1 | 0.037 |
| Node 4 | 0.019 |
最坏情况下(Node 11),梯度差异仅为真实梯度范数的5.1%,说明单步SDC噪声相对较小。
RQ3: 累积影响 - 微调结果
| 配置 | CosmosQA准确率(分歧率) | MathQA准确率(分歧率) |
|---|---|---|
| 健康节点 | 90.79 (-) | 37.22 (-) |
| 健康节点(换种子) | 89.50 (6.70%) | 38.83 (56.75%) |
| 不健康Node 1 | 90.53 (5.15%) | 36.78 (42.24%) |
| 不健康Node 6 | 0.00 (100%) | 36.92 (36.82%) |
消融实验¶
| 配置 | 关键指标 | 说明 |
|---|---|---|
| SDC时间分布 | 非均匀,存在尖峰 | SDC不均匀发生,可能由系统级因素导致 |
| 失配严重度 | 最高达10^12 | 个别元素偏差巨大但整体频率低 |
| 参数漂移 | 损失曲线几乎相同但参数持续漂移 | 模型收敛到不同局部最优 |
| Node 13延迟表现 | 450步前无SDC,之后快速漂移 | 证实SDC在训练中的非均匀性 |
关键发现¶
- SDC影响因节点而异:不同不健康节点展现出截然不同的SDC模式,从完全无影响到高频率失配
- SDC在时间上非均匀发生:经常在某些步骤出现尖峰,可能与系统负载有关
- 单步梯度噪声相对较小:最坏情况下仅5.1%,说明单步SDC的直接影响有限
- 累积效应导致参数漂移:尽管训练损失几乎相同,不健康节点的模型参数逐渐偏离健康节点,模型收敛到不同的局部最优
- 多数节点微调性能保持:大部分不健康节点上微调的模型性能与健康节点相当,但个别节点(如Node 6的CosmosQA)可能完全崩溃
- SDC是触发器而非主因:参数漂移速率在多数节点上相似,暗示SDC更像是将优化轨迹推向不同路径的触发器,而非持续施加大偏差
亮点与洞察¶
- 首次真实SDC研究:与以往使用故障注入模拟不同,本文使用真正从生产环境中筛除的不健康硬件,结果更具实际参考价值
- 精巧的实验设计:计算同步和参数同步机制巧妙地将SDC影响分解为三个独立层次进行分析,实验方法论值得借鉴
- "不同局部最优"的发现:揭示了SDC导致的参数漂移本质——不是缓慢的质量劣化,而是模型被推向不同但可能同样好的解
- 对大规模训练的实践指导:明确了SDC检测和缓解的必要性和优先级,如应关注累积效应而非单步扰动
局限与展望¶
- 实验采用类8B配置模型,未在真正的大模型(100B+)上验证
- 仅使用张量并行,未考虑流水线并行和数据并行中SDC的交互效应
- 缺乏对SDC检测与缓解策略的具体实现
- 不健康节点的SDC模式可能受特定硬件批次影响,泛化性未知
- 未分析不同训练阶段(预训练 vs 微调 vs 对齐)对SDC敏感度的差异
相关工作与启发¶
本文与大规模训练系统可靠性、硬件故障容错等方向相关。对于实际大规模训练,该研究提示:(1) 需要持续的硬件健康检测机制而非仅在节点空闲时测试;(2) 训练检查点策略应考虑SDC的累积效应;(3) 损失看起来正常不代表模型权重正常,需要周期性验证参数一致性。
评分¶
- 新颖性: ⭐⭐⭐⭐⭐ 首次系统研究真实SDC对LLM训练的影响,填补了重要空白
- 实验充分度: ⭐⭐⭐⭐ 三层次分析全面,但模型规模和并行策略覆盖不够
- 写作质量: ⭐⭐⭐⭐⭐ 结构清晰,问题定义精确,实验设计和分析逻辑性强
- 价值: ⭐⭐⭐⭐⭐ 对大规模LLM训练的实践和理论均有重要参考价值
相关论文¶
- [ACL 2025] Big5-Chat: Shaping LLM Personalities Through Training on Human-Grounded Data
- [ACL 2025] A Survey on Efficient Large Language Model Training: From Data-centric Perspectives
- [ACL 2025] Training-free LLM Merging for Multi-task Learning
- [ACL 2025] Cross-Modal Alignment for LLM-Enhanced Spoken Language Understanding
- [ACL 2025] Condor: Enhance LLM Alignment with Knowledge-Driven Data Synthesis and Refinement