跳转至

Latent Speech-Text Transformer

会议: ICLR 2026 Oral
arXiv: 2510.06195
代码: GitHub
领域: 语音-文本多模态 / 语音语言模型
关键词: speech-text modeling, latent patches, autoregressive, ASR, TTS, cross-modal alignment, BLT

一句话总结

提出 Latent Speech-Text Transformer (LST),将离散语音 token 聚合为更高层级的"潜在语音 patch"作为自回归单元(类似 BLT 对 bytes 的处理),对齐语音和文本的序列建模粒度(从 20× 缩小到 ~1:1),在 speech HellaSwag 上获得 +6.5% 绝对提升且增益从 420M→7B 持续增长,同时降低 ASR/TTS 推理计算成本。

研究背景与动机

  1. 领域现状:语音离散 token(如 HuBERT 25Hz,501 码本)使得自回归语音 LM 成为可能。但语音 token 序列远长于对应文本(10-20×),导致训练和推理效率远低于文本 LLM——据估计需要比文本多三个数量级的数据才能达到同等能力。
  2. 现有痛点
  3. 信息密度不匹配:语音 token 序列与文本 token 在序列长度上严重不对称,阻碍跨模态知识迁移
  4. 计算分配不均:预训练和推理时大部分计算花在长语音序列上,而非有意义的语义建模
  5. 现有对齐尝试不足:warm initialization(从文本 LLM 初始化)、交错训练虽有帮助,但 speech→speech 和 text→text 性能仍有显著差距
  6. BPE 在语音 token 上失效(Cuervo & Marxer 2024 报告)——简单的子词切分不适用于语音
  7. 核心矛盾:语音建模需要细粒度 token(25Hz),但自回归建模在长序列上效率低且跨模态对齐差
  8. 核心 idea:借鉴 Byte Latent Transformer (BLT) 的思想——将语音 token 聚合为"潜在 patch"(高层自回归单元),全局 Transformer 在 patch 级别建模,轻量解码器展开 patch 为语音 token。Patch 粒度与文本 token 对齐

方法详解

整体框架

语音 token 序列 \(\{s_0, \ldots, s_T\}\) → Patch Encoder(滑动窗口自注意力 + 交叉注意力,聚合为 patch 表示 \(\{z_0, \ldots, z_{T'}\}\)\(T' \ll T\))→ 全局 Transformer(在 patch + 文本 token 级别自回归建模)→ Patch Decoder(轻量 Transformer + 交叉注意力,从 patch 还原语音 token)→ 标准 NTP 损失

关键设计

  1. 三种 Patching 策略
  2. Static Patching:固定大小 \(p\) 的非重叠切分(如 \(p=3\),每 3 个语音 token 一个 patch)。简单高效,推理时无需辅助模型
  3. Alignment Patching:用 Wav2Vec2+CTC 强制对齐获取语音-文本时间戳,每个文本单元(词/BPE)对应一个 patch,静默段单独成 patch。精确对齐语音和文本粒度
  4. Curriculum Patching(最终方案):训练时从 alignment → static 逐步过渡。概率 \(P(u) = 1 \to 0\) 在训练步 \([\tau_1, \tau_2]\) 区间线性衰减。早期享受对齐带来的语义对应,后期切换到静态策略以消除推理时对对齐模型的依赖
  5. 设计动机:alignment patching 提供最好的跨模态对齐但需要辅助模型;curriculum 保留了好处但消除了推理依赖

  6. Patch Encoder 和 Patch Decoder

  7. Encoder:滑动窗口自注意力 + 交叉注意力层,将 token 嵌入聚合为 patch 嵌入
  8. Decoder:轻量 Transformer,每层插入交叉注意力以接收 patch 级信息,自注意力窗口 512 token
  9. 计算分配:全局 Transformer 是主要 FLOPs 消耗者,Encoder/Decoder 轻量——通过在 patch 级而非 token 级做全局建模,显著减少计算

  10. 跨模态对齐机制

  11. Patch 级建模使语音和文本在同一序列中以相近的粒度出现
  12. 交错数据训练:同一语料的文本和语音交替出现,部分语音段被替换为对应文本
  13. 效果:patch 自动学习到与音节/单词的对应,促进 S↔T 知识迁移

损失函数 / 训练策略

  • 标准 NTP 损失(token 级别),应用于 patch decoder 的输出
  • 端到端训练(encoder + global transformer + decoder)
  • 语音 tokenizer:HuBERT 25Hz,501 码本
  • 文本 tokenizer:Llama 2 tokenizer

实验关键数据

主实验(Speech HellaSwag,story completion)

设置 条件 LST 提升
Compute-controlled(同训练步数) 420M +6.5% absolute
Data-controlled(同数据量) 420M +5.3% absolute
Compute-optimal scaling 420M → 1.8B 增益随规模增长
Fixed-token budget 7B, 70B tokens 增益持续

关键:增益不仅不饱和,而且随模型增大持续增长——说明 LST 改善了 compute-optimal scaling。

下游任务

任务 效果 说明
ASR 适应 更稳定 patch 级建模减少了长距离依赖问题
TTS 推理 序列更短,计算更低 压缩序列长度的直接好处
重建质量 不降低 证明 patch 压缩无损
Text→Text 也有提升 跨模态训练反向提升文本能力

消融实验

配置 效果 说明
无 patching(baseline) 基线 标准交错训练
BPE on speech tokens 无改善/退化 确认 BPE 对语音 token 不适用
Static patching (p=3) 显著提升 即使简单切分也有效
Alignment patching 最好但需辅助模型 语义对齐的价值
Curriculum patching 最佳平衡 保留对齐好处 + 无需推理辅助模型

关键发现

  • 信息密度对齐是核心:将语音和文本拉到相近的序列长度后,跨模态知识迁移显著改善——支持了"粒度不匹配是主要瓶颈"的假设
  • 即使最简单的 static patching 也有效——说明问题不在于精确的语义对齐,而在于减少语音序列的冗余
  • Patch 自动学习到语义对应:curriculum patching 从对齐开始但最终切换到静态,模型保持了学到的对应——说明对齐信号可以被"蒸馏"到 patch 表示中
  • 增益随模型规模增长——这对 scaling law 有重要含义:LST 可能改变了语音 LM 的 compute-optimal 点
  • 文本性能也提升——语音 patching 不仅不损害文本,反而通过更好的跨模态训练间接提升

亮点与洞察

  • BLT 范式从文本到语音的成功迁移:Byte Latent Transformer 的核心思想(将细粒度 token 聚合为 patch 做全局建模)在语音域同样有效,且可能更有用(语音的冗余比 bytes 更大)
  • 效率与质量双赢:降低序列长度同时提升质量——不是 trade-off 而是 win-win。原因:更短的序列使全局 Transformer 更容易学到长距离依赖
  • Curriculum 的巧妙设计:alignment patching 需要推理辅助模型(不实用),static patching 丢失语义对齐(不最优),curriculum 从前者平滑过渡到后者——训练用对齐,推理用静态

局限性 / 可改进方向

  • Patch 大小的选择对不同语言(音节结构差异大)和说话速率的鲁棒性未充分验证
  • 仅使用 HuBERT semantic tokens,未测试 codec-based acoustic tokens(如 SoundStorm)
  • 未与 Moshi、Spirit-LM 等端到端语音 LLM 做直接对比
  • Curriculum 调度的超参数 \(\tau_1, \tau_2\) 需要调优
  • 7B 实验在次优 token budget(70B vs 最优 ~140B)下进行,完整 compute-optimal 实验成本高

相关工作与启发

  • vs BLT (Pagnoni 2024):LST 将 BLT 的 byte→patch 思想迁移到 speech token→speech patch,直接启发
  • vs Nguyen 2025(交错训练):交错训练是基线方法,LST 在此基础上增加 patching——正交改进
  • vs Moshi(端到端语音 LLM):Moshi 用多流建模,LST 用 patch 压缩——不同的解决信息密度不匹配的路径

评分

  • 新颖性: ⭐⭐⭐⭐ 潜在 patch 概念简洁有效,BLT→语音的迁移既自然又有非显然的设计考虑
  • 实验充分度: ⭐⭐⭐⭐⭐ 多尺度(420M→7B)× 两种控制设置 × 下游任务 × 充分消融
  • 写作质量: ⭐⭐⭐⭐ 清晰易懂,从动机到设计到实验逻辑流畅
  • 价值: ⭐⭐⭐⭐⭐ ICLR Oral 实至名归,对语音-文本联合建模有重要指导意义,改善了 scaling behavior