跳转至

S2WTM: Spherical Sliced-Wasserstein Autoencoder for Topic Modeling

会议: ACL 2025
arXiv: 2507.12451
代码: 有 (https://github.com/AdhyaSuman/S2WTM)
领域: NLP / 主题建模
关键词: 主题建模, 球面潜空间, Wasserstein 距离, 后验坍塌, von Mises-Fisher 分布

一句话总结

提出 S2WTM,一种基于球面切片 Wasserstein 自编码器的主题模型,在超球面潜空间上对齐聚合后验与先验分布,有效避免 VAE 的后验坍塌问题,同时在主题连贯性和多样性上超越现有 SOTA。

研究背景与动机

主题建模旨在从文档语料库中发现潜在主题。从 LDA 到神经主题模型(VAE-NTM),领域取得了长足进步。然而,当前方法面临两个核心挑战:

挑战一:欧氏潜空间的局限性 - 高维空间中高斯分布存在"肥皂泡效应"(soap bubble effect):概率质量集中在超球面表面而非均值附近 - 欧氏距离在高维中趋于均匀,区分能力退化(维度灾难) - 实际文本数据中,方向相似性(余弦相似度)比距离相似性更有意义 - 这促使使用 von Mises-Fisher(vMF)分布在超球面上建模潜在表示

挑战二:后验坍塌(Posterior Collapse) - VAE 中 KL 散度正则项可以分解为互信息项和聚合后验-先验距离项 - 最小化 KL 散度会同时降低互信息,导致潜在表示丢失输入信息 - 现有 vMF-VAE 模型(如 vONT)仍然使用 KL 散度,无法彻底避免后验坍塌

作者的解决方案是双管齐下:球面潜空间 + Wasserstein 距离替代 KL 散度。具体使用球面切片 Wasserstein(SSW)距离来对齐聚合后验与超球面先验,既保留了球面几何又避免了后验坍塌。

方法详解

整体框架

S2WTM 采用 Wasserstein 自编码器(WAE)框架,核心组件包括: 1. 编码器:将文档 BoW 表示映射到超球面上的潜在表示 2. 解码器:从潜在表示重建文档-词分布 3. 正则化:使用 SSW 距离对齐聚合后验与超球面先验 4. 先验选择:支持三种超球面先验(vMF / MvMF / 均匀分布)

关键设计

  1. 超球面先验分布选择

    • 功能:为潜空间提供结构化的先验约束
    • 三种选择:
      • vMF 分布:单峰方向性分布,由均值方向 μ 和集中度 κ 参数化
      • MvMF 分布:多个 vMF 的混合,可建模更复杂的多模态结构
      • 均匀分布 U(S^{K-1}):完全无偏的先验,从标准高斯采样后 L2 归一化
    • 设计动机:将先验选择作为超参数,让不同数据集可以选择最适合的先验结构
  2. 确定性编码器

    • 功能:将文档 BoW 表示 x ∈ R^V 映射到超球面 z ∈ S^{K-1}
    • 网络结构:Linear(V,H') → Dropout → ReLU → Linear(H',H'') → Dropout → ReLU → Linear(H'',K) → L2Norm
    • 关键:最后一步 L2 归一化将输出投影到单位超球面上
    • 设计动机:使用确定性编码器(而非 VAE 的随机编码器)学习聚合后验,配合 SSW 正则化即可避免后验坍塌
  3. 球面切片 Wasserstein 距离(SSW)正则化

    • 功能:度量聚合后验 q(θ) 与先验 p(θ) 在超球面上的分布差异
    • 核心思路:
      • 标准 Wasserstein 距离计算复杂度为 O(n³log n)
      • 切片 Wasserstein(SW)通过投影到一维来近似,但不适合球面数据
      • SSW 使用球面 Radon 变换代替线性投影,将球面上的分布投影到大圆上
      • 然后在一维上用排序即可高效计算 Wasserstein 距离
    • 近似计算:\(SSW_2^2(q_θ, p_θ) ≈ \frac{1}{M}\sum_{i=1}^{M} W_2^2(\tilde{R}_i q_θ, \tilde{R}_i p_θ)\),其中 M 为随机投影数
    • 设计动机:用 SSW 替代 KL 散度,直接作用于聚合后验(而非单样本后验),从根本上避免后验坍塌
  4. 训练目标

    • 总损失:\(\mathcal{L} = \mathcal{L}_{RL} + \lambda \mathcal{L}_{OT}\)
    • 重建损失 \(\mathcal{L}_{RL}\):输入 x 与重建 x̂ 之间的交叉熵
    • 正则化损失 \(\mathcal{L}_{OT}\):SSW₂²(q_θ, p_θ)
    • λ 为超参数,平衡重建质量和潜空间正则化

损失函数 / 训练策略

  • 使用 Adam 优化器,学习率需调参
  • 关键超参数:投影数 M(500-8000)、先验类型、批大小、dropout 率、λ
  • 不同数据集最优先验不同:20NG/BBC 用 vMF,M10/Bio/DBLP 用均匀分布,SS/Pascal 用 MvMF

实验关键数据

主实验(主题连贯性,中位数,5 次运行)

模型 20NG-NPMI BBC-NPMI M10-NPMI SS-NPMI Pascal-NPMI Bio-NPMI DBLP-NPMI
LDA 0.092 0.076 -0.047 -0.066 -0.072 0.019 0.015
NMF 0.118 0.065 0.050 0.019 -0.042 0.100 0.016
ProdLDA 0.107 0.010 0.027 -0.009 -0.023 0.107 -0.065
CombinedTM 0.107 0.017 0.059 0.018 -0.002 0.133 -0.065
WTM 0.046 -0.006 -0.052 -0.013 -0.089 0.052 -0.044
vONT 0.045 -0.001 -0.053 -0.015 -0.090 0.052 -0.043
ECRTM -0.089 0.170 -0.445 -0.333 -0.414 -0.421 -0.248
S2WTM 0.167 0.252 0.101 0.146 0.045 0.191 0.133

S2WTM 在全部 7 个数据集上的 NPMI 均为最高,大幅领先。

消融实验(先验类型对比,NPMI)

先验类型 20NG BBC M10 SS Pascal Bio DBLP
vMF 最优 最优 一般 一般 一般 一般 一般
MvMF 一般 一般 一般 最优 最优 一般 一般
Uniform 一般 一般 最优 一般 一般 最优 最优

关键发现:不同数据集适合不同的先验分布,将先验作为超参数是合理的设计。

关键发现

  1. 全面超越 SOTA:S2WTM 在 7 个数据集上的所有连贯性和多样性指标上均达到最优或次优
  2. WTM 和 vONT 表现不佳:说明仅使用球面潜空间(vONT)或仅使用 Wasserstein 距离(WTM)都不够,需要二者结合
  3. ECRTM 在多数据集上极不稳定:虽然在 BBC 上最优,但在其他数据集上大幅为负
  4. 先验选择影响显著:vMF 适合主题结构清晰的数据,MvMF 适合多模态数据,均匀分布适合主题分散的数据
  5. 后验坍塌有效缓解:SSW 正则化下聚合后验与先验有效对齐,避免了 VAE 的典型退化

亮点与洞察

  • 理论动机扎实:从"肥皂泡效应"和后验坍塌的理论分析出发,自然引出球面潜空间 + SSW 距离的组合
  • 两个关键思想的有机结合:球面几何(vMF 先验)和最优传输(SSW 距离)各自弥补了对方的局限
  • 简洁有效:确定性编码器 + L2 归一化 + SSW 正则化,实现起来并不复杂
  • 首次将 SSW 距离引入主题建模,证明了其优于 KL 散度和标准 SW 距离的优势

局限与展望

  1. BoW 表示的局限:仍使用传统的词袋表示,未利用预训练语言模型的上下文化嵌入
  2. 投影数 M 的选择:M 值范围大(500-8000),过多投影增加计算开销
  3. 仅支持较小规模数据集:最大的 DBLP 仅 54K 文档,百万级语料的表现未知
  4. 缺乏与最新 LLM-based 主题模型的对比:如 BERTopic 等基于 BERT 的方法
  5. MvMF 先验的组件数 T 也是需要调参的超参数,增加了调参复杂度

相关工作与启发

  • SAM(Reisinger et al., 2010)首创球面主题建模,S2WTM 是这一方向的现代神经网络版本
  • WAE(Tolstikhin et al., 2018)提供了替代 VAE 的理论框架,S2WTM 将其扩展到球面
  • SSW 距离(Bonet et al., 2023)是核心工具,本文首次将其应用于主题建模
  • 可启发在其他潜变量模型中使用 SSW 替代 KL 散度来缓解后验坍塌

评分

  • 新颖性: ⭐⭐⭐⭐ — 球面 WAE + SSW 距离的组合在主题建模中是首创,三种先验选择增加了灵活性
  • 实验充分度: ⭐⭐⭐⭐ — 7 个数据集、12+ 种基线、4 类指标(连贯性、多样性、下游任务、LLM 评估),覆盖面广
  • 写作质量: ⭐⭐⭐⭐ — 数学推导严谨清晰,从 Wasserstein → SW → SSW 的层层引入便于理解
  • 价值: ⭐⭐⭐ — 主题建模领域的扎实工作,但该领域本身关注度在下降,实际影响力可能有限

相关论文