🔄 自监督/表示学习¶
💬 ACL2025 · 共 5 篇
- Improving Low-Resource Morphological Inflection via Self-Supervised Objectives
-
系统探索 13 种自监督辅助目标(自编码、CMLM、T5-style 等)在极低资源形态变化任务中的效果,发现无标注数据极少时自编码最优,数据增多后字符级 MLM 更好,按形态素边界采样掩码是最有前景的方向。
- Contrastive Learning on LLM Back Generation Treebank for Cross-domain Constituency Parsing
-
提出 LLM 反向生成方法自动构建跨领域成分句法树库——给定只有领域关键词叶节点的不完整句法树,用 LLM 填充缺失词汇生成完整的跨领域句法树库,结合 span 级对比学习预训练,在 MCTB 五个目标领域上达到跨领域成分句法分析 SOTA。
- QAEncoder: Towards Aligned Representation Learning in Question Answering Systems
-
提出 QAEncoder,一种免训练方法通过蒙特卡洛采样估计文档对应查询的期望嵌入作为文档表示的代理,配合文档指纹保持区分性,在 BEIR 上将 bge-large 从 58.5 提升到 61.8 NDCG@10,零额外存储和延迟开销。
- SHuBERT: Self-Supervised Sign Language Representation Learning via Multi-Stream Cluster Prediction
-
提出 SHuBERT(Sign Hidden-Unit BERT),将语音自监督学习模型 HuBERT 的 masked cluster prediction 范式迁移到手语视频——对手部、面部、身体姿态四个流分别聚类并同时预测 masked 帧的聚类标签,在约 984 小时 ASL 视频上预训练后,在翻译/孤立识别/指拼检测多任务上达到公开数据 SOTA。
- WhiSPA: Semantically and Psychologically Aligned Whisper with Self-Supervised Contrastive and Student-Teacher Learning
-
提出 WhiSPA,通过对比学习将 Whisper 音频编码器的潜在空间与 SBERT 语义表征和心理学维度(情感、人格)对齐,消除语音处理中对额外文本 LM 的依赖,在心理学评估任务上误差降低 73-84%。