跳转至

🎵 音频/语音

💬 ACL2025 · 共 22

Finding A Voice: Exploring the Potential of African American Dialect and Voice Generation for Chatbots

研究将非裔美式英语(AAE)整合到聊天机器人中的效果——开发文本和语音 AAE 聊天机器人并用 AAE 说话者评估,发现文本 AAE 聊天机器人常表现不佳(方言生成不够自然),但语音聊天机器人结合非裔声音和 AAE 元素时用户体验更好,揭示了语言个性化的复杂性。

AI4Reading: Chinese Audiobook Interpretation System Based on Multi-Agent Collaboration

提出 AI4Reading,一个基于 11 个专业化 LLM Agent 协作的中文有声书解读系统,通过主题分析、案例扩展、编辑润色、口语化改写和整合修订等阶段自动生成解读稿,并用 TTS 合成音频,在解读脚本质量(简洁性、完整性、准确性、连贯性)上超过专业人工解读平台樊登读书。

Benchmarking Open-ended Audio Dialogue Understanding for Large Audio-Language Models

提出 ADU-Bench,一个包含 20,000+ 开放式音频对话的综合基准,覆盖 3 种通用场景、12 项技能、9 种语言和 4 类歧义处理,首次系统评估大型音频语言模型(LALM)的音频对话理解能力,在 16 个模型上的实验揭示了现有 LALM 在数学符号、角色扮演、多语言和语音歧义处理上的显著不足。

Autoregressive Speech Synthesis without Vector Quantization

MELLE 提出了一种基于连续 mel-spectrogram 帧的自回归语言模型 TTS 方法,通过回归损失 + 变分推断采样模块 + spectrogram flux loss 直接预测连续频谱帧,避免了向量量化带来的保真度损失和采样鲁棒性问题,单阶段模型即可达到与人类水平相当的语音合成质量。

Chain-Talker: Chain Understanding and Rendering for Empathetic Conversational Speech Synthesis

提出 Chain-Talker,通过三阶段链式建模(情感理解→语义理解→共情渲染)实现可解释的共情对话语音合成,并开发 CSS-EmCap 自动标注管道为对话语音生成情感描述。

CLaMP 3: Universal Music Information Retrieval Across Unaligned Modalities and Unseen Languages

提出 CLaMP 3 统一框架,通过对比学习将乐谱、演奏信号、音频录音与多语言文本对齐到共享表示空间,在无配对训练数据的模态间实现跨模态检索,并展现出对未见语言的强泛化能力。

ControlSpeech: Towards Simultaneous and Independent Zero-shot Speaker Cloning and Zero-shot Language Style Control

ControlSpeech 是首个同时实现零样本音色克隆和零样本语言风格控制的TTS系统,通过离散编解码器空间中的解耦表示和风格混合语义密度(SMSD)模块解决了风格控制中的多对多问题。

Different Speech Translation Models Encode and Translate Speaker Gender Differently

通过注意力探针分析不同架构的语音翻译模型如何编码说话人性别信息,发现传统编码器-解码器模型能较好保留性别信息,而新型 speech+MT 架构的适配器会显著擦除性别信息,导致翻译中出现更严重的阳性默认偏差。

DNCASR: End-to-End Training for Speaker-Attributed ASR

提出 DNCASR,一种端到端可训练的说话人归因 ASR 系统,通过链接神经聚类解码器和 ASR 解码器,联合训练生成带说话人标识的转录文本,在 AMI 会议数据上实现 cpWER 9.0% 的相对降低。

Does Your Voice Assistant Remember? Analyzing Conversational Context Recall and Utilization in Voice Interaction Models

系统性评估开源语音交互模型的对话历史回忆能力,提出 ContextDialog 基准,发现这些模型在回忆过去语音信息方面远弱于文本模型,且 RAG 方法也难以有效弥补这一差距。

Double Entendre: Robust Audio-Based AI-Generated Lyrics Detection via Multi-View Fusion

提出 DE-detect,一个仅以音频为输入的多视角晚期融合管线,通过结合自动转录歌词的文本特征和语音模型提取的歌词相关音频特征,实现了对 AI 生成歌词的鲁棒检测,在域内外均优于单模态方法。

Eta-WavLM: Efficient Speaker Identity Removal in Self-Supervised Speech Representations Using a Simple Linear Equation

提出 Eta-WavLM,通过简单的线性方程将 WavLM 自监督语音表示分解为说话人相关和说话人无关两个分量,无需复杂训练即可生成高质量的说话人解耦表示,在语音转换任务上全面超越现有方法。

GigaSpeech 2: An Evolving, Large-Scale and Multi-domain ASR Corpus for Low-Resource Languages

GigaSpeech 2 构建了一个约 30,000 小时的大规模低资源语言(泰语、印尼语、越南语)ASR 语料库,通过自动化爬取-转录-精炼管线从无标注 YouTube 视频生成高质量伪标签,训练的模型仅用 10% 参数量即可将 WER 比 Whisper large-v3 降低 25%-40%。

Investigating and Enhancing Vision-Audio Capability in Omnimodal Large Language Models

发现当前全模态大语言模型(OLLMs)在视觉-音频任务上显著弱于视觉-文本任务,原因在于视觉与音频模态之间缺乏直接对齐,并提出 Self-KD(自知识蒸馏)方法,利用 OLLM 自身的视觉-文本组件作为教师来增强视觉-音频能力。

MMS-LLaMA: Efficient LLM-based Audio-Visual Speech Recognition with Minimal Multimodal Speech Tokens

提出 MMS-LLaMA,通过早期音视频融合、动态查询分配的 AV Q-Former 和语速预测器三个模块,将多模态语音 token 压缩至每秒仅 3.5 个,在 LRS3 上以 0.72% WER 达到 SOTA 的同时减少 86% token 用量和 35.7% FLOPs。

On the Robust Approximation of ASR Metrics

提出一种无需真实标签的 ASR 性能指标近似方法,利用多模态统一 embedding 空间中的语音-文本相似度和高质量代理模型的 proxy metrics,训练回归模型预测 WER/CER,在 40+ 模型和 14 个数据集上绝对误差控制在个位数以内,超过最新基线 50% 以上。

Predicting Turn-Taking and Backchannel in Human-Machine Conversations Using Linguistic, Acoustic, and Visual Signals

提出首个融合语言、声学和视觉三模态信号预测对话中轮换(turn-taking)和反馈通道(backchannel)动作的端到端框架,并构建了包含 210+ 小时的 MM-F2F 面对面对话数据集,turn-taking F1 提升 10%,backchannel F1 提升 33%。

Spark-TTS: An Efficient LLM-Based Text-to-Speech Model with Single-Stream Decoupled Speech Tokens

提出 Spark-TTS,基于新型单流语音编解码器 BiCodec 和 Qwen2.5 LLM 的高效 TTS 系统,通过将语音解耦为低码率语义 token 和固定长度全局 token,实现零样本语音克隆和从粗到细的属性控制,在 Seed-TTS-eval 上达到 SOTA 可懂度。

Sparsify: Learning Sparsity for Effective and Efficient Music Performance Question Answering

Sparsify 提出三层稀疏化策略(稀疏掩码+自适应稀疏合并+关键子集选择)用于音乐表演视听问答(Music AVQA),在 MUSIC-AVQA 和 v2.0 两个 benchmark 上达到 SOTA(81.75%/81.30%),训练时间减少 28.32%,25% 数据即保持 74% 的全量性能。

SpeechIQ: Speech-Agentic Intelligence Quotient Across Cognitive Levels in Voice Understanding by Large Language Models

提出 SpeechIQ,一个基于 Bloom 认知分类学的层次化语音理解评估框架,从 Remember(WER)、Understand(语义相似度)、Apply(QA 准确率)三个层次综合评估语音 LLM 的智能水平,发现级联 ASR+LLM 系统在同规模下优于端到端多模态模型。

T2A-Feedback: Improving Basic Capabilities of Text-to-Audio Generation via Fine-grained AI Feedback

提出三个细粒度 AI 音频评分管线(事件出现/事件顺序/声学和谐质量)替代人工标注构建大规模音频偏好数据集 T2A-FeedBack(41K提示+249K音频),用偏好调优增强 TTA 模型的基础能力,在简单(AudioCaps)和复杂(T2A-EpicBench)场景下都显著提升多事件音频生成质量。

In-the-wild Audio Spatialization with Flexible Text-guided Localization

提出 TAS(Text-guided Audio Spatialization)框架,用灵活的文本提示(3D 空间位置描述或声源间相对位置描述)引导潜在扩散模型将单声道音频转换为双耳音频,构建了 376K 样本的 SpatialTAS 数据集,在模拟和真实录制数据上均超越现有方法,并基于 Llama-3.1-8B 开发了空间语义一致性评估模型。