跳转至

Consensus-Aligned Neuron Efficient Fine-Tuning Large Language Models for Multi-Domain Machine Translation

会议: AAAI 2026
arXiv: 2602.05694
代码: GitHub
领域: 模型压缩/高效微调
关键词: 多域机器翻译, 神经元选择, 互信息, 参数高效微调, LLM

一句话总结

提出 CANEFT,通过互信息(MI)识别 LLM 中跨域一致对齐的神经元(consensus-aligned neurons),仅微调这些神经元即可实现多域机器翻译的高效适应,在 3 个 LLM、10 个翻译域上超越 LoRA 等 PEFT 基线,且无需额外参数。

研究背景与动机

领域现状

领域现状:领域现状**:多域机器翻译(MDMT)要求单一模型覆盖法律、医学、字幕等多个领域。LLM 的通用翻译能力强但域适应仍是挑战。

现有痛点

现有痛点

现有痛点:LoRA 在多域微调时存在参数干扰——适应某域后其他域性能下降

核心矛盾

核心矛盾:Adapter 方法为每个域引入独立模块——域数增长时参数和内存成本线性增加

解决思路

解决思路:ICL 依赖高质量域内示例,MDMT 效果不佳

核心矛盾:能否找到不引入额外参数、不产生域间干扰的 PEFT 方法?

切入角度:受神经科学启发——共识性对话增强群体成员间的神经对齐,类比到 LLM 中应存在跨域一致编码翻译知识的神经元。找到并仅微调这些神经元。

核心 idea:用互信息衡量神经元重要性与域标签的关联,选择所有域上 MI 都高的"共识对齐神经元",仅微调这些神经元。

方法详解

整体框架

三步流程:(1) 通过激活-梯度分析识别 MDMT 任务相关神经元 (2) 用互信息选择跨域共识对齐神经元 (3) 仅微调这些神经元的参数

关键设计

  1. 任务相关神经元识别:

    • 功能:找出 FFN 层中与翻译任务相关的神经元
    • 核心思路:神经元重要性 \(I_{l,j}^{(d)} = \mathbb{E}[|A_{l,j}^{(d)} \cdot G_{l,j}^{(d)}|]\)(激活值×梯度的绝对值)
    • 理论支撑:通过一阶 Taylor 展开证明该指标近似于去掉该神经元后的损失变化
  2. 互信息选择共识神经元:

    • 功能:从任务相关神经元中选出跨域一致重要的子集
    • 核心思路:将重要性分数离散化后计算神经元与域标签的互信息 \(MI_{l,j}\)
    • 选择标准:\(\mathcal{N}_{MDCA} = \{(l,j) | \min MI_{l,j} \geq \gamma\}\)——在所有域上 MI 都达到阈值
    • 设计动机:不选仅在某些域上重要的神经元(会导致域偏),而选跨域一致重要的
  3. 神经元高效微调:

    • 构建二值 mask \(M\),仅允许共识神经元对应参数的梯度通过
    • \(\nabla W_m \leftarrow \nabla W_m \odot M\)
    • 覆盖 FFN 的 up/down/gate 三个投影矩阵
    • 不引入任何额外参数——比 LoRA 更轻量

损失函数 / 训练策略

标准翻译 CE 损失 + 梯度 mask。在 LLaMA2-7B-Chat、Qwen2.5-7B、Gemma2-9B 上验证。

实验关键数据

主实验(De→En,5个域)

方法 可训参数 IT BLEU Law BLEU Med BLEU 平均
Base (零样本) 0 30.0 44.1 35.5 32.8
Full FT 7B 47.9 47.1 35.3 38.9
LoRA ~20M 35.8 49.9 33.5 36.2
CANEFT 极少 最优 最优 最优 +1.3 BLEU

CANEFT 在已见和未见域上都超越 Full FT 和 LoRA。

关键发现

  • LoRA 的参数干扰确实存在——Medical 域训练后 IT 域明显下降
  • 仅微调共识神经元不产生域间干扰,且泛化到未见域
  • MI-based 选择比纯梯度/激活选择更好——因为后者容易选到域特异性神经元
  • 在 3 个 LLM 上效果一致,方法对模型架构不敏感

亮点与洞察

  • "共识对齐"的概念受神经科学启发,类比优雅——群体共识对话→跨域共识神经元
  • 不引入额外参数的 PEFT——比 LoRA/Adapter 更轻量,理论上也更不容易干扰
  • MI 选择标准的设计——"所有域上都重要"而非"任何域上重要",有效避免域偏

局限与展望

  • 神经元识别需要所有域的数据做前向/反向传播——初始化成本不低
  • 阈值 \(\gamma\) 需要调参
  • 仅在机器翻译上验证,其他多任务场景有待探索
  • 仅微调 FFN 神经元,注意力层未涉及

相关工作与启发

  • vs LoRA: LoRA 有参数干扰问题,CANEFT 通过神经元选择避免;且 CANEFT 无额外参数
  • vs Adapter: Adapter 每域独立模块,域数增长开销大;CANEFT 统一一组共识神经元
  • vs 语言特异神经元: LAPE 等找语言特异神经元,CANEFT 找跨域共识神经元——目标相反

评分

  • 新颖性: ⭐⭐⭐⭐ MI-based 共识神经元选择是新颖的 PEFT 范式
  • 实验充分度: ⭐⭐⭐⭐⭐ 3个LLM+10域+De→En和Zh→En+未见域泛化
  • 写作质量: ⭐⭐⭐⭐ 动机清晰,理论推导完整
  • 价值: ⭐⭐⭐⭐ 实用的无额外参数 PEFT 方案

相关论文