MoDES: Accelerating Mixture-of-Experts Multimodal Large Language Models via Dynamic Expert Skipping¶
会议: CVPR2026 arXiv: 2511.15690 代码: ModelTC/MoDES 领域: 多模态VLM 关键词: MoE加速, 专家跳过, 多模态大模型, 训练免调, 推理效率
一句话总结¶
提出 MoDES,首个面向 MoE 多模态大模型的训练免调专家跳过框架,通过全局调制的局部门控(GMLG)和双模态阈值(DMT)机制自适应跳过冗余专家,在跳过 88% 专家时仍保留 97%+ 原始性能,并实现 2.16× prefill 加速。
研究背景与动机¶
- MoE MLLM 推理瓶颈:MoE 多模态大模型(如 Qwen3-VL-MoE-30B)通过稀疏激活降低计算量,但每个 token 仍需与多个被激活专家交互,推理开销依然可观。
- 现有专家跳过方法失效:NAEE、MC-MoE、DiEP 等方法原为单模态 LLM 设计,直接应用于 MLLM 在跳过 83% 专家时精度下降超 10%。
- 层间贡献不均(Insight i):浅层专家对最终输出的贡献远大于深层——浅层引入的误差会被后续层放大,但现有方法仅依据层内路由概率做跳过决策,忽视了全局层级重要性。
- 模态间行为差异(Insight ii):文本 token 与视觉 token 在 FFN 中的更新幅度显著不同——视觉 token 与 FFN 权重更正交(角度接近 90°),因此受 FFN 影响更小,冗余度更高。
- 缺乏多模态感知的跳过策略:先前工作对所有模态采用统一阈值,未考虑文本/视觉 token 的不同特性,导致跳过策略不合理。
- 阈值搜索代价高昂:暴力搜索双模态阈值需要 \(\mathcal{O}(ND^2)\) 时间复杂度,对 20-30B 参数模型需数天才能完成。
方法详解¶
整体框架¶
MoDES 是一个训练免调(training-free)的推理加速框架,由两个核心模块组成:全局调制的局部门控(GMLG)计算每个专家的重要性分数,双模态阈值(DMT)根据 token 模态进行自适应跳过决策。
全局调制的局部门控(GMLG)¶
针对层间贡献不均问题,GMLG 将全局层级重要性与局部路由概率相结合:
- \(\pi_i^{(l)}\):第 \(l\) 层第 \(i\) 个专家的局部路由概率(softmax 归一化)
- \(\alpha^{(l)}\):全局调制因子,通过离线校准获取,衡量跳过该层所有专家对最终输出的影响
\(\alpha^{(l)}\) 的计算方式为在校准集 \(\mathcal{C}\) 上求原始模型与跳过第 \(l\) 层专家后模型的输出分布之间 KL 散度的均值:
校准阶段使用 GQA 数据集的 1024 个样本完成,离线计算无推理时额外开销。
双模态阈值(DMT)¶
针对模态间行为差异,为文本和视觉 token 分别设定跳过阈值 \(\tau_t\) 和 \(\tau_v\):
重要性分数低于对应模态阈值的专家将被跳过。视觉 token 由于冗余度更高,通常获得更高的跳过阈值。
前沿搜索算法(Frontier Search)¶
为高效求解最优 \((\tau_t, \tau_v)\),论文将问题建模为在满足目标跳过率 \(\rho\) 约束下最小化 KL 散度的优化问题。利用 \(f\) 和 \(g\) 关于阈值的单调性,通过双指针策略在 \(\mathcal{O}(ND)\) 时间内找到前沿集合上的最优解,相比暴力搜索 \(\mathcal{O}(ND^2)\) 加速约 45 倍,将搜索时间从数天压缩到数小时以内。
实验¶
主实验:Kimi-VL-A3B-Instruct 上 13 个基准的对比¶
| 方法 | 跳过率 | ChartQA | MME | MMBench | LVB | VMMMU | Avg.(%) |
|---|---|---|---|---|---|---|---|
| 默认 k=6 | 0% | 89.48 | 2207 | 83.16 | 63.13 | 49.33 | 100.00 |
| DiEP | 83% | 78.31 | 2071 | 76.28 | 52.41 | 43.81 | 87.58 |
| MC-MoE | 83% | 80.25 | 2063 | 73.42 | 54.39 | 44.02 | 88.32 |
| MoDES | 83% | 84.20 | 2162 | 81.44 | 62.60 | 47.11 | 96.25 |
跨模型泛化:Qwen3-VL-MoE-30B 上 88% 跳过率¶
| 方法 | ChartQA | MME | MMBench | VMMMU | Avg.(%) |
|---|---|---|---|---|---|
| MC-MoE | 71.43 | 2168 | 75.42 | 37.41 | 86.66 |
| DiEP | 70.51 | 2074 | 73.21 | 34.79 | 85.30 |
| MoDES | 78.84 | 2403 | 85.57 | 46.56 | 97.33 |
MoDES 在 88% 激进跳过率下比最强基线 MC-MoE 高出 10.67 个百分点。
消融实验¶
| 配置 | ChartQA | MME | MMBench | LVB | VMMMU |
|---|---|---|---|---|---|
| 单阈值基线 | 76.74 | 1956 | 65.48 | 54.67 | 40.33 |
| +GMLG | 79.28 | 2107 | 75.19 | 60.02 | 43.87 |
| +DMT | 82.94 | 2081 | 79.42 | 61.16 | 45.08 |
| +GMLG+DMT(完整) | 84.20 | 2162 | 81.44 | 62.60 | 47.11 |
(83% 跳过率,Kimi-VL-A3B-Instruct)GMLG 和 DMT 均有显著且独立的贡献,且跳过率越高增益越大。
关键发现¶
- 推理加速:MoDES 在 Qwen3-VL-MoE-30B 上实现 prefill 2.16× 加速,decoding 1.26× 加速。
- 与量化兼容:MoDES + 2.5-bit 量化在 Qwen3 上仍保留 94.43% 原始性能,MC-MoE 仅 89.58%。
- 跳过模式可视化:深层跳过率远高于浅层;视觉 token 的专家跳过率远高于文本 token,验证了两个核心 insight。
- 校准数据鲁棒:换用 COCO 或 VMMMU 作为校准集,性能几乎不变。
- 搜索效率:前沿搜索 vs 暴力搜索加速 ~45×,20-30B 模型总耗时(校准+搜索)20 分钟到 4 小时以内。
亮点¶
- 首个系统分析 MoE MLLM 中层间贡献不均与模态间行为差异的工作,两个 insight 有充分实验支撑
- GMLG 巧妙地将离线全局校准与在线局部路由结合,推理时无额外开销
- DMT 用模态感知的双阈值替代统一阈值,从动机到设计逻辑清晰
- 前沿搜索算法利用单调性将 \(\mathcal{O}(ND^2)\) 降到 \(\mathcal{O}(ND)\),实用性强
- 实验覆盖 3 个模型系列 × 13 个基准,跳过 88% 专家时精度损失 <3%
局限性¶
- 仅处理文本/视觉两种模态,未扩展到音频等更多模态场景
- \(\alpha^{(l)}\) 为层级别粒度,未区分同层内不同专家的全局重要性差异
- 仅在 image/video understanding 任务上评估,未涉及生成类任务(如 image captioning 质量评估有限)
- Decoding 阶段加速有限(~1.2×),因为 decoding 本身是 memory-bound 且仅处理文本 token
- 前沿搜索依赖单调性假设,虽然实践中合理但缺乏严格理论保证
相关工作¶
- NAEE [Lu et al.]:基于路由概率比值跳过次要专家,仅考虑层内信息
- MC-MoE [Huang et al., 2024]:在 NAEE 基础上加入 attention-aware 专家保护 + 混合精度量化
- DiEP [Bai et al., 2025]:可微专家剪枝,联合路由概率与专家相似度做跳过
- 以上方法均为单模态 LLM 设计,直接迁移到 MLLM 效果差;MoDES 首次针对多模态场景提出全局+模态感知的跳过策略
评分¶
- 新颖性: ⭐⭐⭐⭐ — 两个 insight 有说服力,GMLG+DMT 组合设计合理
- 实验充分度: ⭐⭐⭐⭐⭐ — 3 个模型系列 × 13 基准 × 多跳过率,消融完整
- 写作质量: ⭐⭐⭐⭐ — 结构清晰,动机→方法→实验逻辑通顺
- 价值: ⭐⭐⭐⭐ — 对 MoE MLLM 部署有直接实用价值,方法简洁高效