⚡ LLM 效率¶
🤖 AAAI2026 · 共 12 篇
- A Content-Preserving Secure Linguistic Steganography
-
提出首个内容保持型语言隐写术范式CLstega,通过微调掩码语言模型(MLM)来可控地变换预测分布,将秘密信息嵌入到不做任何修改的原始文本中,实现了100%提取成功率和近乎完美的安全性(隐写分析检测准确率接近随机猜测的0.5)。
- Attention Retention for Continual Learning with Vision Transformers
-
提出ARCL-ViT框架,通过注意力掩码生成和梯度掩码两步策略防止ViT在持续学习中的注意力漂移,在ImageNet-R和CIFAR-100上取得SOTA结果,证明保持注意力模式是解决灾难性遗忘的关键。
- Collaborative LLM Numerical Reasoning with Local Data Protection
-
提出一种大小模型协作框架,通过对本地查询进行"主题迁移+数值替换"的两阶段匿名化来保护敏感数据,同时让远端 GPT-4 以可执行 Python 代码(即插即用工具)形式返回推理方案,本地仅需做数值回代即可获得答案,在 FinQA 和 MultiHiertt 上准确率提升 16-44% 且数据泄露降低 2-45%。
- Do Retrieval Augmented Language Models Know When They Don't Know?
-
系统分析RAG模型的拒绝校准问题,发现RALM在检索文档全部不相关时过度拒绝率超过55%(即使模型内部知识足够回答),提出结合不确定性估计和拒绝感知微调的机制来平衡拒绝与回答质量。
- Factor(U,T): Controlling Untrusted AI by Monitoring their Plans
-
研究不可信 AI 做任务分解、可信 AI 做执行的 Factor(U,T) 协议安全性,发现监控分解计划的 AUROC 仅 0.52(接近随机),而监控具体代码实现可达 0.96——恶意意图在抽象计划中难以检测但在具体实现中暴露,结论是"结构性预防(可信分解器)优于事后监控"。
- Harnessing the Unseen: The Hidden Influence of Intrinsic Knowledge in Long-Context Language Models
-
首次系统研究长上下文语言模型中参数知识(parametric knowledge)对生成的影响,发现其影响随上下文长度增长而增强,且现有方法提升外部检索能力会抑制参数召回能力,据此提出Hybrid Needle-in-a-Haystack测试来同时评估两种能力。
- InterMoE: Individual-Specific 3D Human Interaction Generation via Dynamic Temporal-Selective MoE
-
提出 InterMoE,通过 Dynamic Temporal-Selective MoE 架构解决文本驱动的双人 3D 交互运动生成中的个体特征保持和语义忠实度问题:Synergistic Router 融合语义和运动学特征引导路由,Dynamic Temporal Selection 让专家动态选择关键时间帧,在 InterHuman 上 FID 降低 9%、InterX 上降低 22%。
- Judge Q: Trainable Queries for Optimized Information Retention in KV Cache Eviction
-
提出Judge Q,在模型词表中引入可训练的soft token,训练其注意力模式对齐实际解码token的注意力模式,使其在prefill阶段能替代局部窗口查询来评估KV cache重要性,从而更好地保留全局信息,在LongBench上提升~1分,RULER上提升3+分。
- Learning from the Undesirable: Robust Adaptation of Language Models without Forgetting
-
提出 Learning-from-the-Undesirable (LfU),一种面向 SFT 的正则化方法,通过对辅助模型施加梯度上升模拟"不良行为",再通过表示级一致性损失约束原模型与不良模型的内部表征保持一致,有效缓解有限数据微调中的过拟合、遗忘和对抗脆弱性问题。
- MicroEvoEval: A Systematic Evaluation Framework for Image-Based Microstructure Evolution Prediction
-
提出 MicroEvoEval,首个面向图像级微观结构演化预测的标准化基准:涵盖 4 个代表性物理任务(平面波、晶粒生长、旋节分解、枝晶凝固)、14 个模型(5 个领域特定 + 9 个通用时空架构)、多维度评估(数值精度 + 物理保真度 + 计算效率),发现现代通用架构(如 VMamba)在长期稳定性和物理保真度上优于领域特定模型,且计算效率高一个数量级。
- Model Editing as a Double-Edged Sword: Steering Agent Ethical Behavior
-
将 Agent 伦理行为引导建模为模型编辑任务(Behavior Editing),提出基于心理学道德理论的三层 BehaviorBench 基准,在 9 个开源模型和 20 个闭源模型上验证了模型编辑可以精确地将 Agent 引导向善意或恶意方向,且单次编辑可导致全局道德对齐偏移。
- Think How Your Teammates Think: Active Inference Can Benefit Decentralized Execution
-
提出 AIM(Active Inference Modeling)框架,在去中心化多智能体强化学习中,不依赖通信机制,仅基于局部观测建模队友的主动推理过程(感知-信念-动作三重肖像),并通过准确性-相关性双重过滤机制选择性融合队友信念,在 SMAC、SMACv2、MPE 和 GRF 四大基准上取得最优或接近最优表现。