跳转至

✏️ 知识编辑

🤖 AAAI2026 · 5 篇论文解读

Catastrophic Forgetting in Kolmogorov-Arnold Networks

首个系统性研究KAN(Kolmogorov-Arnold Networks)中灾难性遗忘行为的工作:建立了遗忘与激活支持重叠和数据内禀维度之间的理论框架,并提出KAN-LoRA用于语言模型的持续微调知识编辑。

Hybrid-DMKG: A Hybrid Reasoning Framework over Dynamic Multimodal Knowledge Graphs for Multimodal Multihop QA with Knowledge Editing

提出MMQAKE基准和Hybrid-DMKG框架,在动态多模态知识图谱上构建"关系链接预测 + RAG增强LVLM推理"双通道混合推理机制,配合背景反思决策模块,在2-5跳多模态知识编辑问答中显著超越现有方法(LLaVA上H-Acc达29.90%,超IKE 13.52个百分点)。

Is the Information Bottleneck Robust Enough? Towards Label-Noise Resistant Information Bottleneck Learning

本文揭示了信息瓶颈(IB)原理在标签噪声下的固有脆弱性,提出 LaT-IB 方法,通过将表征解耦为干净标签空间和噪声标签空间两部分,结合"最小-充分-干净"(MSC)准则和三阶段训练框架,在多种噪声条件下实现了对现有 IB 方法的显著超越。

Model Editing as a Double-Edged Sword: Steering Agent Ethical Behavior

将 Agent 伦理行为引导建模为模型编辑任务(Behavior Editing),提出基于心理学道德理论的三层 BehaviorBench 基准,在 9 个开源模型和 20 个闭源模型上验证了模型编辑可以精确地将 Agent 引导向善意或恶意方向,且单次编辑可导致全局道德对齐偏移。

Multiplicative Orthogonal Sequential Editing for Language Models (MOSE)

提出 MOSE(乘法正交序列编辑),用正交矩阵左乘(而非加法更新)参数矩阵来注入新知识,严格保持编辑后矩阵的范数和条件数不变,在序列编辑中实现 12.08% 的性能提升并保留 95.73% 通用能力。