跳转至

GuardAlign: Test-time Safety Alignment in Multimodal Large Language Models

会议: ICLR 2026
arXiv: 2602.24027
代码: 无
领域: AI安全 / 多模态VLM
关键词: LVLM安全, 最优传输, 注意力校准, 推理时防御, 视觉安全检测

一句话总结

提出 GuardAlign,一个无需训练的多模态大模型推理时安全防御框架:用最优传输(OT)精确检测图像中的不安全区域并遮蔽,再通过跨模态注意力校准保持安全前缀的影响力不衰减,在6个LVLM上将不安全响应率降低最多39%,同时保持甚至提升通用能力。

研究背景与动机

  1. 领域现状:LVLM(如LLaVA、InternVL)在视觉-语言推理上取得了卓越进展,但当输入图像携带恶意语义时容易产生有害响应。现有防御分为微调方法(成本高)和推理时方法(如对比解码,额外开销大),最近出现轻量的输入侧防御范式。
  2. 现有痛点
  3. 输入侧防御第一步用CLIP检测不安全图像,但复杂场景下安全/不安全样本的相似度分数严重重叠,检测不准
  4. 第二步添加安全前缀激活模型内部防御机制,但随着层数增加,前缀的注意力权重持续衰减,安全信号被稀释
  5. 模型初始拒绝后,常在"However"等过渡词后开始生成不安全内容
  6. 核心矛盾:全局CLIP相似度无法捕获局部恶意语义 + 安全前缀信号在深层衰减
  7. 本文要解决什么? 更准确的不安全内容检测 + 更持久的安全信号维持
  8. 切入角度:用最优传输(OT)建模图像patch与不安全语义之间的细粒度分布距离;用注意力校准机制防止安全前缀信号衰减
  9. 核心idea一句话:OT检测恶意patch + 注意力校准维持安全前缀 = 无训练的LVLM安全防御

方法详解

整体框架

输入图像 → OT-enhanced安全检测(识别并遮蔽恶意patch)→ 净化图像 + 安全前缀 + 用户查询 → 跨模态注意力校准(增强安全前缀的持久注意力)→ LVLM生成安全响应。整个流程无需训练或微调,纯推理时执行。

关键设计

  1. OT增强安全检测:
  2. 做什么:用最优传输精确识别图像中哪些patch含有不安全语义
  3. 核心思路:将图像分为 \(M\) 个patch,定义 \(C\) 个不安全类别的文本锚点。通过CLIP分别编码图像patch \(\{\mathbf{x}^m\}\) 和文本变体 \(\{\mathbf{z}_i^n\}\),建模为离散分布:\(\mathbb{P}(\mathbf{x})=\sum_m a^m \delta(\mathbf{x}^m)\), \(\mathbb{Q}_i(\mathbf{z})=\sum_n b_i^n \delta(\mathbf{z}_i^n)\)。patch权重 \(a^m\) 由熵加权(低熵=高置信度patch权重更高)。通过Sinkhorn算法求解OT距离,对每个patch聚合所有类别的传输贡献 \(d_{\text{OT}}(m)=\sum_i\sum_n \mathbf{T}_i(m,n)\mathbf{C}_i(m,n)\),低于阈值则判为不安全并遮蔽
  4. 设计动机:全局CLIP相似度在复杂场景下安全/不安全样本重叠严重;OT在patch级别建模细粒度对齐,利用传输计划自动发现最可疑的局部区域
  5. 理论保证:证明了OT方法的分类误差 ≤ 余弦相似度方法,因为OT利用熵加权的传输计划优先对齐判别性特征,增大安全/不安全类的标准化间距

  6. 跨模态注意力校准:

  7. 做什么:在中间层增强instruction token对安全前缀token的注意力,防止安全信号衰减
  8. 核心思路:对第 \(l\) 层第 \(h\) 头的注意力分数,执行 \(\hat{\mathbf{Z}}_{l,h} = \mathbf{Z}_{l,h} + \gamma \mathbf{M}^{\text{pref}}_{l,h} \circ \mathbf{Z}_{l,h}\),其中 \(\gamma > 0\) 控制放大强度,\(\mathbf{M}^{\text{pref}}\) 是一个mask,只选择instruction token→prefix token的query-key对,且只放大正相关的注意力
  9. 设计动机:实验发现安全前缀的注意力权重在LLaVA中随层深度单调递减,导致模型在初始拒绝后被"However"等过渡词引导生成不安全内容;注意力校准确保安全信号在所有层持续激活

损失函数 / 训练策略

  • 无需训练,纯推理时方法
  • OT求解使用Sinkhorn算法(高效迭代)
  • 安全检测阈值 \(\tau=0.42\),注意力放大系数 \(\gamma > 0\) 作为超参数

实验关键数据

主实验:不安全响应率(USR)对比

模型 方法 SPA-VL ↓ MM-SafetyBench SD+TYPO ↓ FigStep ↓ Suffix ↓ Unconstrained ↓
LLaVA-1.5-7B Vanilla 46.04 40.46 58.60 62.00 97.50
+ ECSO 23.40 15.89 37.40 59.00 95.00
+ ETA 16.98 15.83 7.80 22.60 22.50
+ GuardAlign 10.31 9.65 3.40 15.30 15.00
LLaMA3.2-11B Vanilla 7.17 19.17 41.60 44.00 15.00
+ GuardAlign 1.25 2.28 3.50 3.00 3.50

消融实验:各组件贡献

配置 SPA-VL USR ↓ VQAv2 ↑ 说明
ETA baseline 16.98 78.51 CLIP检测+安全前缀
+ OT检测(替换CLIP) 12.45 78.85 OT提升检测精度
+ 注意力校准 10.31 79.21 完整GuardAlign
仅OT检测 ~14 ~79 OT贡献最大
仅注意力校准 ~13 ~79 校准也有独立贡献

关键发现

  • OT检测 vs CLIP:OT在SPA-VL上实现安全/不安全样本的清晰分离,而CLIP相似度分数严重重叠
  • 注意力校准防止"However"攻击:校准后前缀注意力在各层保持稳定,不再出现初始拒绝后转向不安全内容的问题
  • 通用能力不降反升:GuardAlign在VQAv2上从78.51%提升到79.21%,在MME等基准上也有提升——因为遮蔽无关patch和校准注意力也减少了多模态融合中的语义噪声
  • 效率优势:推理时间开销极小,Sinkhorn算法收敛快

亮点与洞察

  • OT用于安全检测的新视角:将图像安全检测重新建模为分布距离问题,比逐patch余弦相似度更鲁棒。巧妙之处在于OT的传输计划天然提供了"哪些patch最可疑"的信息
  • 安全前缀注意力衰减的发现:这个观察解释了为什么简单添加安全前缀不够——模型在深层"遗忘"了安全指令。注意力校准是一个轻量且有效的修复
  • 安全+能力的正和博弈:通常安全防御会牺牲能力,但GuardAlign的patch遮蔽和注意力校准同时减少了多模态融合噪声,实现安全和能力的双赢

局限性 / 可改进方向

  • 依赖预定义不安全类别:需要事先定义不安全语义类别列表,可能无法覆盖新型攻击
  • 阈值τ需手动设定\(\tau=0.42\) 是实验调优结果,不同模型/场景可能需要不同阈值
  • 仅处理视觉侧攻击:对纯文本越狱攻击的防御依赖安全前缀,没有专门的文本侧检测
  • 改进思路:可以用LLM自动生成不安全类别列表实现自适应;可以结合SSAH的推理方向重评估思路,在每步生成时动态调整注意力校准强度

相关工作与启发

  • vs ECSO:ECSO用CLIP检测+安全前缀,GuardAlign在两个环节都做了改进(OT替换CLIP + 注意力校准加强前缀)
  • vs ETA:ETA是GuardAlign的直接前身,GuardAlign解决了ETA的两个核心缺陷
  • vs VLGuard (Posthoc-LoRA):VLGuard需要微调,GuardAlign无需训练;且GuardAlign在通用能力上更优

评分

  • 新颖性: ⭐⭐⭐⭐ OT用于安全检测+注意力校准的组合新颖,但每个组件并非全新
  • 实验充分度: ⭐⭐⭐⭐⭐ 6个模型×5个安全基准+多个通用基准,非常全面
  • 写作质量: ⭐⭐⭐⭐ 条理清晰,理论分析加分
  • 价值: ⭐⭐⭐⭐ 实用性强的推理时防御方案,易于部署