跳转至

Rel-Zero: Harnessing Patch-Pair Invariance for Robust Zero-Watermarking Against AI Editing

会议: CVPR 2026
arXiv: 2603.17531
代码: 无
领域: 图像生成
关键词: 零水印, 图像编辑鲁棒性, patch关系不变性, 内容认证, 扩散模型

一句话总结

本文发现图像patch对之间的关系距离在AI编辑后保持不变,并利用该不变性构建了一种零水印框架Rel-Zero,无需修改原图即可实现对多种生成式编辑的鲁棒内容认证。

研究背景与动机

领域现状:数字水印是保护图像版权和认证内容真实性的关键技术。现有方法分为嵌入式水印(在图像中注入信号)和零水印(不修改图像,提取特征指纹存储在外部数据库中)。

现有痛点:嵌入式水印(如VINE、RobustWide)为了抵抗扩散模型编辑,必须注入强信号,这不可避免地引入可感知的失真,降低图像质量。零水印方法虽然保持完美图像质量,但依赖全局特征(SIFT、深度分类器的绝对特征描述子),这些特征恰恰是生成模型擅长改变的,导致鲁棒性极低。

核心矛盾:保真度与鲁棒性的trade-off——嵌入式方法牺牲质量换鲁棒性,零水印方法保持质量但鲁棒性差。在医学影像、自动驾驶等高精度领域,水印引入的噪声可能导致灾难性后果。

本文目标 在不修改原图的前提下(零水印),实现对生成式AI编辑的高鲁棒性认证。

切入角度:作者通过大规模实验分析发现,虽然AI编辑会大幅改变单个patch的像素值和绝对特征,但patch对之间的关系距离(pairwise distance)却保持惊人的不变性。\(d_{ij}^{\text{after}} \approx \alpha \cdot d_{ij}^{\text{before}} + \beta\),其中 \(\alpha \approx 1, \beta \approx 0, R^2 > 0.95\)

核心 idea:利用patch对关系距离的编辑不变性作为零水印的基础,将水印构建为一组稳定patch对的索引集合。

方法详解

前置发现:Patch对距离的编辑不变性

在提出方法前,作者首先进行了大规模实证研究。从UltraEdit和MagicBrush数据集中随机采样10000张图像,覆盖确定性重生成(2000张)、全局编辑(4000张)和局部编辑(4000张)三类编辑场景。将图像划分为 \(N=256\) 个不重叠patch,用RGB均值向量 \(\{v_i\}_{i=1}^N\) 表征每个patch,计算所有 \(\binom{N}{2}\) 个patch对在编辑前后的L2距离差异。

关键发现:距离差异呈近零均值、紧密分布的模式,无明显系统性偏差。进一步做距离-距离相关性分析,发现编辑前后距离满足强线性关系 \(d_{ij}^{\text{after}} \approx \alpha \cdot d_{ij}^{\text{before}} + \beta\),其中斜率 \(\alpha \approx 1\)、截距 \(\beta \approx 0\)、决定系数 \(R^2 > 0.95\)、Spearman相关系数 \(\rho \approx 1\)。这揭示了特征空间中的近仿射不变性:patch间相对距离在编辑后仅发生均匀缩放。

理论解释有两个层面:(1)扩散编辑模型训练时显式或隐式包含内容/结构保持损失(LPIPS、L1/L2重建损失),惩罚不必要的扰动,使跨patch关系成为模型优化保持的核心不变量;(2)语义编辑对应潜空间中的低维方向,解码后在图像统计量上施加近似均匀的变换。当变换近似仿射 \(v_i' \approx Av_i + b\) 时,\(v_i' - v_j' \approx A(v_i - v_j)\),距离仅被缩放但关系保持。

整体框架

Rel-Zero包含三个阶段:(1)稳定patch对识别——通过VAE模拟编辑,找到ground-truth不变patch对作为训练目标;(2)Patch关系学习——训练一个轻量级edge predictor学习从单张图像预测稳定patch对;(3)水印生成与验证——提取top-K预测对作为零水印。关键在于推理时仅需阶段(2)的网络,输入一张图即可输出水印索引集合,无需VAE或编辑操作。

关键设计

  1. 稳定Patch对识别(训练目标构建):

    • 功能:构建训练用的ground-truth稳定patch对集合 \(\mathcal{E}_g\)
    • 核心思路:用预训练VAE模拟生成式编辑(受VINE启发),将原始图像和VAE重建图像分别通过ViT提取patch-level特征 \(\mathcal{F} = \phi_{\text{vit}}(\mathbf{I})\),计算patch对在编辑前后的L2距离差异 \(s_{ij} = \exp(-|d_{ij} - \hat{d}_{ij}|)\),选择稳定性分数最高的top-K对作为ground-truth
    • 设计动机:VAE重建对patch关系的影响与扩散编辑类似(受VINE工作启发),但计算代价小得多——不需要运行完整的扩散编辑pipeline。使用ViT高维特征而非RGB向量进行距离计算,能捕获更丰富的语义关系。注意发现阶段用RGB均值做分析,但方法阶段升级到ViT特征,这增强了表达能力
  2. Patch关系学习(Edge Predictor):

    • 功能:训练一个轻量级预测器,从单张图像预测哪些patch对是稳定的
    • 核心思路:对ViT提取的N个patch特征构建全连接pair集合 \(\mathcal{E}\),每个pair \((i,j)\) 的特征为 \(\mathbf{f}_i \oplus \mathbf{f}_j \oplus \|\mathbf{f}_i - \mathbf{f}_j\|_2\)(拼接+距离),通过MLP \(\psi\) 和sigmoid \(\sigma\) 输出预测分数 \(p_{ij} = \sigma(\psi(\mathbf{f}_i \oplus \mathbf{f}_j \oplus \|\mathbf{f}_i - \mathbf{f}_j\|_2))\)
    • 设计动机:简单的MLP就足够——消融实验证明Transformer或GAT反而会模糊patch间的精细距离差异(Transformer降至92.11%,GAT至94.45%,而MLP达97.43%)。关键信息在于patch对的局部距离特征,注意力机制会混合patch表征,反而损害精确的距离判别能力。这是一个"less is more"的设计哲学
  3. 水印生成与验证:

    • 功能:基于预测器输出生成/验证零水印
    • 核心思路:生成时取top-K最自信的预测对 \(\mathcal{E}_p = \text{Top-K}(\Phi(\phi_{\text{vit}}(\mathbf{I})))\) 作为水印索引存储;验证时对嫌疑图像提取同样的top-K对 \(\mathcal{E}_p'\),计算Jaccard重叠率 \(\eta = |\mathcal{E}_p \cap \mathcal{E}_p'| / K\) 作为认证依据
    • 设计动机:将水印编码为patch对索引而非数值特征,天然适应仿射变换不变性——因为关系保序性而非绝对数值。索引集合可以哈希加密存储在外部数据库中(论文附录有安全存储方案)。验证阈值基于目标误报率(FPR=0.1%)校准,确保高置信度认证

损失函数 / 训练策略

使用标准二元交叉熵损失训练edge predictor:\(\mathcal{L}_{BCE} = -\sum_{i \neq j} [y_{ij} \log(\hat{y}_{ij}) + (1-y_{ij})\log(1-\hat{y}_{ij})] / N(N-1)\),其中 \(y_{ij}=1\) 对应top-K不变对(正样本),\(y_{ij}=0\) 对应其余pair(负样本)。正负样本比例约为 \(K : \binom{N}{2}-K\),极度不平衡(\(K=50\) vs \(\sim\)19000负样本),但BCE在此场景下仍有效工作。

实现细节:ViT-B/16作为冻结的特征提取器(不参与训练),Stable Diffusion v1.4的VAE用于生成训练目标,\(K=50\) pairs,patch大小 \(16 \times 16\)\(N=196\) patches for 224×224图像),在COCO数据集上训练,NVIDIA A100 GPU。

实验关键数据

主实验

方法 类型 PSNR↑ Regen Pix2Pix Magic Ultra CtrlN Cropout Scale Contrast Bright Gauss
DWT-DCT 嵌入 40.38 0.09 0.04 0.05 0.32 0.56 10.35 6.78 30.18 51.88 12.45
RobustWide 嵌入 41.93 90.41 97.23 81.97 80.45 82.11 95.31 96.45 98.93 98.89 98.12
VINE 嵌入 37.34 99.98 97.46 94.58 99.96 93.04 54.87 76.43 98.43 97.90 98.37
ConZWNet 零水印 0.10 0.02 0.01 5.13 2.41 98.75 97.43 96.22 96.56 98.75
FGPCET 零水印 1.13 0.54 0.11 7.25 3.22 89.31 84.78 86.31 85.44 84.67
Rel-Zero 零水印 85.13 89.65 95.63 96.55 97.43 98.45 98.57 96.45 97.93 95.12

所有TPR@(0.1%FPR)。核心结论: - Rel-Zero在零水印类别中碾压前作(其他零水印在生成编辑下TPR<10%,Rel-Zero达85-97%) - 在局部编辑(Ultra/CtrlN)上甚至超过嵌入式VINE和RobustWide - 常规扰动下Rel-Zero也保持98%+鲁棒性,因为unifrom变换保持patch对关系几何 - VINE在Cropout(54.87%)和Scaling(76.43%)上表现较差,而Rel-Zero天然鲁棒

消融实验

模型配置 TPR@(0.1%FPR) 说明
Ours (ViT + MLP) 97.43 完整模型
ViT → ResNet-18 84.13 Backbone弱导致特征不够好
ViT → ResNet-50 85.21 ResNet仍不如ViT的patch-level表征
MLP → Transformer+MLP 92.11 注意力模糊了距离差异
MLP → GAT+MLP 94.45 GAT有类似问题但稍好

唯一性分析

在COCO、UltraEdit、MagicBrush三个数据集上各采样1000张图像,计算所有图像对的水印Jaccard重叠率。实验表明不同图像间的 \(\eta_{a,b}\) 集中在近零值,方差极小,验证了学到的关系对是图像特定的签名而非通用模板。

参数分析

  • Top-K影响\(K\) 增大时鲁棒性稳步提升,但 \(K=50\) 后收益饱和。ControlNet-Inpainting和UltraEdit最鲁棒,Regeneration最具挑战性
  • Patch大小影响\(14 \times 14\)\(16 \times 16\) 效果接近,\(32 \times 32\) 性能骤降——过粗的划分削弱了关系建模能力,patch对过稀疏

关键发现

  • ViT backbone贡献最大——因为ViT天然产生patch-level特征,对关系距离变化更敏感。ResNet虽有强特征提取能力但缺乏patch-wise结构
  • 简单MLP优于Transformer/GAT——pair预测本质是距离估计任务,注意力机制反而模糊了精细距离差异
  • 常规扰动(噪声、缩放、对比度、亮度)本质上是对图像施加均匀变换,不改变patch对的相对关系,故Rel-Zero天然鲁棒
  • 全局编辑(如Regeneration)仍是最大挑战——因为大规模语义变化可能破坏部分patch关系

亮点与洞察

  • Patch-pair关系不变性的发现极为巧妙。作者通过10000张图像的统计分析,发现编辑前后patch对距离呈近完美线性关系(\(R^2 > 0.95\)),这为零水印提供了坚实的理论基础
  • 用VAE模拟扩散编辑来生成训练数据是很聪明的设计——降低了数量级的计算开销,又保持了对扩散过程结构性影响的近似
  • 将水印编码为图索引(edge set)的范式值得借鉴——可迁移到视频水印(时空patch对)、3D模型水印(体素对关系)

局限与展望

  • 分辨率限制:训练和测试全部在224×224上进行,实际应用中高分辨率图像(如4K医学影像)的效果未验证。高分辨率下patch数量剧增(\(N\) 从196到数千),pair数量呈 \(O(N^2)\) 增长,计算效率是问题
  • 编辑模型泛化:仅在5种编辑模型上测试,对未来更强大的编辑器(如基于视频扩散的编辑、3D-aware编辑)的泛化能力未知
  • 对抗安全性:攻击者如果知道patch划分方式、\(K\) 值和ViT类型,可能设计针对性攻击来破坏特定patch对的关系
  • 正负样本不平衡:BCE损失下 \(K=50\) vs \(\sim\)19000 的极端不平衡,可以尝试focal loss或自适应采样
  • 可扩展方向:多尺度patch划分增强鲁棒性;时序扩展到视频水印;结合语义分割的自适应patch划分

相关工作与启发

  • vs VINE/RobustWide(嵌入式): 通过对抗训练将编辑模型纳入优化,鲁棒性强但代价是图像质量下降(VINE的PSNR仅37.34dB)和巨大的训练开销。Rel-Zero在保持完美保真度(PSNR=∞)的同时,在局部编辑(Ultra 96.55% vs VINE 99.96%、CtrlN 97.43% vs VINE 93.04%)和常规扰动上表现相当甚至更优
  • vs ConZWNet/FGPCET(零水印): 同为零水印但思路完全不同。前者依赖深度特征的绝对描述子或手工特征,这些恰恰是生成模型擅长改变的,导致AI编辑下几乎完全失效(TPR < 10%)。Rel-Zero通过发现并利用关系不变性,鲁棒性提升了两个数量级
  • vs 传统DWT-DCT: 频域嵌入方法在AI编辑下完全失效(TPR < 1%),说明频域信号在扩散重建过程中被彻底破坏
  • 关联思考:关系不变性的insight可迁移到其他认证场景——如deepfake检测中利用面部patch间的关系一致性

评分

  • 新颖性: ⭐⭐⭐⭐ patch对关系不变性的发现有insight,但框架整体较直接
  • 实验充分度: ⭐⭐⭐⭐ 跨多种编辑模型测试,有唯一性分析和参数消融,但缺少高分辨率实验
  • 写作质量: ⭐⭐⭐⭐⭐ 逻辑清晰,从观察到假设到验证到方法的叙述链条非常流畅
  • 价值: ⭐⭐⭐⭐ 为零水印领域提供了新范式,在高保真场景有实际应用价值

相关论文