跳转至

EditReward: A Human-Aligned Reward Model for Instruction-Guided Image Editing

会议: ICLR 2026
arXiv: 2509.26346
代码: GitHub (有)
领域: 图像编辑 / 奖励模型
关键词: 图像编辑, 奖励模型, 人类偏好, 数据筛选, VLM

一句话总结

构建了一个包含 200K 人工标注偏好对的高质量数据集 EditReward-Data,训练出 EditReward 奖励模型,在多个图像编辑评估基准上达到 SOTA 的人类对齐度,并验证其作为数据筛选器可显著提升下游编辑模型性能。

研究背景与动机

指令引导的图像编辑(Instruction-Guided Image Editing)近年来取得了巨大进展,闭源模型如 GPT-Image-1、Seedream 表现优异,但开源模型仍有明显差距。核心瓶颈在于缺乏可靠的奖励模型来筛选和扩展高质量训练数据。

现有的评估/奖励手段存在三大问题: 1. 感知分数(如 LPIPS):无法捕捉与指令的语义对齐 2. 特征分数(如 CLIP):无法理解编辑语义 3. VLM-as-judge(如 VIEScore):通用 VLM 未针对编辑任务优化

已有的微调 reward model 要么依赖噪声众包标注(低一致性),要么使用闭源模型生成的伪标签(有偏差)。核心矛盾是:需要高质量人工标注的偏好数据来训练可靠的 reward model,但此前缺乏这样的大规模数据集。

切入角度:构建大规模、高质量、多维度的专家标注偏好数据集,训练专门针对图像编辑任务的 reward model。

方法详解

整体框架

EditReward 包含三个核心组件: 1. EditReward-Data:200K 专家标注偏好对数据集 2. EditReward 模型:基于 VLM 的多维不确定性感知排序奖励模型 3. EditReward-Bench:多路偏好排序评测基准

关键设计

  1. EditReward-Data 数据构建
  2. 从 6 个编辑基准收集 9557 个指令-图像对(GEdit-Bench、ImgEdit-Bench、MagicBrush 等)
  3. 使用 6 个 SOTA 编辑模型(Step1X-Edit、Flux-Kontext、Qwen-Image-Edit 等)各生成多组输出
  4. 关键:训练有素的标注员按严格协议标注,采用 4 级 Likert 量表在两个维度评分:
    • Instruction Following(IF):语义准确性、完整性、无多余改动
    • Visual Quality(VQ):合理性、无伪影、美学
  5. Krippendorff's α 达到 IF=0.668, VQ=0.597,证明高标注质量

  6. 多维不确定性感知排序损失(Multi-Dimensional Uncertainty-Aware Ranking)

  7. 受 HPSv3 启发,将分数建模为高斯分布 \(s_{i,d} \sim \mathcal{N}(\mu_{i,d}, \sigma_{i,d}^2)\),其中 \(d \in \{1,2\}\) 对应 IF 和 VQ 两个维度
  8. 使用多任务学习(MTL),reward head 为每个维度独立预测高斯参数
  9. 聚合策略探索了三种方式:悲观最小值、均衡平均、直接求和
  10. 最终偏好概率通过两个聚合分布的积分计算:\(\mathcal{L}_{\text{rank}} = -\log(P(I_h \succ I_l))\)

  11. Tie 样本解耦增强(Disentangling Ties via Dimensional Preference)

  12. 核心洞察:整体打平的样本对往往在不同维度各有优势(A 的 IF 更好,B 的 VQ 更好)
  13. 将打平对 \((I_A, I_B)_{\text{tie}}\) 拆分为两个训练样本,分别标注为 \(I_A \succ I_B\)\(I_B \succ I_A\)
  14. 迫使模型学习更细粒度的维度间权衡,带来更平滑的训练曲线

损失函数 / 训练策略

  • 骨干网络:Qwen2.5-VL-7B 或 MiMo-VL-7B,全参数解冻
  • 2 epochs,8×A800 GPU,学习率 2e-6,cosine schedule
  • 图像预处理至 448×448,保持宽高比
  • 总损失为排序损失 \(\mathcal{L}_{\text{rank}} = -\log(P(I_h \succ I_l))\)

实验关键数据

主实验

方法 GenAI-Bench AURORA-Bench ImagenHub EditReward-Bench
GPT-4o 53.54 50.81 38.21 28.31
GPT-5 59.61 47.27 40.85 37.81
Gemini-2.5-Flash 57.01 47.63 41.62 38.02
Qwen2.5-VL-7B-Inst 40.48 38.62 18.59 29.75
EditReward (Qwen) 63.97 59.50 36.18 36.78
EditReward (MiMo) 65.72 63.62 35.20 38.42

EditReward 全面超越 GPT-5 和 Gemini-2.5-Flash 等闭源模型。

数据筛选应用实验

使用 EditReward 从 ShareGPT-4o-Image(46K)中筛选高质量子集微调 Step1X-Edit:

训练数据 GEdit-EN G_O GEdit-CN G_O
Step1X-Edit 原始 6.444 6.779
+ 全量 ShareGPT-4o 6.780 6.583
+ Top 10K(EditReward 筛选) 6.938 7.000
+ Top 20K(EditReward 筛选) 7.086 7.074
+ Top 30K(EditReward 筛选) 6.962 6.938
Doubao-Edit 6.983 6.942

Top 20K 为最优平衡点,将开源 Step1X-Edit 提升至接近 Doubao-Edit 水平。

消融实验

变体 损失类型 Head 类型 聚合方式 GenAI-Bench
I 逐点回归 N/A N/A 49.62
II 成对排序 共享 均值 60.17
V(最终) 成对排序 多独立 均值 63.97
  • 成对排序 >> 逐点回归(+14.35)
  • 多独立 Head >> 共享 Head(+3.80)
  • 均值聚合整体最优

关键发现

  • 训练后 Qwen2.5-VL-7B 在 GenAI-Bench 上提升超过 23 点(40.48→63.97),证明框架本身的强大提升效果
  • EditReward 在 OOD 任务(Text/Style 类别)上与 GPT-4o 表现相当(46.80 vs 41.69)
  • 数据质量比数量更重要:Top 20K 优于 Full 46K

亮点与洞察

  • 200K 规模的专家标注偏好数据集质量极高(Krippendorff's α > 0.59),远优于众包数据
  • 多维度(IF + VQ)解耦设计有实证支撑:IF 维度的 IAA 确实高于 VQ,验证了分维度建模的必要性
  • Tie 解耦增强是一个简单但有效的技巧,充分利用了标注数据中的信息
  • 作为数据筛选器的应用价值直接且可量化,2.61 GPU 小时完成 46K 样本评分

局限性 / 可改进方向

  • 标注维度仅 2 个(IF 和 VQ),可能无法覆盖编辑质量的所有方面,如空间一致性、风格保持等
  • 主要在 7B 规模 VLM 上验证,更大/更小模型的效果未知
  • 数据筛选实验仅验证了一个下游模型(Step1X-Edit),泛化性有待验证
  • EditReward-Bench 的多路偏好(K=4)准确率仍较低(~11%),说明任务仍很有挑战

相关工作与启发

  • HPSv3:不确定性感知排序的先驱,但只有单维度
  • ImageRewardDB:早期偏好数据集,但噪声大且维度单一
  • ADIEE:使用模型标签训练,有偏差
  • 启发:高质量人工标注 + 多维度解耦是构建可靠 reward model 的关键路径

评分

  • 新颖性: ⭐⭐⭐⭐ 多维不确定性感知排序和 Tie 解耦是亮点,但整体框架较标准
  • 实验充分度: ⭐⭐⭐⭐⭐ 4 个 benchmark 评测 + 数据筛选应用 + 详尽消融 + OOD 测试
  • 写作质量: ⭐⭐⭐⭐ 结构清晰,数据详实,但部分符号较密集
  • 价值: ⭐⭐⭐⭐⭐ 数据集和模型都将开源,对图像编辑社区有重要推动作用