ConsistRM: Improving Generative Reward Models via Consistency-Aware Self-Training¶
会议: ACL 2026
arXiv: 2604.07484
代码: GitHub
领域: 对齐RLHF / 奖励模型
关键词: 生成式奖励模型, 自训练, 一致性感知, 伪标签, 位置偏差
一句话总结¶
ConsistRM 提出基于一致性感知的自训练框架,通过时序一致性伪标签(融合在线状态和历史记忆的偏好一致性)和语义一致性批评奖励(衡量多次生成批评的语义相似度)两个模块,在无需人工标注的条件下将生成式奖励模型的五个基准平均性能提升 1.5%,同时显著缓解了位置偏差问题。
研究背景与动机¶
领域现状:生成式奖励模型(GRM)通过生成文本批评和偏好标签来替代传统标量奖励模型,具有更强的表达能力和泛化性。代表性工作包括 DeepSeek-GRM(生成批评+自推导规则)和 RM-R1(蒸馏推理轨迹+强化学习)。
现有痛点:GRM 训练面临两大挑战:(1) 依赖昂贵的人工标注数据,限制了可扩展性;(2) 自训练方法(如 TTRL 的多数投票伪标签)容易导致 reward hacking 和对噪声伪标签的早期过拟合,因为奖励信号与策略模型高度耦合。
核心矛盾:自训练需要可靠的伪标签,但模型生成的伪标签本身就不稳定——单次投票容易受采样随机性影响,训练后期伪标签偏差累积。
本文目标:设计一个无需人工标注、稳定且有效的 GRM 自训练框架。
切入角度:利用模型内在的"一致性"信号作为自监督来源——如果模型在多次采样和多轮训练中对同一样本给出一致的偏好判断,那么这个判断更可能是正确的。
核心 idea:用时间一致性(当前轮次 + 历史记忆)构建可靠伪标签,用语义一致性(多次批评文本的相似度)提供细粒度奖励,实现无标注的稳定 GRM 自训练。
方法详解¶
整体框架¶
给定查询 \(q\) 和两个候选回答 \((a_1, a_2)\),GRM 生成结构化输出 \(o = (c, y)\),其中 \(c\) 是文本批评,\(y \in \{-1, 1\}\) 是偏好标签。ConsistRM 通过两个核心模块——一致性感知回答奖励(CAAR)和一致性感知批评奖励(CACR)——为 GRPO 强化学习提供自监督信号。
关键设计¶
-
一致性感知回答奖励 (CAAR):
- 功能:构建可靠的伪标签用于自训练
- 核心思路:融合两层一致性信号。在线状态一致性 \(s_{\text{online}}^{(n)} = \frac{1}{K}\sum_{j=1}^{K} y_j\) 聚合当前轮 \(K\) 次 rollout 的偏好预测;记忆驱动一致性 \(s_{\text{memory}}^{(n)} = \frac{1}{n-1}\sum_{i=0}^{n-1} \hat{y}^{(i)}\) 聚合历史所有轮次的伪标签。最终伪标签 \(\hat{y}^{(n)} = \text{sgn}(s_{\text{online}}^{(n)} + s_{\text{memory}}^{(n)})\),当两者不一致时输出 0(不提供监督),避免低置信度样本主导优化
- 设计动机:仅靠在线投票在训练早期不可靠,历史记忆提供稳定锚点;三元标签(+1/-1/0)显式处理不确定样本,比二元强制分类更稳健
-
一致性感知批评奖励 (CACR):
- 功能:为批评文本的质量提供细粒度奖励
- 核心思路:用 Qwen3-4B-Embedding 将每个批评 \(c_j\) 编码为向量,计算余弦相似度矩阵,按语义一致性排序,对排名前 \(p\) 且偏好正确的批评给予额外奖励 \(r_j^{(c)} = 0.1\)。直觉是:如果多次生成的批评在语义上高度一致,说明模型对该样本的评估已收敛到稳定区域
- 设计动机:CAAR 只看结果(偏好标签),CACR 补充过程监督(批评内容),两者互补。高语义一致性的批评更可能反映可靠的评估
-
格式约束与组合奖励:
- 功能:确保输出格式有效,整合多层奖励
- 核心思路:最终奖励 \(r^{(n)} = r_j^{(a,n)} + r_j^{(c,n)}\)(格式有效且 \(\hat{y} \neq 0\) 时),格式无效则 \(r = -5\),\(\hat{y} = 0\) 时 \(r = 0\)。使用 GRPO 算法进行强化训练,全局 batch size 64,学习率 1e-6,8 次 rollout,KL 系数 0.001
- 设计动机:格式约束保证输出可解析,组合奖励在不同粒度提供一致的优化方向
损失函数 / 训练策略¶
使用 GRPO 进行训练,4 个 epoch,最大生成长度 1024(训练)/ 2048(推理),温度 1.0(训练)/ 0(推理)。先做 SFT(在 HelpSteer3 上),再做 RFT(强化微调)。ConsistRM 在 RFT 阶段替换奖励信号。
实验关键数据¶
主实验¶
Qwen3-8B 上的五基准性能
| 方法 | RewardBench | PPE Pref | RM-Bench | RMB | JudgeBench | 平均 | Δ |
|---|---|---|---|---|---|---|---|
| Qwen3-8B (Base) | 81.6 | 63.8 | 75.8 | 78.8 | 54.3 | 70.9 | - |
| + SFT | 82.7 | 65.0 | 77.1 | 76.9 | 51.7 | 70.7 | -0.2 |
| + RFT | 85.4 | 65.4 | 78.2 | 78.2 | 55.4 | 72.5 | +1.6 |
| + TTRL | 85.3 | 65.0 | 77.4 | 74.2 | 56.8 | 71.7 | +0.8 |
| + ConsistRM | 85.6 | 67.7 | 78.3 | 79.1 | 56.9 | 73.5 | +2.6 |
消融实验¶
| 配置 | RewardBench | PPE | RM-Bench | RMB | JudgeBench | 平均 | Δ |
|---|---|---|---|---|---|---|---|
| ConsistRM | 85.6 | 67.7 | 78.3 | 79.1 | 56.9 | 73.5 | - |
| w/o CACR | 84.9 | 64.8 | 77.3 | 78.1 | 56.0 | 72.2 | -1.3 |
| w/o Online-State | 85.5 | 64.1 | 78.6 | 76.7 | 56.7 | 72.3 | -1.2 |
| w/o Memory-Driven | 84.3 | 63.1 | 75.4 | 74.2 | 54.8 | 70.4 | -3.2 |
关键发现¶
- Memory-Driven 一致性偏好是最关键组件(去掉后下降 3.2 分),说明历史信息对伪标签质量至关重要
- ConsistRM 在位置偏差缓解上提升显著(+5.3 vs RFT 的 +1.4),因为一致性奖励鼓励模型关注内容而非位置
- ConsistRM 使 4B 模型通过多轮投票可达到 8B 模型的性能水平
- 用 token 级置信度(DeepConfidence)替代 CACR 会导致 reward hacking 和性能下降
亮点与洞察¶
- "一致性即可靠性"的核心假设简洁有力——利用模型内在的一致性信号替代外部标注
- 时间维度的记忆机制(历史伪标签聚合)是关键创新,提供了跨训练轮次的稳定锚点
- 三元标签设计(+1/-1/0)优雅地处理了不确定样本,避免噪声标签污染
- 在生成效率上也有改进——ConsistRM 生成更简洁的批评(1717 vs 1924 token)
局限与展望¶
- 语义一致性评估仅在整体批评级别,未能细粒度对齐批评的各个语义片段
- 仅在 Qwen3 和 LLaMA-3.1 上验证,跨更多模型家族的泛化性待验证
- 一致性奖励的超参数(top-p 比例、CACR 奖励值 0.1)可能需要针对不同任务调整
相关工作与启发¶
- vs TTRL: TTRL 用多数投票作为伪标签,但缺乏跨轮次的时间一致性,后期容易偏差累积;ConsistRM 引入历史记忆显著缓解此问题
- vs DeepSeek-GRM: 后者需要人工标注的奖励信号,ConsistRM 完全无标注
- 启发:一致性信号可能是自训练场景中一种通用的、低成本的质量信号
评分¶
- 新颖性: ⭐⭐⭐⭐ 一致性感知的自训练范式设计巧妙,尤其是时间一致性记忆机制
- 实验充分度: ⭐⭐⭐⭐⭐ 五基准、四模型、完整消融、位置偏差和多轮投票分析
- 写作质量: ⭐⭐⭐⭐ 方法描述清晰,实验分析详尽
- 价值: ⭐⭐⭐⭐ 为无标注 GRM 训练提供了实用且有效的方案
相关论文¶
- [ICLR 2026] P-GenRM: Personalized Generative Reward Model with Test-time User-based Scaling
- [ACL 2026] Aligning Agents via Planning: A Benchmark for Trajectory-Level Reward Modeling
- [ICML 2025] Truly Self-Improving Agents Require Intrinsic Metacognitive Learning
- [CVPR 2026] QuantVLA: Scale-Calibrated Post-Training Quantization for Vision-Language-Action Models
- [ACL 2026] SpecBound: Adaptive Bounded Self-Speculation with Layer-wise Confidence Calibration