⚖️ 对齐/RLHF¶
💬 ACL2026 · 8 篇论文解读
- Beyond Marginal Distributions: A Framework to Evaluate the Representativeness of Demographic-Aligned LLMs
-
本文提出了一种超越边际分布的 LLM 代表性评估框架,通过同时考察边际响应分布和跨问题相关结构来评估人口统计对齐模型,发现虽然微调和 persona prompting 能改善边际分布的近似度,但两者都无法忠实再现人类价值观调查中的多变量相关模式。
- Into the Gray Zone: Domain Contexts Can Blur LLM Safety Boundaries
-
本文发现领域特定上下文(如化学论文)会选择性放松 LLM 对相关有害知识的防护(纵向解锁),而安全研究上下文会触发跨所有有害类别的广泛防护放松(通用解锁),据此提出 Jargon 攻击框架,在包括 GPT-5.2、Claude-4.5 在内的七个前沿模型上实现超 93% 的攻击成功率。
- Reward Modeling for Scientific Writing Evaluation
-
本文提出 SciRM 和 SciRM-Ref 两个针对科学写作评估的开源奖励模型,通过两阶段强化学习(GRPO)分别优化评估偏好和推理能力,实现了在多种科学写作任务上的细粒度多方面评估,并能泛化到未见过的评估任务和标准。
- SafeMERGE: Preserving Safety Alignment in Fine-Tuned Large Language Models via Selective Layer-Wise Model Merging
-
本文提出 SafeMERGE,一种轻量级后微调框架,通过余弦相似度检测偏离安全行为的微调层,仅将这些层与安全模型的对应层合并,在四个 LLM 上显著降低有害输出同时保持甚至提升任务性能。
- SFTMix: Elevating Language Model Instruction Tuning with Mixup Recipe
-
本文提出 SFTMix,一种基于 Mixup 的指令微调方法,通过训练动态将 SFT 数据集分为高置信度和低置信度子集,在隐表示空间对两者进行线性插值并施加 Mixup 正则化,在不依赖高质量数据集的情况下,跨 LLM 家族和数据集规模一致性地提升指令遵循能力。
- STAR-Teaming: A Strategy-Response Multiplex Network Approach to Automated LLM Red Teaming
-
本文提出 STAR-Teaming,一种基于策略-响应多路复用网络(Multiplex Network)的自动化红队测试框架,通过将攻击策略选择建模为逆 Ising 问题的概率优化,在 HarmBench 上达到平均 74.5% 的攻击成功率,比最强基线高 13.5%,同时显著降低计算开销。
- Towards Bridging the Reward-Generation Gap in Direct Alignment Algorithms
-
本文识别了直接对齐算法(DAAs)中的"奖励-生成鸿沟"——训练目标与自回归解码动态之间的不匹配,提出 POET(Prefix-Oriented Equal-length Training),通过将偏好响应对截断为较短者长度来隐式约束 token 级 MDP 在所有时间步上收敛,在 AlpacaEval 2 上最高提升 11.8 个百分点。
- TrajGuard: Streaming Hidden-state Trajectory Detection for Decoding-time Jailbreak Defense
-
本文提出 TrajGuard,一种无需训练的解码时越狱防御框架,通过滑动窗口聚合关键层隐藏状态轨迹实时量化风险,仅在风险持续超过阈值时触发轻量级语义裁判,在 12 种越狱攻击上实现 95% 平均防御率,检测延迟仅 5.2ms/token,误报率低于 1.5%。