3. RLHF
介绍基于人类反馈的强化学习(RLHF)技术
参考资料
论文
RLHF 概述
什么是 RLHF
RLHF 很早便被应用于控制问题和传统的强化学习领域中,其目标是优化特定行为以解决任务
基本思想
RLHF 的核心思想是“能否仅用引导优化过程的基本偏好信号来解决难题?“,这是因为很多真实世界任务“无法被精确写成一个奖励函数”
人类偏好是隐性的、主观的、上下文相关的
很多“好不好”的判断无法用规则或指标表达
但人类可以进行相对判断(A 比 B 好)
因此 RLHF 的核心问题可以概括为:能否仅用人类的偏好信号,引导模型优化复杂目标
这也是 RLHF (Reinforcement Learning from Human Feedback) 名字的来源:不是从环境奖励,而是从 Human Feedback 中学习
RLHF 的基本流程包括三个步骤

Figure 1:A rendition of the early, three stage RLHF process with SFT, a reward model, and then optimization. 首先,必须训练一个能够回应用户问题的语言模型
其次,必须收集人类偏好数据,用于训练人类偏好的奖励模型
最后,可以通过选择的强化学习优化器来优化语言模型,即生成样本并根据奖励模型对其进行评分
RLHF 是 Post-Training 的一个组成部分,Post-Training 可以总结为使用三种优化方法的多阶段训练过程:
指令 / 监督微调(Instruction / Supervised Fine-tuning,IFT/SFT)
教授模型格式,奠定其遵循指令能力的基础,其核心是学习语言中的特征,使其能以可靠的问答格式进行响应
其目标函数决定,训练目标是训练模型在输入文本与见过的示例相近时,预测出特定的下一个 token,让模型更规律地输出文本中的特定特征,属于逐 token(per-token)层面的更新
偏好微调(Preference Fine-tuning,PreFT)
使模型与人类偏好对齐,同时小幅提升模型能力,重点关注语言风格及难以量化的细微人类偏好
RLHF 在指令微调基础上进一步优化模型回答,将其打造为可靠、温和且具吸引力的内容,符合当下人们对语言模型回答的期待
与监督微调的目标不同,RLHF 在 Response 的整体层面对模型响应进行调整,关注回复的完整性与质量
学习目标:RLHF 不指定模型必须学习的特定回复,而是明确告知模型什么样的回复更优,引导模型向符合人类偏好的方向优化
除正向引导外,还会向模型展示应避免的回复类型(如负面反馈),帮助模型规避低质量输出
通常采用对比损失函数实现上述训练目标
具有可验证奖励的强化学习(Reinforcement Learning with Verifiable Rewards,RLVR)
最新的 Post-Traing 方法,通过强化学习训练,提升模型在可验证领域的性能
实际上,Post-Training 阶段涵盖预训练结束后的所有优化技术,包括“中期训练调整”(如预训练末期的高质量网页数据补充、学习率退火)、指令微调(instruction tuning)、可验证奖励强化学习(RLVR)、偏好微调(preference-tuning)等,是预训练的延伸与优化
Post-Training 为什么能够提升基础模型的性能
诱导解释:Post-Training 并非为模型注入新能力,而是放大基础模型中已有的有价值行为
未经后续优化的基础模型本身已蕴含大量从大规模数据中学习到的语言理解、知识储备等核心能力基础
但是其原生训练目标是“下一个 token 预测”—— 即根据前文生成连贯的下一个文本单元,而非直接响应人类的 “问答格式”
要让基础模型从“单纯的文本续写工具” 变成 “符合人类交互习惯的优秀模型”,就需要通过 Post-Training 阶段(如指令微调、RLHF 等)进行针对性优化,弥补格式适配、风格调整等短板,最终释放其潜力
RLHF 的发展历程
背景与起点:ChatGPT 发布,RLHF 开始引发关注
早期开源模型时代(Alpaca、Vicuna 等):用少量人类数据点 + Self-Instruct 风格合成数据,微调原始 LLaMA 模型,以实现类 ChatGPT 行为
对 RLHF 的质疑期:OpenAI 强调 RLHF 对 ChatGPT 成功至关重要,但多数企业怀疑其必要性,认为 “指令微调足以实现对齐”,该观点影响力持续至今;早期采用 RLHF 的企业(如 Anthropic)胜出,其 2022 年发表大量 RLHF 研究,被认为拥有最佳训练后处理技术;开源团队与闭源团队差距显著,前者甚至难以复现闭源基础技术
开源方案的关键转折——DPO 技术出现:2023 年 5 月提出的直接偏好优化(DPO),可通过直接对成对偏好数据做梯度计算,用更少 “可动组件” 解决与 RLHF 相同的优化问题
近期发展:2023 年底起,偏好调优成为发布优质模型的 “基础要求”;2024 年 DPO 算法变体不断,但开源训练后处理方案陷入 “知识与资源饱和” 的停滞期;Zephyr 和 Tülu 2 问世一年后,其使用的 UltraFeedback 数据集仍是开源偏好调优的 “最先进方案”;Llama 3.1、Nemotron 4 340B 的报告显示,闭源实验室的 “全流程训练后处理”(多阶段指令微调、RLHF、提示词设计等)复杂且影响深远,学术论文仅触及表面;开源领域以 Tülu 3 为代表,尝试为学术训练后处理研究奠定基础
数学定义
语言建模概述
大多数现代语言模型都经过训练,以自回归的方式学习标记序列(单词、子词或字符)的联合概率分布
自回归简单地意味着每个下一个预测都依赖于序列中先前的实体
给定一个标记序列 $x = (x_1, x_2, \dots, x_T)$,模型将整个序列的概率分解为条件分布的乘积:
Pθ(x)=t=1∏TPθ(xt∣x1,…,xt−1)为了拟合一个能准确预测这一点的模型,目标通常是最大化当前模型预测的训练数据的似然性
为此,可以最小化负对数似然(NLL)损失:
LLM(θ)=−Ex∼D[t=1∑TlogPθ(xt∣x<t)]在实践中,针对每个下一个标记预测使用交叉熵损失,通过将序列中的真实标记与模型预测的标记进行比较来计算
语言模型有许多架构,在知识、速度和其他性能特征方面有不同的权衡
现代语言模型(包括 ChatGPT、Claude、Gemini 等)最常使用 Decoder-only Transformer
Transformer 的核心创新是大量利用自注意力机制,允许模型直接关注上下文中的概念并学习复杂的映射
在本书中,特别是在讨论奖励模型时,将讨论添加新的头部(head)或修改 Transformer 的语言建模(LM)头部
LM head 是一个模型最后的线性投影层,将模型的内部嵌入空间映射到 tokenizer 空间
语言模型的不同“头部”可以应用于将模型微调到不同的目的——在 RLHF 中,这最常用于训练奖励模型
机器学习定义
Kullback-Leibler (KL) 散度 ($D_{\text{KL}}(P \parallel Q)$),也称为 KL 散度,是衡量两个概率分布之间差异的指标
对于在同一概率空间 $X$ 上定义的离散概率分布 $P$ 和 $Q$,从 $Q$ 到 $P$ 的 KL 距离定义为:
DKL(P∥Q)=x∈X∑P(x)log(Q(x)P(x))
自然语言处理定义
提示 (Prompt, $x$):提供给语言模型以生成响应或补全的输入文本
补全 (Completion, $y$):语言模型响应对提示生成的输出文本。通常补全表示为 $y \mid x$。奖励和其他值通常计算为 $r(y \mid x)$ 或 $P(y \mid x)$
被选中的补全 (Chosen Completion, $y_c$):在其他替代方案中被选择或偏好的补全,通常表示为 $y_{\text{chosen}}$
被拒绝的补全 (Rejected Completion, $y_r$):在成对设置中不受青睐的补全
偏好关系 ($\succ$):表示一个补全优于另一个补全的符号,例如 $y_{\text{chosen}} \succ y_{\text{rejected}}$。例如,奖励模型预测偏好关系的概率,$P(y_c \succ y_r \mid x)$
策略 (Policy, $\pi$):对可能的补全的概率分布,由 $\theta$ 参数化:$\pi_\theta(y \mid x)$
强化学习定义
奖励 (Reward, $r$):表示动作或状态可取性的标量值,通常表示为 $r$
动作 (Action, $a$):智能体在环境中做出的决定或移动,通常表示为 $a \in A$,其中 $A$ 是可能动作的集合
状态 (State, $s$):环境的当前配置或情况,通常表示为 $s \in S$,其中 $S$ 是状态空间
轨迹 (Trajectory, $\tau$):轨迹 $\tau$ 是智能体经历的状态、动作和奖励的序列:$\tau = (s_0, a_0, r_0, s_1, a_1, r_1, ..., s_T, a_T, r_T)$
轨迹分布 ($(\tau \mid \pi)$):策略 $\pi$ 下轨迹的概率为 $P(\tau \mid \pi) = p(s_0) \prod_{t=0}^T \pi(a_t \mid s_t) p(s_{t+1} \mid s_t, a_t)$,其中 $p(s_0)$ 是先验状态分布,$p(s_{t+1} \mid s_t, a_t)$ 是转移概率
策略 (Policy, $\pi$),在 RLHF 中也称为策略模型:在 RL 中,策略是智能体遵循的策略或规则,用于决定在给定状态下采取哪个动作:$\pi(a \mid s)$
折扣因子 (Discount Factor, $\gamma$):标量 $0 \le \gamma < 1$,用于指数级降低未来奖励的权重,权衡即时性与长期收益,并保证无限水平总和的收敛性。有时不使用折扣,这相当于 $\gamma = 1$
价值函数 (Value Function, $V$):估计从给定状态开始的预期累积奖励的函数:$V(s) = \mathbb{E} \left[ \sum_{t=0}^\infty \gamma^t r_t \mid s_0 = s \right]$
Q函数 (Q-Function, $Q$):估计在给定状态下采取特定动作的预期累积奖励的函数:$Q(s, a) = \mathbb{E} \left[ \sum_{t=0}^\infty \gamma^t r_t \mid s_0 = s, a_0 = a \right]$
优势函数 (Advantage Function, $A$):优势函数 $A(s, a)$ 量化了在状态 $s$ 中采取动作 $a$ 相比平均动作的相对收益
定义为 $A(s, a) = Q(s, a) - V(s)$
优势函数(和价值函数)可以依赖于特定的策略,$A^\pi(s, a)$
策略条件值 ($[]^\pi(\cdot)$)
在 RL 推导和实现中,理论和实践的一个关键组成部分是收集以特定策略为条件的数据或值
后文将在价值函数的简单符号($V, A, Q, G$)与其特定的策略条件值($V^\pi, A^\pi, Q^\pi$)之间切换
在期望值计算中同样关键的是从以特定策略为条件的数据 $d$(即 $d^\pi$)中采样
例如,当估计 $\mathbb{E}_{s \sim d^\pi, a \sim \pi(\cdot \mid s)} [A^\pi(s, a)]$ 时,$s \sim d^\pi$ 且 $a \sim \pi(\cdot \mid s)$
奖励优化的期望:RL 的主要目标,涉及最大化预期累积奖励:
θmaxEs∼ρπ,a∼πθ[t=0∑∞γtrt]其中 $\rho^\pi$ 是策略 $\pi$ 下的状态分布,$\gamma$ 是折扣因子
有限水平奖励 (Finite Horizon Reward, $J(\pi_\theta)$):由 $\theta$ 参数化的策略 $\pi_\theta$ 的预期有限水平折扣回报定义为:
J(πθ)=Eτ∼πθ[t=0∑Tγtrt]其中 $\tau \sim \pi_\theta$ 表示通过遵循策略 $\pi_\theta$ 采样的轨迹,$T$ 是有限水平。
在线策略 (On-policy)
在 RLHF 中,特别是在 RL 和直接对齐算法之间的争论中,经常讨论在线策略数据
在 RL 文献中,在线策略意味着数据完全由智能体的当前形式生成
但在一般偏好微调文献中,在线策略被扩展为意味着来自该版本模型的生成,例如,在运行任何偏好微调之前的指令微调 Checkpoint
在这种情况下,离线策略(off-policy)可能是由后期训练中使用的任何其他语言模型生成的数据
仅限 RLHF 的定义
参考模型 (Reference Model, $\pi_{\text{ref}}$):这是 RLHF 中使用的一组保存的参数,其输出用于正则化优化
扩展术语表
合成数据 (Synthetic Data)
这是任何来自另一个 AI 系统输出的 AI 模型训练数据
这可以是从模型的开放式提示生成的文本,也可以是模型重写的现有内容
蒸馏 (Distillation)
蒸馏是训练 AI 模型的一组通用实践,即一个模型在更强模型的输出上进行训练
这是一种已知能生成强大、较小模型的合成数据类型
大多数模型通过许可证(对于开源权重模型)或服务条款(对于仅通过 API 访问的模型)明确了关于蒸馏的规则
术语“蒸馏”在 ML 文献中具有其特定的技术定义
(Teacher-student) 知识蒸馏 (Knowledge Distillation)
从特定教师到学生模型的知识蒸馏是上述蒸馏的一种特定类型,也是该术语的起源
这是一种特定的深度学习方法,其中神经网络损失被修改为从教师模型对多个潜在标记/对数概率的对数概率中学习,而不是直接从选定的输出中学习
使用知识蒸馏训练的现代模型包括 Gemma 2 或 Gemma 3
在语言建模设置在,下一个标记损失函数可以修改如下,其中学生模型 $P_\theta$ 从教师分布 $P_\phi$ 中学习:
LKD(θ)=−Ex∼D[t=1∑TPϕ(xt∣x<t)]
上下文学习 (In-context Learning, ICL)
这里的“上下文”是指语言模型上下文窗口内的任何信息,通常,这是添加到提示中的信息
上下文学习的最简单形式是在提示之前添加类似的示例,高级版本可以学习为特定用例包含哪些信息
思维链 (Chain-of-Thought, CoT)
思维链是语言模型的一种特定行为,通过这种行为,它们被引导以分步形式分解问题
最初的版本是通过提示“让我们一步一步思考”来实现的
问题定义
问题表述

基于人类反馈的强化学习(RLHF)的优化过程建立在标准强化学习(RL)框架之上
在标准 RL 中,智能体(Agent)根据环境状态 $s_t$,从策略 $\pi(a_t \mid s_t)$ 中采样动作 $a_t$,旨在最大化累积奖励 $r(s_t, a_t)$
传统上,环境根据转移概率(动力学) $p(s_{t+1} \mid s_t, a_t)$ 演化,初始状态分布为 $\rho_0(s_0)$,则策略与环境动力学共同诱导出轨迹分布:
pπ(τ)=ρ0(s0)t=0∏T−1π(at∣st)p(st+1∣st,at)在时间跨度为 $T$ 的有限回合(Episode)中,强化学习智能体的目标是解决以下优化问题:
J(π)=Eτ∼pπ[t=0∑T−1γtr(st,at)]对于持续性任务,通常取 $T \to \infty$,并依赖折扣因子($\gamma < 1$)来保证目标函数的收敛性
$\gamma$ 是一个介于 0 和 1 之间的系数,用于平衡近期奖励与未来奖励的权重
示例强化学习任务:倒立摆(CartPole)
为了具体说明转移函数,以经典的倒立摆(CartPole)控制任务为例
状态 ($s_t$):包含小车的位置/速度以及摆杆的角度/角速度,即 $s_t = (x_t, \dot{x}_t, \theta_t, \dot{\theta}_t)$
动作 ($a_t$):对小车施加向左或向右的水平力,例如 $a_t \in {-F, +F}$
奖励 ($r$):一个简单的奖励机制是,只要杆子保持平衡且小车未脱离轨道(例如 $|x_t| \le 2.4$ 且 $|\theta_t| \le 12^\circ$),每一步的奖励 $r_t = 1$。一旦违反任一限制,回合终止
动力学/转移 ($p(s_{t+1} \mid s_t, a_t)$):在许多环境中,动力学是确定性的(因此 $p$ 是一个点质量),可以通过步长为 $\Delta t$ 的欧拉积分写成 $s_{t+1} = f(s_t, a_t)$。标准的简化CartPole更新公式使用以下常量:小车质量 $m_c$、杆质量 $m_p$、杆半长 $l$ 和重力加速度 $g$:
temp=mc+mpat+mplθ˙t2sinθtθ¨t=l(34−mc+mpmpcos2θt)gsinθt−cosθt⋅tempx¨t=mc+mptemp−mplθ¨tcosθtxt+1=xt+Δtx˙t,x˙t+1=x˙t+Δtx¨t,θt+1=θt+Δtθ˙t,θ˙t+1=θ˙t+Δtθ¨t.这是上述通用框架的一个具体实例:策略选择动作 $a_t$,转移函数推进状态,奖励在整个回合中累积
调整标准强化学习框架

RLHF的强化学习公式被视为一个限制更多的问题,为了适配语言模型,标准RL中的几个关键组件被赋予了特定的定义
从标准RL到RLHF,主要有以下几个核心变化:
从奖励函数转向奖励模型
在RLHF中,使用一个学习到的人类偏好模型 $r_\theta(s_t, a_t)$(或其他分类模型)来替代环境奖励函数
这大大增加了方法的灵活性和对最终结果的可控性,但也增加了实现的复杂性
在标准RL中,奖励被视为环境的静态部分,无法被智能体设计者更改或操纵
不存在状态转移
在RLHF中,环境的初始状态是从训练数据集中采样的提示词(Prompt),而“动作”是对该提示词的补全(Completion)
在标准实践中,该动作不会影响下一个状态,仅由奖励模型进行评分
基于响应的奖励
这通常被称为老虎机问题(Bandit Problem)
RLHF的奖励归因是针对由多个生成Token组成的整个动作序列进行的,而不是以细粒度的方式逐Token进行
鉴于该问题的单轮(Single-turn)性质,优化目标可以重写为不含时间跨度和折扣因子的形式(针对奖励模型):
J(π)=Eτ∼π[rθ(st,at)]在许多方面,虽然 RLHF 深受 RL 优化器和问题公式的启发,但其实际实现与传统 RL 有很大区别
奖励信号
环境奖励函数 $r(s_t, a_t)$
学习到的奖励/偏好模型 $r_\theta(x, y)$ (输入 $x$ 为提示词,输出 $y$ 为补全文本)
状态转移
存在:基于动力学 $p(s_{t+1} \mid s_t, a_t)$
通常不存在:提示词 $x$ 从数据集中采样; 当前补全不会定义下一个提示词
动作
单一的环境动作 $a_t$
一段补全文本 $y$(Token序列) 从分布 $\pi_\theta(\cdot \mid x)$ 中采样
奖励粒度
通常是每一步(Step)/细粒度的
通常是基于完整响应的(Bandit-style) 即对整个补全序列进行一次性评分
时间跨度
多步回合($T > 1$)
通常是单步($T = 1$), 尽管多轮对话可以建模为更长的时间跨度
微调与正则化
在传统的 RL 问题中,智能体必须从随机初始化的策略开始学习,但在 RLHF 中,从一个具备强大初始能力的预训练基础模型开始
这种强先验知识要求必须控制优化过程,防止模型偏离初始策略过远,为了在微调阶段取得成功,RLHF 技术采用了多种正则化手段来控制优化方向
其目标是在允许奖励最大化的同时,防止模型陷入过拟合(Over-optimization)
对优化函数最常见的修改是,增加一项关于当前 RLHF 策略与优化起点之间差异的距离惩罚:
J(π)=Eτ∼π[rθ(st,at)]−βDKL(πRL(⋅∣st)∥πref(⋅∣st))在这个公式中,关于 RLHF 训练的大量研究都集中在如何根据与初始模型的距离来分配特定的“KL预算”(KL Budget)
优化问题
为了解决上述的优化问题,常用工具包括:
奖励建模:训练一个模型来捕捉收集到的偏好数据中的信号,然后输出一个标量奖励,指示未来文本的质量
指令微调:这是 RLHF 的先决条件,通过模仿预先构建的示例,教会模型当今大多数语言建模交互中使用的问答格式
拒绝采样:最基础的 RLHF 技术,通过奖励模型模仿人类偏好,对指令微调的候选补全进行过滤
策略梯度:在 RLHF 技术中使用的强化学习算法,用于根据奖励模型的信号更新语言模型的参数
直接对齐算法:直接从成对偏好数据中优化策略的算法,而不是先学习一个中间奖励模型再进行后续优化
现代经过 RLHF 训练的模型通常都会先进行指令微调,然后结合使用上述其他优化工具
标准训练流程
InstructGPT

在 ChatGPT 首次推出前后,广泛接受的语言模型 Post-Training 方法包含三个主要步骤,其中 RLHF 是核心部分,这三个步骤如下:
基于约 10K 示例的指令微调:这教会模型遵循问答格式,并从主要由人类编写的数据中习得一些基本技能
基于约 100K 成对提示词的奖励模型训练:该模型从指令微调的检查点(Checkpoint)开始训练,捕捉人们希望在最终训练中建模的各种价值观,这个奖励模型就是 RLHF 的优化目标
使用 RLHF 在另外约 100K 提示词上训练指令微调模型:模型针对奖励模型进行优化,使用的提示词集是模型在接收评分之前生成的
该流程是现代 RLHF 的基础,但随后的流程已大幅演变,包含了更多的阶段和数据
Tülu 3

现代版本的训练后处理涉及更多的模型版本和训练阶段,这一时期及以后训练的最复杂模型并未公开其训练过程的全部细节
2025年左右的领先模型(如 ChatGPT 或 Claude)涉及许多迭代训练轮次,这甚至可能包括训练专门的模型,然后将权重合并以获得能够处理许多子任务的最终模型(例如 Cohere 的 Command A)
Tülu 3是这种多阶段训练后处理的一个开源方案,包含三个阶段:

Figure 5:A summary of the Tülu 3 recipe with target skills and multi-step training recipe. Lambert et al. 2024, License CC-BY. 基于约 100 万示例的指令微调:这些数据主要来自前沿模型(如GPT-4o和Llama 3.1 405B)生成的合成数据,教会模型通用的指令遵循能力,并作为各种能力(如数学或编码)的基础
基于约 100 万偏好对的在线策略(On-policy)偏好数据:此阶段显著提升了模型的“健谈度”(例如在 ChatBotArena 或 AlpacaEval 2 中的表现),同时也改善了指令微调阶段提到的技能
基于约 10K 提示词的可验证奖励强化学习(RLVR):这是一个小规模强化学习阶段,旨在提升核心技能(如数学),同时保持整体性能(现在被视为现代推理模型如 DeepSeek R1 的前身)
该流程已成功应用于 Llama 3.1、OLMo 2 和 SmolLM 模型
DeepSeek R1
随着推理语言模型(如 OpenAI 的 o1)的兴起,训练后处理的最佳实践再次演变,重新排序并重新分配了各训练阶段的计算资源
关于推理模型 Post-Training 流程的最佳实践来自 DeepSeek R1,Qwen 3、MiMo 7B 等模型,其中 DeepSeek 流程如下:
10 万+在线策略推理样本的“冷启动”:这些数据从早期的 RL 检查点(R1-Zero)采样,并经过严格过滤,以向模型灌输特定的推理过程,DeepSeek使用“冷启动”一词来描述如何从少量监督数据中学习 RL
大规模强化学习训练:此阶段让模型反复处理推理问题,在各种基准测试上运行 RLVR “直至收敛”
拒绝采样:对 3/4 的推理问题和 1/4 的一般查询进行拒绝采样,开始向通用模型过渡
混合强化学习训练:结合推理问题(可验证奖励)与通用偏好调优奖励模型,对模型进行打磨
如上所述,该流程也在不断演变,特别是步骤 3 和 4,以便在向用户开放前完成模型的最终定型
许多模型从定制的指令数据集开始,这些数据集包含从现有模型中严格过滤和打磨的思维链序列,从而在进入 RL 之前,仅通过 SFT 就能快速获得强大的行为
偏好数据的收集
为什么需要偏好数据
直接用单一奖励函数捕捉复杂人类价值观几乎不可能,心理学、经济学、哲学领域的背景也证明精准建模人类偏好无法完全实现
对人类和监督数据收集的AI模型而言,区分答案的好坏比自主生成好答案更简单,这是偏好数据效果显著的关键直觉
收集偏好数据训练奖励模型是 RLHF 的原始思路之一,在现代语言模型发展中被广泛应用,且其相关收集与使用方法仍在不断创新
偏好数据收集的挑战与假设
收集过程存在运营复杂性高、成本高昂的问题;需基于待训练模型生成内容(“策略内”数据)收集数据,增加了难度
“策略内”数据是训练的最佳选择,即数据需来自训练过程中模型的最新 checkpoint(如经过监督微调的模型版本)
这类数据比聚合其他模型生成的内容的数据集更能提升 RLHF 训练效果,且偏好数据中的“优选答案”是相对优于其他选项,而非绝对正确
偏好数据的收集方式
界面交互(Interface)
属于“艺术多于科学”的领域,界面细微变化(如响应速度)会影响用户与模型交互,进而影响数据质量,例如用户可能因模型响应过快认为其不够智能
例如:Anthropic 早期为训练 Claude 设计的训练数据专用界面(标注者选择两答案偏好并添加备注)、ChatGPT 测试版面向用户的偏好收集界面、ChatBotArena 的含“平局”选项界面、Ai2 playground 的“点赞/点踩”界面,以及 Midjourney 等文本-图像模型的多响应选择界面
排序 vs 评分(Rankings vs. Ratings)
评分:常用 1-5 分制对单个完成内容打分(5分“优秀”至1分“极差”),可通过配对高低分完成内容构建偏好数据(如 UltraFeedback 数据集)
排序:更常用,多采用李克特量表(Likert Scale)对多个完成内容进行相对偏好排序,如 5 级量表(含平局)、8 级量表(无平局),部分早期RLHF 工作会将排序信息简化为二元信号用于奖励模型训练
多轮数据(Multi-turn Data)如何收集
多轮对话场景中,通常仅对“最终提示”收集偏好,但也可对每轮响应收集;若每轮都收集,对话会基于“优选答案”继续
训练时会将多轮对话拆解为多个“单一提示”,同时需屏蔽历史轮次的损失以避免偏差
结构化偏好数据(Structured Preference Data)
偏好数据可以利用数据固有结构自动生成,常见于数学推理(正确/错误答案区分)、精准指令遵循(如按特定约束生成内容)等领域
例如:生成关于金鱼的诗歌,分别用“每句以字母g开头”和无此约束的提示让模型生成,将符合约束的结果作为“优选”构建数据,这类数据多为合成偏好数据,可提升模型在指令遵循、数学等任务的性能
其他替代方案
单数据点方向标签(如 Ai2 playground 的“点赞/点踩”),搭配 Kahneman-Tversky 优化(KTO)等算法
细粒度反馈(如 token 级反馈)、自然语言反馈(如撰写回复式反馈),能提供更丰富学习信号,但数据收集流程更复
数据收集中需警惕的偏差(Bias)
常见偏差类型
前缀偏差(完成内容开头部分过度影响偏好判断)
谄媚偏差(过度认同用户观点以讨好用户,牺牲真实性)
冗长偏差(过度倾向冗长内容)
格式偏差(受内容格式如列表、表情符号影响)
这些偏差容易传递给最终模型,且部分偏差(如谄媚偏差)源自于人类自身的特质,难以通过修改数据标注的标准来规避
而冗长、格式等偏差相对容易检测和缓解,缓解偏差是区分偏好数据质量优劣、决定 RLHF 训练效果的关键
RLHF偏好数据的开放问题
数据收集场景:专业场景收集的偏好数据能否匹配研究者意图、迁移到下游用户;志愿工作者与专业标注员的数据差异;界面、重复标注等对偏好的影响;数据标注员是否遵循指令而非自身固有价值观
反馈类型:RLHF 默认的成对偏好是否能准确捕捉人类偏好; 成对比较与多维度高级反馈机制的差异;哪种比较方式更贴合人类文本偏好表达习惯
人口统计特征:数据标注员的人群构成,是否保持多样性;多样性缺失对模型的可测量影响;代表特定人群所需的最小标注人数;如何处理标注者意见分歧(视为噪声还是信号)
模型是否体现偏好:RLHF 的初衷(让模型对齐人类偏好抽象概念)与实际应用(提升模型对用户的有效性)是否偏离;因工业界RLHF工作封闭性,缺乏工具验证模型行为是否符合数据标注时的设定(仅OpenAI“模型规范”等少数参考)
奖励模型
奖励模型是 RLHF 方法的核心组件,其作用是学习复杂的人类偏好
奖励模型使模型能够从难以明确描述的信号中学习,将数据中的复杂特征压缩为可用于下游训练的表示形式
在RLHF中,奖励模型充当了核心优化所依据的代理目标
与传统强化学习中的奖励函数对比
历史上,奖励模型在强化学习研究中被广泛用作环境奖励的替代物,而现代形式的奖励模型最初是作为研究价值对齐问题的工具提出的
奖励模型通常接收某种输入并输出一个单一的标量奖励值
在传统的强化学习问题中,奖励模型试图逼近该问题的确切环境奖励,但在 RLHF 中,奖励模型实际上输出的是某个输入“质量高”的概率(即,在成对偏好关系中被选中的答案)
最常见的奖励模型是 Bradley-Terry 奖励模型,它预测一段文本在训练对比中接近“首选”文本的概率
下文中,使用 $x$ 表示提示词(prompt),用 $y$ 表示补全内容(completion)

训练奖励模型

奖励模型的标准实现源自偏好学习中的 Bradley–Terry 模型
首先,Bradley–Terry 偏好模型定义了在两个项目 $i$ 和 $j$ 的成对比较中,评判者偏好 $i$ 胜过 $j$ 的概率:
P(i>j)=pi+pjpi该模型假设每个项目都具有一个潜在强度 $p_i > 0$,而观测到的偏好关系是这些潜在强度在噪声作用下的体现
通常对模型进行重新参数化,引入无界分数 $r_i$,令 $p_i = e^{r_i}$,可得:
σ(x)=1+e−x1P(i>j)=eri+erjeri=σ(ri−rj)该形式表明,只有分数之间的相对差异是重要的:对所有 $r_i$ 同时加上一个常数,并不会改变 $P(i > j)$
为了训练奖励模型,需要构造一个满足上述偏好关系的损失函数。在实践中,通常将语言模型改造成输出标量分数的模型,并在其顶层接入一个参数量较小的线性头(linear head),用于生成单个对数几率(logit)

rlhf-reward-model-arch 给定一个提示 $x$ 以及两个采样得到的补全 $y_1$ 和 $y_2$,奖励模型 $r_\theta$ 会分别对二者进行打分,记条件分数为 $r_\theta(y_i \mid x)$
在成对比较设定下,奖励模型预测 $y_1$ 优于 $y_2$ 的概率为:
P(y1>y2∣x)=exp(rθ(y1∣x))+exp(rθ(y2∣x))exp(rθ(y1∣x))将被偏好选择的补全记为 $y_c$(chosen),将被拒绝的补全记为 $y_r$(rejected)
通过最大化上述概率的对数似然(等价地,最小化其负对数似然),可以得到奖励模型的训练目标:
σ′(x)θ∗=σ(x)(1−σ(x))=argθmaxP(yc>yr∣x)=argθmaxexp(rθ(yc∣x))+exp(rθ(yr∣x))exp(rθ(yc∣x))=argθmaxσ(rθ(yc∣x)−rθ(yr∣x))=argθmin−log(σ(rθ(yc∣x)−rθ(yr∣x)))第一种损失形式(如 InstructGPT 等工作中采用):
L(θ)=−log(σ(rθ(yc∣x)−rθ(yr∣x)))第二种损失形式(如 Anthropic 等工作中采用):
ΔrL(θ)=rθ(yc∣x)−rθ(yr∣x)=−logσ(Δr)=−log!(1+e−Δr1)=log(1+e−Δr)=log(1+erθ(yr∣x)−rθ(yc∣x))以上两种损失形式在数学上是等价的
代码实现
实现奖励模型最常见的方式是通过类似于 Transformer 的
AutoModelForSequenceClassification的抽象方法,它在大语言模型上附加一个小参数的线性头,用于在两个结果(选中和拒绝)之间进行分类在推理时,模型输出该文本被选中的概率作为单个 logit
也有其他实现方式,例如直接从最终嵌入中获取线性层,但在开源工具中不太常见
实现奖励建模损失非常简单,而更大的实现挑战在于设置单独的数据加载器(dataloader)和推理管道
假设数据加载器提供了标记化的、包含选中和拒绝的提示词与补全内容,损失函数的实现如下:
添加线性头的代码实现:
在训练奖励模型时,一般只训练 1 个 epoch 以避免过拟合
奖励建模的变体
偏好边际损失 (Preference Margin Loss)
当标注者提供李克特量表(Likert Scale)评分或排序信息时,可以利用偏好关系中蕴含的强度信息进行训练
一种常见做法是沿偏好方向对数据进行二值化,将包含相对评分或排序强度的混合信号简化为仅区分被选中(chosen)与被拒绝(rejected)的补全内容
Llama 2 提出在成对样本之间引入一个边际项 $m(y_c, y_r)$,以显式刻画偏好强度,从而得到如下损失函数:
L(θ)=−log(σ(rθ(yc∣x)−rθ(yr∣x)−m(yc,yr)))例如,若被选中的样本评分为 5,被拒绝的样本评分为 2,则对应的边际为 $m(y_c, y_r) = 5 - 2 = 3$
在 Llama 3 中,由于团队观察到随着模型规模增大,引入边际项所带来的收益逐渐递减,因此最终移除了该边际项
平衡每个提示的多重比较 (Balancing Multiple Comparisons Per Prompt)
InstructGPT 研究了在同一提示下使用可变数量补全对训练的影响,并在奖励模型训练过程中对这一因素进行了平衡处理
为此,他们对同一提示下的每一次成对比较所产生的损失更新进行加权,以避免某些提示对训练目标产生不成比例的影响
在实现层面,可以通过将具有相同提示的所有样本放入同一个训练批次中来自动实现这种平衡,从而自然地对不同配对进行加权;若不采取这一策略,容易导致模型对特定提示词过拟合
对应的损失函数形式为:
L(θ)=−(2K)1E(x,yc,yr)∼Dlog(σ(rθ(yc∣x)−rθ(yr∣x)))
K-wise 损失函数 (K-wise Loss Function)
在早期较为流行的 RLHF 模型 Starling 7B 和 34B 中,采用的是基于 Plackett–Luce 模型的 K-wise 损失函数
给定一个提示(或状态)$s_i$,从策略分布 $P(a_0, \cdots, a_{K-1} \mid s_i)$ 中采样 $K$ 个动作 $(a_0^i, a_1^i, \cdots, a_{K-1}^i)$
设在给定 Prompt(状态) $s$ 下,有 $K$ 个候选动作(或补全):
a0,a1,…,aK−1奖励模型为每个动作分配一个标量分数:
rθ(s,aj)Plackett–Luce 模型的核心假设是:
每个动作 $a_j$ 具有一个正的“潜在强度”
pj=exp(rθ(s,aj))排名是通过一系列“无放回抽样”生成的,且在每一步,剩余动作被选中的概率与其强度成正比
在所有 $K$ 个动作中,某个动作 $a_{\sigma(0)}$ 被选为最优的概率为:
P(σ(0)∣s)=∑j=0K−1exp(rθ(s,aj))exp(rθ(s,aσ(0)))在移除已选中的 $a_{\sigma(0)}$ 后,对剩余 $K-1$ 个动作再次进行选择:
P(σ(1)∣σ(0),s)=∑j=1K−1exp(rθ(s,aσ(j)))exp(rθ(s,aσ(1)))在前 $k-1$ 个动作已确定的条件下,第 $k$ 名的选择概率为:
P(σ(k)∣σ(0:k−1),s)=∑j=kK−1exp(rθ(s,aσ(j)))exp(rθ(s,aσ(k)))根据链式法则,整个排序 $\sigma$ 的概率等于各步条件概率的乘积:
P(σ∣s,a0,…,aK−1)=k=0∏K−1P(σ(k)∣σ(0:k−1),s)=k=0∏K−1∑j=kK−1exp(rθ(s,aσ(j)))exp(rθ(s,aσ(k)))这正是 K-wise Plackett–Luce 偏好模型的形式
给定人工标注的排序 $\sigma$,最大化其对数似然,等价于最小化负对数似然:
L(θ)=−k=0∑K−1rθ(s,aσ(k))−logj=k∑K−1exp(rθ(s,aσ(j)))当 $K = 2$ 时:
L(θ)=−logσ(rθ(s,aσ(0))−rθ(s,aσ(1)))因而 Plackett–Luce 模型是 Bradley–Terry 模型在多候选排序场景下的自然推广
结果奖励模型 (Outcome Reward Models)
语言模型及其他 AI 系统中的大多数偏好调优方法,都是基于上述 Bradley–Terry 模型来实现的
对于推理密集型任务,常采用结果奖励模型(Outcome Reward Models,ORM);其训练数据的构建方式与标准偏好调优在形式上是相似的
假设给定一个问题陈述或提示 $x$,以及两个补全 $y_1$ 和 $y_2$,在 ORM 场景中,二者的偏好关系体现为“一个是正确的,另一个是错误的”,从而形成 $(y_c, y_{ic})$ 的标注
ORM 所使用的模型结构与标准奖励模型非常接近,通常也是在语言模型之上附加一个线性层以输出单个 logit,但其后续的训练目标与标准 RM 略有不同
具体而言,ORM 通常通过语言建模头来实现,使模型在每个 token 上预测两个类别(1 表示正确,0 表示错误),而非标准奖励模型中针对整个序列输出单个 logit 的分类头,其损失形式可写为:
LCE(θ)=−E(s,r)∼D[rlogpθ(s)+(1−r)log(1−pθ(s))]其中,$r \in {0, 1}$ 为二元标签,1 表示正确答案,0 表示错误答案,$p_\theta(s)$ 是模型对样本正确性的预测概率(或与之成比例的标量)
在实现结果奖励模型(以及过程奖励模型)时,通常依据 $y$ 是否为正确样本,对序列中的每个 token 应用交叉熵损失
这种训练方式在形式上更接近标准的语言建模损失,因为它不依赖 Bradley–Terry 奖励模型所要求的那种结构化的“Accepted–Rejected”成对比较假设
RM 与 ORM 的对比
RM 学的是“在两个回答里,人更喜欢哪一个?”(相对偏好);ORM 学的是“这个回答本身对不对?”(绝对正确性)
RM 的偏好是“这个整体回答更好”,所以输出一个 logit,对整个序列打分,做 pairwise 对比,token 级别是不可对齐的
ORM 的标签是“这个答案是正确 / 错误”,于是可以把整个序列视作“正确文本”或“错误文本”,对每个 token 施加同一个正确性监督,用语言建模头 + 交叉熵损失
模型结构示例如下:
损失函数的简化实现如下:
ORM 将在序列中的每个 token 输出一个正确性概率,这可能是一个有噪声的过程,因为更新和损失会根据结果和注意力映射在每个 token 上传播

Figure 3:At inference time, an outcome reward model outputs per-token correctness probabilities. Prompt tokens are masked (e.g., label=-100), while completion tokens each receive a probability indicating whether the model believes the response leads to a correct answer. 训练 ORM 的过程

Figure 4:Training an outcome reward model uses offline labels from a verifier or dataset (e.g., all 1s for correct completions). Each completion token is trained with binary cross-entropy against the outcome label, and per-token probabilities are aggregated into a final score for verification, filtering, or reranking.
过程奖励模型 (Process Reward Models)
过程奖励模型(Process Reward Models,PRMs),最初称为过程监督奖励模型,是经过训练以在思维链推理过程中对每一步生成的内容输出分数的奖励模型
PRMs 与 RM不同,后者通常仅在 EOS token 输出整个序列的分数;也不同于 ORM,ORM 在每个 token 输出分数,但目标是整个响应的正确性
PRMs 在每个推理步骤结束时进行监督,每一步中的 tokens 会被训练以匹配其对应目标。与 ORM 的区别在于:ORM 的监督针对整个序列,而 PRM 的监督针对每一步的中间状态
对于二元标记的 PRM,通常采用每步交叉熵损失进行优化:
LPRM(θ)=−E(x,s)∼D[i=1∑Kysilogrθ(si∣x)+(1−ysi)log(1−rθ(si∣x))]$s$ 是一个包含 $K$ 个标注步骤的思维链采样,$y_{s_i} \in {0, 1}$ 表示第 $i$ 步是否正确,$r_\theta(s_i \mid x)$ 是 PRM 对该步骤在给定提示 $x$ 条件下有效性的预测概率
trl 库对每个步骤的标签进行打包的示例
传统上,PRM 是使用语言建模头进行训练的,该头仅在推理步骤结束时输出一个 token,例如在对应于双换行符或其他特殊 token 的 token 处
这些预测倾向于 -1 表示错误,0 表示中性,1 表示正确,这些标签不一定表示模型的推理路径是否正确,而是表示该步骤是否正确
PRM 的代码实现示例
损失函数实现示例

奖励模型 vs. 结果 RM vs. 过程 RM vs. 价值函数
方法对比
模型类别预测内容训练方式LM 结构备注奖励模型 (RMs)
通过 EOS token 输出的分数来评估整个序列的质量
基于补全之间的成对(pairwise)或 K-wise 比较进行对比损失训练
在 LM 特征之上附加回归或分类头
判断“完整答案有多好”,输出标量
结果奖励模型 (ORMs)
每个 token 对最终答案正确性的概率
使用标注的结果对(例如可验证任务的成功/失败)进行训练
每个 token 的交叉熵语言建模头,每个标签对应整个响应的正确性
判断“哪些 token 是正确的”,输出逐 token 概率
过程奖励模型 (PRMs)
推理链中每一步的奖励或分数
使用逐步标注或中间反馈训练,每个推理步骤的 tokens 都参与训练
在每个推理步骤运行 LM 的语言建模头,预测中间步骤奖励类别(如 -1, 0, 1)
判断“推理步骤是否合理”,输出每步得分
价值函数 (Value Functions)
给定当前状态的期望回报
对序列或状态的回报进行回归训练
每个 token 上输出对应的回报预测
判断“从当前状态还能得到多少奖励”,用于 RL 优化的基线
推理差异
模型类别输入输出推理用途聚合方式 / 说明奖励模型 (RM, Bradley–Terry)
提示 $x$ + 候选补全 $y$
EOS 隐藏状态的单个标量 $r_\theta(x, y)$
对候选补全重新排序(best-of-N)、或为 RLHF 提供终端奖励
标量输出,无需进一步聚合
结果奖励模型 (ORM)
提示 $x$ + 补全 $y$
每个 token 的正确性概率 $p_t \approx P(\text{correct at token } t)$
对候选补全评分
跨 token 聚合:均值、最小值、尾部平均或阈值标记
过程奖励模型 (PRM)
提示 $x$ + 带步骤边界的推理轨迹
每个步骤的分数或类别 logits(正确/中性/错误)
对思维链评分或指导搜索/解码
跨步骤聚合:平均步骤分数、最小值、加权和
价值函数 (Value Function)
提示 $x$ + 当前前缀 $y_{\le t}$(状态)
每个 token 位置的期望剩余回报 $V_t$
RL 训练中计算优势 $A_t = \hat{R}_t - V_t$
通常取最后生成 token 的 $V$ 作为基线;非正确性概率
ORM 与价值函数的关键区别
虽然 ORM 和价值函数在架构上都可以使用相同的 LM 头部输出每个 token 的分数,但它们在预测内容和目标来源上有本质区别
ORM(Outcome Reward Model)
预测每个 token 的即时、局部正确性:
p(correctt) 或 rt监督目标来自离线标注(例如数据集或验证器标记 token/序列为正确或错误)
训练是固定的、离线的,与当前策略无关
价值函数(Value Function, V)
预测给定当前状态的期望剩余回报:
V(st)=E[k≥t∑γk−trkst]监督目标通常来自 on-policy rollouts,随策略 $\pi_\theta$ 更新而变化
用于计算策略梯度中的优势函数:
At=R^t−V(st)
如果定义 token 奖励 $r_t = \mathbb{1}[\text{token is correct}]$ 并令折扣 $\gamma = 1$
ORM 学习的是每个 token 的即时奖励 $r_t$ 或其概率
价值函数学习的是从当前步骤开始的剩余奖励总和 $\sum_{k \ge t} r_k$
因此,虽然两者可以共享相同基础模型和输出维度,但语义和监督流程完全不同:
ORM:离线固定标签 → 监督学习
价值函数:在线策略数据 → 强化学习
生成式奖励建模 (Generative Reward Modeling)
由于构建偏好数据的成本较高,出现了新的方法——使用现有的语言模型作为人类偏好的评判者
其核心思想是给出一个提示词和两个补全内容,通过指令提示语言模型如何进行评判,以下是 MT-bench 的提示词示例
鉴于 LLM-as-a-judge 在评估中的有效性,催生了许多其他评估方法,如 AlpacaEval、Arena-Hard 和 WildBench
提高 LLM-as-a-judge 工作流稳定性的一个常见技巧是设置 temperature = 0 来减少评分的方差
正则化
在 RLHF 优化过程中,通常需要引入多种正则化手段,以防止模型对奖励模型过拟合
过拟合的典型表现包括:生成无意义文本、数学推理步骤表面合理但结果错误、文本重复、语言切换异常或出现大量特殊字符
当前主流 RLHF 实现中,最常用的正则化方法是计算 当前策略 与 参考策略 在生成样本上的 KL 散度(Kullback–Leibler Divergence)
尽管 KL 散度在数学上不满足所有距离度量性质(例如对称性),在训练中通常通俗称为“KL 距离”,用于衡量两个分布之间的优化距离
下文中使用 $x$ 表示提示词(Prompt),使用 $y$ 表示补全文本(Completion),因为大多数方法处理的是完整的 Prompt–Completion 对,而非单个 token
KL 散度
正则化的形式定义
在包含奖励模型 $r_\theta$ 的 RLHF 框架中,正则化的通用公式如下:
r=rθ−λrreg其标准实现形式为:
r=rθ−λKLDKL(πRL(y∣x)∥πref(y∣x))KL 散度用于衡量两个概率分布之间的差异,其定义如下:
DKL(P∣∣Q)=x∈X∑P(x)log(Q(x)P(x))
KL 散度
在 RLHF 中,主要关注两个分布:新版本模型的分布(记为 $P(x)$ 或 $\pi_{\text{RL}}$)和参考策略的分布(记为 $Q(x)$ 或 $\pi_{\text{ref}}$)
不同优化器可能使用不同方向的 KL 散度,本文中最常用的“KL 惩罚”是相对于参考策略的反向 KL 散度(Reverse KL)
实际操作中通常通过蒙特卡洛估计实现:从 RL 模型中采样 token,并利用参考模型计算其概率
当新模型 $P$ 在参考模型 $Q$ 认为概率极低的区域分配了较大概率质量时,反向 KL 会施加较大惩罚
另一种方向的 KL 散度在机器学习中也常见(如某些 RL 算法的信任域计算),其直觉是:如果新模型在 $Q$ 的高概率区域没有分配足够概率,就会受到惩罚,这与知识蒸馏或行为克隆中的目标函数类似
参考模型的选择
KL 惩罚通常通过将训练中生成的 token 序列与一个静态参考模型进行对比,实现风格和分布上的约束
参考模型一般为经过指令微调(Instruction Tuned)的 LM,也可选 RLHF 训练过程中的某个历史检查点
此时公式中的采样分布分别为 $\pi_{\text{RL}}(x)$ 和 $\pi_{\text{ref}}(x)$
实现示例
KL 散度通常采用近似计算,当直接从分布 $P(x)$ 采样时,可以将 KL 的求和转化为期望形式:
DKL(P∥Q)=Ex∼P[logP(x)−logQ(x)]这种实现方式便于在语言模型训练中直接使用对数概率进行计算
代码示例
预训练梯度(Pretraining Gradient / Regularization)
正则化的另一种视角是:希望模型保持与某个特定数据集的分布相近
InstructGPT 首次引入了这种机制,用于修复模型在公开 NLP 数据集上的性能退化,为此对 RLHF 的训练目标进行了修改
具体实现方式:从 RL 策略模型中采样(即从 RLHF 使用的数据集中抽取提示 $x$ 并生成补全 $y$),将其转化为待优化的目标函数:
J(θ)=E(x,y)∼DπRL,θ[rθ(y∣x)−λrreg]此外,可添加一项基于预训练语料库或其他数据集的奖励,用于保持文本连贯性和自回归预测能力:
J(θ)=E(x,y)∼DπRL,θ[rθ(y∣x)−λrreg]+γEx∼Dpretrain[logπRL,θ(x)]在直接偏好优化(DPO)中,也可以通过引入负对数似然(NLL)项来实现类似的平衡优化
对奖励模型训练的应用形式如下:
LDPO+NLL=LDPO(ciw,yiw,cil,yil∣xi)+αLNLL(ciw,yiw∣xi)=−logσ(βlogPref(ciw,yiw∣xi)Pθ(ciw,yiw∣xi)−βlogPref(cil,yil∣xi)Pθ(cil,yil∣xi))−α∣ciw∣+∣yiw∣logPθ(ciw,yiw∣xi)说明:
$P_\theta$:可训练的策略模型
$P_{\text{ref}}$:固定参考模型(通常为 SFT 检查点)
$(c_i^w, y_i^w)$ / $(c_i^l, y_i^l)$:提示 $x_i$ 对应的胜出(Winning)和失败(Losing) Completion
第一项:标准 DPO 逻辑损失,通过对数似然比 $\log \frac{P_\theta}{P_{\text{ref}}}$ 增大胜出者与失败者之间的差距,$\beta$ 控制偏好信号强度
第二项:对胜出 Completion 的长度归一化负对数似然惩罚,由 $\alpha$ 加权,确保生成文本在绝对语言建模意义上也具有较高似然度,而不仅仅相对于被拒绝样本更好
指令微调
早期的大语言模型主要以“预测下一个 token”为训练目标,默认情况下并不具备显式遵循指令的能力
在 GPT-3 发布前后,让单个模型适应多种任务的主流方法是提示工程(Prompting)和上下文学习(In-context Learning),但这些方法依赖上下文示例,效果不稳定
指令微调(Instruction Fine-tuning, IFT),也称有监督微调(Supervised Fine-Tuning, SFT),通过在大量 Instruction–Response 对上微调预训练模型,使模型学会按照特定格式理解并回应用户指令,而非仅仅续写文本
指令微调的兴起得益于两条研究路线的交汇:
任务框架的统一:NLP 社区从针对特定任务的定制微调转向统一的 Text-to-Text 或指令框架(如 T5、FLAN、T0 等),便于标准化和整合多样化数据集
模型能力的泛化:随着模型规模扩大,发现虽然模型具有一定的零样本泛化能力,但通过显式指令训练,这种泛化能力更加可靠稳定
如今,指令微调已成为大语言模型流水线中的标准实践,是构建 RLHF 系统的基石,为后续偏好对齐和强化学习阶段提供必要的基础能力
聊天模板与指令结构
在进行指令微调之前,首先需要定义一种格式化用户查询的模式(即 聊天模板 / Chat Template),以确保模型能够正确解析输入
预训练模型通常只识别基础特殊标记,例如序列开始标记(
<bos_token>)、序列结束标记(<eos_token>)和填充标记(<pad_token>)在基础模型推理时,用户仅需输入一段文本,模型会从文本末尾开始续写
在指令微调及后续 RLHF 流程中,则需要更复杂的交互结构
现代聊天模型通常采用 角色(Role)机制 来区分信息来源,最常见的三类角色为:
System(系统):提供背景信息或设定助手性格与行为准则,通常不直接暴露给用户
User(用户):代表人类发出的指令或问题
Assistant(助手):代表模型生成的回答
为了让模型理解这些角色信息,通常会使用特殊分隔标记将不同角色的消息包裹起来,从而生成可被模型处理的 Token 序列
对于输入示例:
转换后的 Token 序列(基于 ChatML 格式):
注意序列的结尾是
<|im_start|>assistant,这告诉模型现在轮到“Assistant”角色生成内容了,直到生成<|im_end|>为止这种格式可以扩展到多轮对话(Multi-turn conversations)中,只需按照
System -> User -> Assistant -> User -> Assistant...的顺序不断追加消息块即可在开源生态中(如 Hugging Face),这种格式化逻辑通常通过 Jinja 模板实现,并作为
tokenizer.apply_chat_template方法的一部分保存在tokeniers.json中不同的模型(如 Zephyr, Tulu)可能会使用略有不同的标记风格,但核心逻辑一致
最佳实践
虽然指令微调的概念相对简单,但要获得良好效果,需要遵循若干关键原则:
数据质量:模型主要从“响应”(Completions)中学习,数据的质量(相关性、正确性、有用性)远比数量重要
数据规模:
早期研究(如 No Robots 数据集)表明,即使只有 10,000 条高质量人工标注样本,也能取得不错效果
近期趋势(如 Tulu 3)倾向于使用大规模合成数据集(百万级以上),以在大多数任务上达到最佳性能
一般来说,约 100 万条高质量提示即可训练出具备优秀 RLHF 潜力的模型,超过该数量后收益递减
数据分布:训练数据的分布应尽可能接近模型最终将面对的下游任务分布
多阶段训练的鲁棒性:如果后续还有 RLHF 等阶段,模型通常具备一定“自愈”能力,可从指令微调阶段的一些噪声中恢复,因此优化整体流水线比过度追求单阶段完美更重要
尽管指令微调使用的损失函数与预训练阶段相同(自回归语言建模损失),在实现上存在一些关键差异:
更小的批次大小(Smaller Batch Sizes):
与预训练相比,指令微调(及偏好微调)通常使用更小的全局批次大小
例如,OLMo 2 在预训练时使用 1024/2048 的序列批次,而在指令微调时仅使用 256,这意味着微调所需的 GPU 数量通常少于预训练
提示词掩码(Prompt Masking):
在计算损失时,通常只对“助手”的输出部分(Response)进行反向传播,而将“用户”的输入(Prompt)进行掩码
这样可避免模型浪费算力去预测用户提问,确保专注于生成高质量回答
多轮对话掩码策略(Multi-turn Masking),对于多轮对话数据,有两种常见策略:
仅最后一轮:只计算最后一个 Assistant 回复的损失,前面的上下文(包括之前的 Assistant 回复)全部掩码
仅掩码用户轮次:掩码所有用户输入,但计算每个 Assistant 回复的损失,使模型学习对话连贯性
损失函数:核心依然是交叉熵损失,用于最大化目标序列的对数概率
拒绝采样
拒绝采样(Rejection Sampling, RS)是一种在偏好微调中常用且简单的基准方法,通常用于第一轮指令微调之后,根据人类偏好进一步优化模型
名称来源于计算统计学:
当希望从复杂分布中采样但无法直接实现时,可以先从较简单分布中采样,然后用启发式规则(如奖励模型)判断样本是否“可接受”
在语言模型中,目标分布是高质量回复,筛选器是奖励模型,采样分布则是当前待优化模型
许多知名 RLHF 或偏好微调研究都使用拒绝采样作为基准,例如 WebGPT、Anthropic 的 Helpful and Harmless 智能体、OpenAI 的过程奖励模型研究、Llama 2 Chat 模型 等
拒绝采样主要包括以下几个阶段:
提示词与奖励模型选择
首先选定用于训练的提示词集,最简单方法是重用 SFT/IFT 阶段的所有提示词,但需注意可能导致过拟合
同时必须预先训练好一个奖励模型
生成回复
利用当前待优化模型针对选定提示词生成回复,涉及调整采样温度、top-p、最大序列长度及每个提示词生成的回复数量等参数
定义一个包含 $M$ 个提示词的集合,这些提示词通常来源于指令训练集
X=[x1,x2,...,xM]对于每个提示词 $x_i$,生成 $N$ 个回复,可以表示为一个矩阵:
Y=y1,1y2,1⋮yM,1y1,2y2,2⋮yM,2⋯⋯⋱⋯y1,Ny2,N⋮yM,N其中 $y_{i,j}$ 表示第 $i$ 个提示词的第 $j$ 个回复
奖励模型筛选
使用奖励模型对生成的所有回复打分并排序,包含去重操作
将所有(提示词,回复)对输入奖励模型,得到
一个奖励矩阵 $R$:
R=r1,1r2,1⋮rM,1r1,2r2,2⋮rM,2⋯⋯⋱⋯r1,Nr2,N⋮rM,N每个奖励值 $r_{i,j}$ 由奖励模型 $R$ 计算得出:
ri,j=R(yi,j∣xi)
基于最优回复的 SFT
最后,使用筛选出的高质量回复,对初始模型进行指令微调
按提示词选取最优 (Top Per Prompt)
第一种选择策略是选取每个提示词对应的最高分回复
选择函数 $S$ 定义为:
S(R)=[argjmaxr1,j,argjmaxr2,j,...,argjmaxrM,j]该函数返回一个索引向量,指向每行(每个提示词)中奖励最大的列(回复)
选定的回复集合为:
Ychosen=[y1,S(R)1,y2,S(R)2,...,yM,S(R)M]
全局选取最优 (Top Overall Pairs)
另一种策略是从整个集合中选取得分最高的 $K$ 个(提示词,回复)对
首先,将奖励矩阵展平为向量:
Rflat=[r1,1,r1,2,...,r1,N,r2,1,...,rM,N]然后定义选择函数 $S_K$:
SK(Rflat)=argsort(Rflat)[−K:]即选取排序后最后 $K$ 个索引(对应最高分)
最后将这些展平后的索引映射回原始矩阵的 $(i, j)$ 坐标
实现示例
拒绝采样训练的超参数:
采样参数:拒绝采样依赖模型生成的回复。常见设置是将温度(temperature)设为 0.7~1.0,并结合 top-p 或 top-k 采样
每个提示词的回复数:通常为每个提示生成 10~30 条甚至更多,过少可能导致训练偏差或噪声过大
指令微调细节:目前没有公开标准,但可能与初始指令微调阶段的设置略有不同
异构模型生成:部分实现会从多个不同模型生成回复,而不仅限于当前待训练模型
奖励模型训练:奖励模型的质量会显著影响最终效果
在奖励模型批量推理时,可以按 token 化后的回复长度排序,使批次内序列长度相近,从而减少 padding token 的计算开销,提高吞吐量
Best-of-N 采样
Best-of-N (BoN) 是一种类似拒绝采样的方法,也遵循“生成 → 评分”的流程,但不会使用筛选出的回复来微调模型
BoN 用于推理阶段,针对静态提示词选择最佳回复,常用于需要额外算力以提升回答质量的场景
BoN 通常作为 RLHF 训练的基准方法,但不会修改模型权重,仅作为采样策略
对单个提示词使用简单 BoN 采样时,按提示词最优和全局最优选择标准是等价的:
设 $R$ 为该提示词生成的 $N$ 个回复的奖励向量:
R=[r1,r2,...,rN]使用 argmax 方法选择最佳回复:
S(R)=argj∈[1,N]maxrj当 $K=1$ 时,Top-K 方法与上述 argmax 操作等同
策略梯度
在 RLHF 过程中,强化学习算法利用奖励模型的反馈,对语言模型的权重进行逐步、缓慢的更新
当前策略(正在训练的语言模型)会针对训练集中的 Prompt 生成对应的 Completion,随后由奖励模型对这些 Completion 进行评分,强化学习优化器再基于评分执行梯度更新
训练过程通常重复进行大量轮次:在大规模训练集上运行数千甚至数百万个批次,并在每个批次之后更新模型参数
RLHF 中常用的强化学习算法主要是策略梯度方法,例如:
PPO(Proximal Policy Optimization)
GRPO(Group Relative Policy Optimization)
REINFORCE
这些方法使用最近生成的样本直接更新模型,而不像 DQN 那样依赖经验回放(replay buffer)
一个典型的 RLHF 训练循环如下:
从数据集中采样 Prompt,并输入当前策略模型
策略模型生成对应的 Completion
奖励模型对生成的 Completion 进行评分
冻结的初始模型(reference model)对相同文本计算对数概率,用于构造 KL 惩罚,约束策略不要偏离初始模型
将奖励模型分数与 KL 惩罚组合成最终奖励信号
使用该奖励信号对策略参数执行一次强化学习更新

策略梯度算法
什么是策略梯度算法
强化学习算法的目标是最大化由状态序列 $s \in S$ 与动作序列 $a \in A$ 构成的轨迹在未来获得的折扣累积奖励
智能体的优化目标通常称为“回报”(return),它表示从某一时刻 $t$ 开始,未来所有奖励的折扣和,其中 $\gamma \in [0,1]$ 用于权衡长期与短期奖励的重要性:
Gt=Rt+1+γRt+2+⋯=k=0∑∞γkRt+k+1回报也可以用递归形式来表示:
Gt=γGt+1+Rt+1基于回报的定义,可以引入价值函数 $V(s)$,用于表示在当前状态 $s$ 下,未来回报的期望:
V(s)=E[Gt∣St=s]所有策略梯度算法的核心思想,都是通过优化策略 $\pi_\theta(a \mid s)$ 来最大化期望回报。该目标可以用策略诱导的价值函数 $V^{\pi_\theta}(s)$ 来刻画
设 $d^{\pi_\theta}(s)$ 表示在策略 $\pi_\theta(a \mid s)$ 下的状态访问分布,则待优化的目标函数可以写为:
J(θ)=s∑dπθ(s)Vπθ(s)在有限马尔可夫决策过程(MDP)中,这是对所有状态的求和,但在实际问题中该量无法精确计算,实际中通常通过从当前策略中采样轨迹(rollouts)来进行估计
在 RLHF 场景下,这通常表现为: 从数据集中采样提示 $x_i$,根据策略生成补全 $y_i \sim \pi_\theta(\cdot \mid x_i)$,并用经验平均近似目标函数:
J^(θ)=B1i=1∑BR(xi,yi)若采用每一步都有奖励的 MDP 视角,则目标函数的经验估计可写为:
J^(θ)=B1i=1∑Bt=0∑Tiγtri,t策略梯度算法的核心在于计算当前策略下有限时间期望回报的梯度
有了目标函数 $J(\theta)$,参数更新规则可以表示为(其中 $\alpha$ 是学习率):
θ←θ+α∇θJ(θ)关键的实现难点在于:如何高效、低方差地估计 $\nabla_\theta J(\theta)$
另一种等价的表述方式是将强化学习目标写成对轨迹的期望:
J(θ)=Eτ∼πθ[R(τ)]其中 $\tau = (s_0, a_0, s_1, a_1, \dots)$ 表示一条完整轨迹,$R(\tau) = \sum_{t=0}^{\infty} r_t$ 是该轨迹的总奖励
也可以将期望形式写成对所有可能轨迹的积分:
J(θ)=∫τpθ(τ)R(τ)dτ而轨迹在策略 $\pi_\theta$ 下的概率可以分解为:
pθ(τ)=p(s0)t=0∏∞πθ(at∣st)p(st+1∣st,at)其中 $p(s_{t+1} \mid s_t, a_t)$ 是环境的状态转移概率,与策略参数 $\theta$ 无关
对目标函数关于策略参数求梯度,有:
∇θJ(θ)=∫τ∇θpθ(τ)R(τ)dτ通过“对数导数技巧”(log-derivative trick)可以将该梯度改写为期望形式:
∇θlogpθ(τ)=pθ(τ)∇θpθ(τ)⟹∇θpθ(τ)=pθ(τ)∇θlogpθ(τ)将其代入上式,得到:
∇θJ(θ)=∫τpθ(τ)∇θlogpθ(τ)R(τ)dτ=Eτ∼πθ[∇θlogpθ(τ)R(τ)]上式利用了性质——积分 $\int_\tau p_\theta(\tau) f(\tau) d\tau$ 正是概率分布下的期望
写成期望形式的一个重要优势在于:可以用蒙特卡洛采样来近似它,例如用 $B$ 条轨迹的样本均值 $\frac{1}{B} \sum_{i=1}^{B} f(\tau_i)$
在上式中,展开轨迹的对数概率:
logpθ(τ)=logp(s0)+t=0∑∞logπθ(at∣st)+t=0∑∞logp(st+1∣st,at)对上式求梯度时:
$\nabla_\theta \log p(s_0) = 0$(初始状态分布不依赖于 $\theta$)
$\nabla_\theta \log p(s_{t+1} \mid s_t, a_t) = 0$(环境动力学不依赖于 $\theta$)
仅剩下策略项 $\nabla_\theta \log \pi_\theta(a_t \mid s_t)$
因此简化得到
∇θlogpθ(τ)=t=0∑∞∇θlogπθ(at∣st)代回目标梯度,得到经典的策略梯度形式:
∇θJ(θ)=Eτ∼πθ[t=0∑∞∇θlogπθ(at∣st)R(τ)]更一般地,策略梯度可以写为:
g=∇θJ(θ)=Eτ∼πθ[t=0∑∞∇θlogπθ(at∣st)Ψt]这样,对参数 $\theta$ 的梯度就仅与策略函数有关
其中 $\Psi_t$ 可以选择为多种形式(奖励通常也会包含折扣因子 $\gamma$):
$R(\tau) = \sum_{t=0}^{\infty} r_t$:整条轨迹的总奖励
$\sum_{t'=t}^{\infty} r_{t'}$:从动作 $a_t$ 开始的回报 $G_t$
$\sum_{t'=t}^{\infty} r_{t'} - b(s_t)$:带基线的回报
$Q^\pi(s_t, a_t)$:状态-动作价值函数
$A^\pi(s_t, a_t)$:优势函数(在可精确计算时具有最低方差)
$r_t + V^\pi(s_{t+1}) - V^\pi(s_t)$:时序差分(TD)残差
动作值函数与状态值函数的关系
对于确定性策略,有 $V^\pi(s) = Q^\pi(s, \pi(s))$,最优情形下 $V^(s) = \max_a Q^(s, a)$
对于随机策略,有 $V^\pi(s) = \mathbb{E}_{a \sim \pi(\cdot \mid s)} \left[ Q^\pi(s, a) \right]$
普通策略梯度 (Vanilla Policy Gradient)
普通策略梯度(Vanilla Policy Gradient)通过对目标函数 $J(\theta)$ 关于策略参数 $\theta$ 求导来优化策略
基于总回报的最简单形式为:
∇θJ(θ)=Eτ[t=0∑T∇θlogπθ(at∣st)Rt]普通策略梯度算法的一个典型问题是梯度方差较高,这主要源于回报 $G$ 是通过有限轨迹样本估计的,而样本本身存在噪声,例如语言模型在温度大于 0 的情况下生成文本具有随机性
在稀疏奖励场景下,这一问题更加明显,因为奖励往往是 0 或 1,而不是连续分布,从而放大了回报估计的方差
为了降低方差,引入基线(baseline),只要基线不依赖于动作(即与 $\theta$ 无关),就不会引入偏差
最简单的基线形式是使用奖励的批次平均值或其移动平均,即便如此,也能在不引入梯度偏差的前提下显著改善学习信号,其关键性质为:
Ea∼π(a∣s)[∇θlogπθ(a∣s)]=0基线的核心思想是利用状态价值对动作价值进行归一化。在优势函数形式中,将动作价值 $Q(s,a)$ 与状态价值函数 $V(s)$ 做差:
A(s,a)=Q(s,a)−V(s)基于优势函数的策略梯度公式为:
∇θJ(θ)=Eτ[t=0∑T∇θlogπθ(at∣st)Aπθ(st,at)]
REINFORCE

REINFORCE 算法名称来源于短语 “REward Increment = Nonnegative Factor × Offset Reinforcement × Characteristic Eligibility”,即“奖励增量 = 非负因子 × 偏移强化 × 特征资格迹”的首字母缩写。
这三个组成部分描述了单次策略梯度更新的构成方式:
非负因子:对应学习率或步长,必须为正,例如公式中的 $\alpha$。
偏移强化:对应基线 $b$ 或其他奖励归一化项,用于降低梯度方差,提高训练稳定性。
特征资格迹:描述奖励如何归因到各个参数或 token 上。在早期形式中,它是每个参数的通用资格迹 $e$,在现代策略梯度中通常采用策略对数概率的梯度。
REINFORCE 的参数更新形式可以写为:
Δθ=α(r−b)e引入广义回报 $G$ 后,其梯度形式为:
∇θJ(θ)=Eτ∼πθ[t=0∑T∇θlogπθ(at∣st)(Gt−b(st))]其中,$G_t - b(s_t)$ 可视为策略在状态 $s_t$ 下采取动作 $a_t$ 的优势,因此策略梯度也可写成优势函数形式:
∇θJ(θ)=Eτ∼πθ[t=0∑T∇θlogπθ(at∣st)At]从这个角度看,REINFORCE 是普通策略梯度的一种具体实现,其核心特点是使用蒙特卡洛方法估计回报,从而得到无偏但高方差的梯度估计
如果选择批次平均奖励作为基线:
b(s)=B1i=1∑BR(si,ai)在实际 RLHF 中,为了对同一个提示生成多个可能的补全(即多条轨迹),通常会采样多条轨迹并对梯度取平均:
∇θJ(θ)≈B1i=1∑B∇θlogπθ(ai∣si)(R(si,ai)−b(si))
REINFORCE 留一法 (RLOO)

RLOO(Leave-One-Out)是一种改进的基线设计,主要区别在于每条样本的基线不包含自身奖励
给定同一个提示 $s$ 下采样得到的 $K$ 条轨迹(动作)$a_1, \dots, a_K$,RLOO 为第 $k$ 个样本定义的基线为其他 $K-1$ 条的平均奖励:
b(s,ak)=K−11i=1,i=k∑KR(s,ai)相应的优势定义为:
A(s,ak)=R(s,ak)−b(s,ak)该优势形式可以等价地写为标准批次平均奖励形式的变体:
A(s,ak)=R(s,ak)−K−11i=k∑R(s,ai)=R(s,ak)−K−11(i=1∑KR(s,ai)−R(s,ak))=R(s,ak)−K−11(i=1∑KR(s,ai)−R(s,ak))=R(s,ak)−K−11i=1∑KR(s,ai)+K−11R(s,ak)=(1+K−11)R(s,ak)−K−11i=1∑KR(s,ai)=K−1K(R(s,ak)−K1i=1∑KR(s,ai))与普通 REINFORCE 的批次平均基线相比,RLOO 使得每条样本的基线不包括自身奖励,从而在样本数量较少的情况下进一步降低梯度方差
RLOO 是一种低方差的 per-prompt 优势估计方法,与 GRPO(群组相对策略优化)的群组相对优势在形式和直觉上高度相似,两者主要区别体现在:
KL 惩罚的处理方式:RLOO 通常将 KL 项折叠进序列级奖励中,而 GRPO 通常在损失函数中显式加入 KL 惩罚
是否使用 PPO 风格的重要性比率裁剪(importance ratio clipping)
随着 RLHF 训练的发展,KL 惩罚的使用频率整体下降,部分现代 Reasoning 版本中已完全移除 KL
KL 的类型
序列级 KL
直接对整个生成序列计算 KL:
DKL(πθ(⋅∣x),∣∣,πref(⋅∣x))=t=1∑Tlogπref(yt∣y<t,x)πθ(yt∣y<t,x)得到一个标量 KL,将它折叠进整个序列的奖励中:
Rfinal=rreward−λDKL这种方式下,所有 token 都共享同一个序列级 KL 惩罚,类似 RLOO
token 级 KL
保留每个 token 的 KL:
KLt=logπref(yt∣y<t,x)πθ(yt∣y<t,x)PPO 中通常将 $A_t$ 计算时直接减去 token 的 KL:
AtPPO=(rt−KLt)+γV(st+1)−V(st)这样,每个 token 的奖励都独立考虑 KL,进一步实现 token 级信用分配和约束
GRPO 通常保留序列级优势,同时在损失函数中额外加入token 级 KL,而不是将 KL 加入到奖励中
损失函数
LGRPO=−E[t=0∑Tlogπθ(at∣st)At]+λt=0∑TKLt$KL_t = D_{\text{KL}}(\pi_\theta(\cdot|s_t) || \pi_\text{ref}(\cdot|s_t))$ 是每个 token 的 KL
损失函数中 KL 与策略梯度项是并列的,而不是直接从奖励中减掉
奖励分配策略:
RLOO 和其他不使用价值网络的方法,会将同一序列级优势(或奖励)广播给该序列中的所有 token
PPO 则显式训练价值网络,为每个 token 分配不同价值,并将 EOS token 的最终奖励按时间步折扣,实现更精细的信用分配
近端策略优化 (PPO)

近端策略优化(Proximal Policy Optimization,PPO)是深度强化学习中最成功、也最具代表性的基础算法之一,在实践中以稳定性和易用性著称
PPO 的核心思想是:在利用策略梯度进行更新时,同时约束新策略不要偏离旧策略过远,其最大化的裁剪目标可以写为:
J(θ)=min(πθold(a∣s)πθ(a∣s)A, clip(πθold(a∣s)πθ(a∣s), 1−ε, 1+ε)A)$\pi_\theta(a \mid s)$ 是当前正在优化的策略;
$\pi_{\theta_{\text{old}}}(a \mid s)$ 是用于收集训练数据的旧策略(通常是上一次迭代的策略);
$A$ 是优势函数,用于衡量该动作相对于平均行为的好坏
重要性采样(importance sampling):允许我们复用在旧策略下采集的数据,来估计当前策略的梯度,从而在同一批数据上执行多个梯度更新步骤
回顾策略梯度的优势形式:
∇θJ(θ)=Eτ∼πθ[t=0∑T∇θlogπθ(at∣st)Aπθ(st,at)]理论上,这个期望需要从当前策略 $\pi_\theta$ 采样轨迹,但在大语言模型 RLHF 训练中,通常先收集一批数据(prompt → completion),PPO 会对这批固定数据进行多轮更新(Epochs),以充分利用每条样本
如果每次更新都重新采样,计算量增加很多,而且每次采样都是新的随机结果,梯度方差可能更大
所以通常的流程是:先用旧策略生成一批轨迹 → 多次梯度更新 → 再生成新轨迹
然而,直接用旧数据计算梯度会导致偏差(distribution mismatch),为了修正这种分布不匹配,引入重要性权重,用于重新加权样本,使其在当前策略下的贡献与其真实概率一致
Ea∼πθ[f(a)]=Ea∼πθold[πθold(a∣s)πθ(a∣s)f(a)]上式中,用权重 $\frac{\pi_\theta}{\pi_{\theta_\text{old}}}$ 对旧样本重新加权,使其在当前策略下的期望梯度估计仍然无偏
裁剪
如果直接使用比率 $\frac{\pi_\theta}{\pi_{\theta_\text{old}}}$,一旦新策略偏离旧策略,这个比率可能远大于 1 或远小于 1,导致梯度过大或更新不稳定
PPO 通过将该比率裁剪到区间 $[1-\varepsilon,\ 1+\varepsilon]$ 来缓解这一问题,从而确保单次更新中策略变化是“近端”的
clip(πθoldπθ,1−ε,1+ε)保证梯度贡献被限制在合理范围,防止策略更新过大
min 操作选择裁剪前和裁剪后的梯度较小值,进一步保证更新稳定
PPO 在语言模型中的 token 级实现
语言模型是自回归模型,生成序列 $y_1, y_2, ..., y_T$,序列概率分解为逐 token 乘积:
πθ(y∣x)=t=1∏Tπθ(yt∣y<t,x)重要性采样权重:
rt(θ)=πθold(xt∣x<t,x)πθ(xt∣x<t,x)将其代入序列级优势策略梯度:
∇θJ(θ)=Ey∼πθold[t=1∑Trt(θ)∇θlogπθ(xt∣x<t,x)A(y,x)]为了避免策略更新过大,PPO 引入裁剪:
Lt(θ)=min(rt(θ)At,clip(rt(θ),1−ε,1+ε)At)公式中 $A_t$ 通常是序列级优势 $A(y,x)$ 广播到每个 token
损失函数按 token 平均:
J(θ)=T1t=1∑TLt(θ)因此,PPO 的梯度和目标函数可以在每个 token 上单独计算:
J(θ)=∣a∣1t=1∑∣a∣min(πθold(at∣st)πθ(at∣st)At, clip(πθold(at∣st)πθ(at∣st),1−ε,1+ε)At)$\frac{1}{|a|}$ 是工程上做的归一化,确保不同长度序列梯度幅度可比
实际上,RLOO 是特殊的 token 级,但因为其所有 token 使用相同的优势值,没有区分 token 对奖励的贡献,所以本质上是序列级的
而 PPO 中的重要性采样把原本统一的序列级优势“打散”成每个 token 不同的有效梯度,每个 token 的更新量不同
PPO 在奖励函数中减去 KL 散度

理解 PPO 目标函数

信任域源自数值优化,在深度强化学习中由 TRPO(Trust Region Policy Optimization)推广开来
信任域的目的是限制每次参数更新的步长,保证训练稳定性。
PPO 是 TRPO 的实用化版本,其核心机制(裁剪操作及 min/max 函数)定义了信任域:一旦策略更新超出该区域,目标函数变平坦,梯度为零
策略比率 $R(\theta)$ 与优势 $A_t$ 的组合形成两类情况:正优势和负优势
正优势($A_t > 0$):当优势为正时,表示当前动作相对于平均水平是有益的,希望提高动作的概率,但只允许其增加到不超过 $(1 + \varepsilon)$ 倍的旧策略概率,一旦超过这一上限,梯度被裁剪为 0,以避免过度强化
情况含义未裁剪目标裁剪后目标实际目标梯度行为$R(\theta) < 1-\varepsilon$
新策略动作概率比旧策略低
$R(\theta) A_t$
$(1-\varepsilon) A_t$
$R(\theta) A_t$
$\nabla_\theta \neq 0$
提升动作概率
$1-\varepsilon \le R(\theta) \le 1+\varepsilon$
新旧策略概率接近
$R(\theta) A_t$
$R(\theta) A_t$
$R(\theta) A_t$
$\nabla_\theta \neq 0$
正常策略梯度更新
$R(\theta) > 1+\varepsilon$
动作概率已经很高
$R(\theta) A_t$
$(1+\varepsilon) A_t$
$(1 + \varepsilon) A_t$
$\nabla_\theta = 0$
停止强化动作
负优势($A_t < 0$):当优势为负时,表示当前动作是不利的,希望降低动作的概率,但只允许其降低到不低于 $(1 - \varepsilon)$ 倍的旧策略概率,一旦低于这一下限,梯度被裁剪为 0,以避免过度抑制
情况含义未裁剪目标裁剪后目标实际目标梯度行为$R(\theta) < 1-\varepsilon$
动作概率已经低
$R(\theta) A_t$
$(1-\varepsilon) A_t$
$(1 - \varepsilon) A_t$
$\nabla_\theta = 0$
停止进一步降低
$1-\varepsilon \le R(\theta) \le 1+\varepsilon$
概率接近旧策略
$R(\theta) A_t$
$R(\theta) A_t$
$R(\theta) A_t$
$\nabla_\theta \neq 0$
正常策略梯度更新,降低概率
$R(\theta) > 1+\varepsilon$
动作概率比旧策略高
$R(\theta) A_t$
$R(\theta) A_t$
$R(\theta) A_t$
$\nabla_\theta \neq 0$
降低动作概率
价值函数与 PPO

PPO 的价值函数
PPO 在语言模型中增加了一个额外网络,用来预测每个 token 的价值 $V_t$
这个价值函数的作用类似于 REINFORCE 中的基线,但比简单的蒙特卡洛平均更灵活和精细
通过价值函数,可以在 token 级别对奖励进行归一化,从而减少策略梯度的方差
价值函数的训练目标
价值函数预测的是从当前 token 开始的未来回报,通常包含折扣因子 $\gamma$,并且在 RLHF 中一般已经扣除了 KL 惩罚
训练目标可以采用蒙特卡洛回报(直接使用 rollout)或广义优势估计(GAE)
GAE 可以跨多个时间步更精确地估计优势,但计算复杂度更高
PPO 的双损失结构
策略(Actor)损失:利用优势 $A_t = \hat{V}_t - V_t$ 加权每个 token 的 log-prob 梯度,进行策略更新
价值函数(Critic)损失:用均方误差(MSE)将价值函数预测 $V_t$ 拟合到目标回报 $\hat{V}_t$,保证价值预测准确
PPO 对 REINFORCE 的扩展主要在两个方面:引入价值函数作为更精细的基线,以及使用裁剪和重要性采样机制稳定策略更新
在语言模型中,这使得策略梯度可以在 token 级别被精确加权,提升训练稳定性和收敛效率
在上图中
价值函数的训练使用 on-policy rollout 来计算监督目标
模型在每个 token 位置预测 $V_t$,并通过均方误差(MSE)将其拟合到目标回报 $\hat{V}_t$
随后,优势 $A_t = \hat{V}_t - V_t$ 被用于加权策略梯度更新
下面给出了一个不使用 GAE 的、基于 PPO 的价值网络训练示例实现
群组相对策略优化 (GRPO)

群组相对策略优化(Group Relative Policy Optimization, GRPO)首次由 DeepSeekMath 提出,并在其他 DeepSeek 模型中使用例如 DeepSeek-V3 和 DeepSeek-R1
GRPO(Group Relative Policy Optimization)可以看作 PPO 的变体,采用类似的策略更新公式,但做了几个简化:
不学习独立的价值函数(Critic),避免了从大型语言模型中训练价值函数的复杂性
在内存占用上节省了一个模型副本,只需保留当前策略和参考策略,而 PPO 通常需要额外的 Critic 网络
优势(Advantage)估计
GRPO 在同一提示(Prompt)下生成多个 Completion $a_1, \dots, a_G$,并获取对应奖励 $r_1, \dots, r_G$
对于第 $i$ 个 Completion,优势计算为标准化形式
Ai=std(r1,r2,⋯,rG)ri−mean(r1,r2,⋯,rG)直观上,GRPO 是通过批次内比较学习哪个答案更好,相比平均水平提升正样本概率,降低负样本概率
与 PPO 的 token 级价值函数不同,GRPO 给同一个 Completion 内的所有 token 分配相同的优势值(序列级 Advantage)
通过简化的价值估计(蒙特卡洛估计),GRPO 避免了维护价值函数
策略更新目标
GRPO 的损失函数与 PPO 类似,但 KL 距离通常直接加在损失中,而不是合并到奖励里
序列级形式:
J(θ)=G1i=1∑G(min(πθold(ai∣s)πθ(ai∣s)Ai, clip(πθold(ai∣s)πθ(ai∣s),1−ε,1+ε)Ai)−βDKL(πθ∣∣πref))token 级形式:
J(θ)=G1i=1∑G∣ai∣1t=1∑∣ai∣(min(πθold(ai,t∣si)πθ(ai,t∣si)Ai,t, clip(πθold(ai,t∣si)πθ(ai,t∣si),1−ε,1+ε)Ai,t)−βDKL(πθ(⋅∣si)∣∣πref(⋅∣si)))注意这里 $A_{i,t} = A_i$,即序列内所有 token 使用相同优势
GRPO 与 PPO 的区别

优势计算:GRPO 相对于组(同一提示在不同代次中的均值和标准差)对奖励进行归一化,而非使用学习到的价值函数作为基线
无价值网络:GRPO 完全移除了价值模型,消除了
vf_loss及相关复杂性KL惩罚位置:GRPO 将 KL 惩罚直接添加到损失中,而不是从奖励中减去 KL 惩罚
GRPO 与 RLOO 的区别
RLOO 中,每条序列的基线是同一批次其他序列的平均奖励
只减去了平均值,没有考虑奖励分布的“离散程度”或方差
不同批次奖励尺度不同,如果奖励本身分布很宽,优势的数值差异可能很大,梯度方差也可能偏高
单位不统一,仅靠偏移(offset)来减少方差
而 GRPO 中,每条序列的基线是标准化:$A_i = \frac{r_i - \text{mean}(r_1,\dots,r_G)}{\text{std}(r_1,\dots,r_G)}$
不仅减去了均值,还除以了标准差,使优势值在批次内部有统一的尺度(通常均值≈0,方差≈1)
对梯度更新更稳定,尤其在奖励分布跨度大或不均匀时,标准化可以防止单个极端奖励主导梯度
可以看作是在做批次归一化(batch normalization) 的思想在策略梯度中的应用
GRPO 与 PPO、REINFORCE 以及更广义的、基于奖励模型评分的 RLHF 相比
在 GRPO 中,当前策略针对同一 prompt 生成多条回答,通过“组内比较”估计 advantage,从而利用 completion 之间的相对信息
而 PPO 和传统策略梯度则更关注每个 completion 的绝对奖励,即使生成多条 completion 对价值估计改进也十分有限
GRPO 非常适合现代语言模型场景,因为生成多条回复是自然的操作,而在机器人等任务中,单个环境状态执行多个动作受限较大
GRPO 的标准化优势可能引入偏差:
对几乎所有回答都正确或都错误的 prompt,标准差小,advantage 反而变大
对大多数回答错误、少数正确的 prompt,标准化会降低权重,但这些高难度样本提供了强训练信号
有文献提出去掉标准差项来缓解这种偏差,但这样做的代价是:对于“大多数回答错误、只有少数回答正确”的问题,其权重会被降低,而这些问题本身可能对模型学习非常有价值
与 PPO、REINFORCE 以及更广义的、基于奖励模型评分的 RLHF 相比,GRPO 通常会在每个 prompt 上采样更多的回答,这是因为 GRPO 的 advantage 完全依赖于同一 prompt 下不同 completion 之间的相对优劣关系
事实上,这类高方差的 prompt 往往正是最困难的样本:只有极少数采样到的回答是正确的,但它们能为模型提供非常强的训练信号
Dr. GRPO 是 GRPO 的一个改进版本(GRPO Done Right),其 advantage 估计方式与 RLOO 的 advantage 非常接近
Dr. GRPO、RLOO、GRPO
RLOO 的 baseline 是同一组中除自身之外的平均奖励;Dr. GRPO 则是对整个组的平均奖励做差
通过一个常数因子 $\frac{G}{G-1}$,Dr. GRPO 的 advantage 可以严格等价于 RLOO 的 advantage
Dr. GRPO 移除了标准差归一化项,使得 advantage 数值被放大
对于奖励方差大的样本,这相当于提高了学习率,有助于缓解 GRPO 对低方差问题的偏置
代价是,对于极端稀有正确回答的样本,其权重可能被削弱,因为标准差归一化被去掉了
在一个大小为 $G$ 的 group 中,针对某个 completion $i$,Dr. GRPO 的 advantage 定义为:
A~i=ri−mean(r1,r2,⋯,rG)=ri−G1j=1∑Grj而 RLOO 优势估计为:
AiRLOO=ri−G−11j=1,i=j∑Grj如果将 Dr. GRPO 优势定义乘以 $\frac{G}{G-1}$,可以得到缩放后的等价性:
G−1GA~i=G−1G(ri−G1j=1∑Grj)=G−1Gri−G−11j=1∑Grj=G−1Gri−G−11j=1,j=i∑Grj−G−11ri=ri(G−1G−G−11)−G−11j=1,j=i∑Grj=ri−G−11j=1,j=i∑Grj=AiRLOO
GRPO 的实现中,KL 散度采用了估计量形式,虽然是有偏的,但是易于计算

群组序列策略优化 (GSPO)
如前文所述,当对由旧策略采样得到的一批数据进行多个梯度更新步骤时,就会出现一个经典问题:
用于收集数据的策略,与当前正在优化的策略,其分布并不匹配
这种分布不匹配在实践中主要出现在两类场景:
第一,对同一批数据执行多个梯度更新。随着每一次更新,当前策略 $\pi_\theta$ 会逐渐偏离生成数据时的策略 $\pi_{\theta_{\text{old}}}$
第二,在异步训练系统中,推理后端(如 vLLM)与训练后端(如 FSDP)由于参数同步延迟,可能在任意时刻持有不同版本的模型权重。这种情况在 RLHF 中存在,且在 RLVR 中尤为常见
为纠正这种分布不匹配,引入了重要性采样
PPO 和 GRPO 均在 token 级别应用重要性采样,并通过裁剪目标来稳定训练过程,然而这种做法存在一个较为隐蔽但重要的失败模式:
当某个 token 的重要性比率超出裁剪区间 $[1-\varepsilon, 1+\varepsilon]$ 时,该 token 对应的梯度会被完全置零
对于那些罕见但关键的 token(例如模型最初赋予极低概率、却对正确推理至关重要的中间步骤),这种 token 丢弃会显著削弱学习信号,甚至阻止模型学会稳定地产生这些 token
群组序列策略优化(Group Sequence Policy Optimization, GSPO)正是在这一背景下提出的
GSPO 对 GRPO 的核心扩展在于:将重要性采样从 token 级别提升到序列级别
数值动机
在长序列或大规模稀疏模型(如现代 MoE 架构)中,token 级重要性比率往往数值不稳定
单个 token 的极端比率可能主导整个更新
或者大量 token 被独立裁剪,导致同一响应内部的学习信号被严重稀释
概念动机
在大多数 RLHF 和 RLVR 场景中,奖励是在完整序列级别分配的
因此,重要性采样的校正粒度理应与奖励粒度保持一致
GSPO 通过为每个完整回复计算统一的重要性权重,从根本上缓解了上述问题
回顾自回归语言模型的概率分解形式:
πθ(a∣s)=t=1∏∣a∣πθ(at∣s,a<t)GSPO 使用几何平均定义了一个长度归一化的序列级重要性权重,以避免长序列带来的数值问题:
ρi(θ)=(πθold(ai∣s)πθ(ai∣s))∣ai∣1=exp∣ai∣1t=1∑∣ai∣logπθold(ai,t∣s,ai,<t)πθ(ai,t∣s,ai,<t)缓解了长序列中数值不稳定的问题
使裁剪区间在 token 平均尺度上起作用,不同长度的响应可比
在目标函数层面,GSPO 与 GRPO 形式高度一致,只是将 token 级重要性权重替换为上述序列级重要性权重:
JGSPO(θ)=Es∼D, aii=1G∼πθold(⋅∣s)[G1i=1∑Gmin(ρi(θ)Ai, clip(ρi(θ),1−ε,1+ε)Ai)]序列级权重 $\rho_i$ 被统一应用到序列中的所有 token
保留了 GRPO 的组内优势计算($A_i$)
避免了 token 级裁剪导致关键 token 梯度为零的问题
总体而言,GSPO 可以概括为 GRPO + 序列级重要性采样,使得重要性采样的校正粒度与奖励分配的粒度相匹配
这使得 GSPO 在长序列、稀疏奖励以及现代大模型设置中具有更好的数值稳定性和学习信号一致性
裁剪重要性采样策略优化 (CISPO)
裁剪重要性采样策略优化(Clipped Importance Sampling Policy Optimization, CISPO)采用了一种与 PPO / GRPO 本质不同的稳定化思路
如前所述,PPO 和 GRPO 通过裁剪目标函数来稳定训练,这样当 token 的重要性比率 $\rho$ 超出裁剪区间时,对应 token 的梯度会完全置零,对于稀有但关键的 token(如重要推理步骤),梯度丢失会影响学习
而 CISPO 裁剪重要性权重本身,而不是目标函数,所有 token 始终保留梯度贡献(即使重要性权重被限制,token 仍然应该根据其优势函数获得梯度信号,而不是被完全“丢弃”)
裁剪后的 token 级重要性权重
ρ^i,t(θ)=clip(ρi,t(θ),1−εlow,1+εhigh),ρi,t(θ)=πθold(ai,t∣s,ai,<t)πθ(ai,t∣s,ai,<t)在目标形式上,CISPO 放弃了 PPO 式的双边裁剪代理目标,而更接近 REINFORCE 风格:
JCISPO(θ)=Es∼D, aii=1K∼πθold(⋅∣s)[∑i=1K∣ai∣1i=1∑Kt=1∑∣ai∣sg(ρ^i,t(θ))⋅Ai,tlogπθ(ai,t∣s,ai,<t)]$\text{sg}(\cdot)$ 表示停止梯度(stop-gradient):前向计算时使用这个值,但在反向传播时不计算它的梯度,从而保证每个 token 都保留梯度信号,重要性权重裁剪只起“限制梯度幅度”的作用,而不会影响优化器的梯度计算
$\hat{\rho}_{i,t}(\theta)$ 是裁剪后的 token 级重要性权重
CISPO 裁剪的是重要性权重本身,这是一种明确的偏差–方差权衡——裁剪权重不可避免地引入偏差,但显著降低了重要性采样带来的方差
CISPO 支持不对称裁剪边界 $\varepsilon_{\text{low}} \neq \varepsilon_{\text{high}}$,这一设计类似于 DAPO 中的 “clip-higher” 思路:允许模型在增加某些 token 概率时执行更大幅度的更新以鼓励探索,同时对降低概率的更新保持更严格的约束
CISPO 与 GSPO
CISPO 与 GSPO 都源自将强化学习扩展到超大规模模型(尤其是 MoE 模型)的研究实践,这类模型通常存在显著的数值不稳定性
研究发现,token 级重要性采样比率容易出现极端值,既可能导致梯度过度放大,也会引入大量方差,严重阻碍学习
这也是 CISPO 与 GSPO 在工业级大模型中具有实际价值,而在小规模学术实验中应用较少的原因
与 CISPO 思路密切相关的工作还包括 Tapered Off-Policy REINFORCE (TOPR),其核心特点包括:
直接裁剪重要性权重,而非裁剪代理目标
在序列级别应用裁剪(类似 GSPO),保证奖励粒度与重要性采样校正粒度一致
使用基于奖励符号的不对称裁剪策略:
对正奖励样本不进行重要性采样校正
对负奖励样本将比率裁剪至 $[0, 1]$
这种设计在实践中显著提升了离策略学习的稳定性
代码实现
损失聚合
在使用语言模型实现任何策略梯度算法时,一个核心问题是:如何将逐 token 的损失聚合为最终的标量损失?
给定第 $i$ 个样本在第 $t$ 个 token 的逐 token 损失,以及 Completion 长度 $L_i$ 和 batch 大小 $B$,主要有三种策略:
策略 1:按序列归一化(标准 GRPO;也用于部分 PPO 实现):每个序列对 batch 损失的贡献相同,与序列长度无关。对应代码如下:
策略 2:按 token 归一化(DAPO):每个 token 贡献相同权重;更长的序列会按比例对梯度产生更大的影响。对应代码如下:
策略 3:固定长度归一化(Dr. GRPO):使用最大序列长度 L_max 进行归一化,在保持逐 token 梯度尺度一致的同时,仍然允许更长的序列因为包含更多有效 token 而对总梯度产生更大的影响
上述代码中的 completion_mask 是一个由 1 和 0 组成的矩阵,其中 prompt token 被屏蔽为 0,因为不希望模型从预测 prompt token 中学习
从直觉上看,按序列归一化(策略 1)似乎是最合理的,因为我们关心的是最终结果,而不是单个 token
然而,这种方式会引入与序列长度相关的微妙偏置,从而可能导致模型偏向某些自然需要更多 token 的策略或刻意压缩输出,具体取决于偏置方向
考虑两个长度不同、逐 token 损失如下的序列:
使用策略 1(按序列):batch 损失为对应序列损失的平均值,关键在于,短序列中的每个 token 会获得比长序列中 token 更大的梯度
使用策略 2(按 token):batch 损失按所有 token 平均,所有 token 获得相同大小的梯度
使用策略 3(固定长度,$L_max$):短序列的贡献较小,长序列的贡献较大,在平衡逐 token 梯度的同时仍然体现序列长度差异
示例代码
输出结果表明
在策略 1(masked_mean)下,短序列的逐 token 梯度(0.25)大于长序列(0.14)
策略 2 和策略 3 在不同序列之间实现了逐 token 梯度的均衡
如果使用梯度累积(即在执行一次 backward 之前跨多个 minibatch 累加梯度),这些结果可能会发生显著变化,在这种情况下,短序列和长序列之间的平衡关系甚至可能反转
在实践中,最佳策略取决于具体的训练设置;通常,在 RLHF 中会选择数值稳定性最好或损失方差最小的方法
MDP 与 Bandit 建模方式
损失聚合方式的选择与如何对 RL 问题进行建模有着更深层次的联系
MDP(token 级)视角
将每个 token 视为一个动作 $a_t$,其状态 $s_t$ 是当前的前缀
在实践中,当使用学习得到的价值函数 $V(s_t)$(例如 GAE [3])来计算逐 token 优势,并在逐 token 层面施加 KL 惩罚时,就采用了这种建模方式
PPO 是这一范式的经典代表
Bandit(序列级)视角
将整个完成序列视为一个单独的动作,只对应一个标量奖励 $R$
在代码中,这意味着先计算一个序列级优势 $A_{seq}$,然后将其广播到所有 token
RLOO 和 GRPO 风格的优势通常用于这种 bandit 式设置
直接对齐方法(如 DPO 和 A-LoL)同样定义了序列级目标,但它们并不是策略梯度估计器
许多 GRPO 实现使用 bandit 风格的优势,并在损失中加入一个单独的逐 token KL 项
而许多 PPO / RLOO 实现则在计算优势之前将 KL 折叠进奖励中,这两种约定在实践中都存在
MDP 与 Bandit 建模方式的代码对比
异步性
策略梯度算法的默认实现称为同策略执行,即智能体(语言模型)生成的行动会在模型参数更新之前被评分
策略梯度方法的理论推导依赖一个关键前提:所有行动都必须严格来自当前策略,也就是说,模型始终与最新一次试验或 rollout 采样的结果保持完全同步
在实际系统中,维持严格的同策略执行会显著降低训练效率,而且从工程角度来看,完全同步本身也是不可能实现的
因此,近年来关于语言模型的几乎所有实证结果,在严格意义上都略微超出了现有理论证明所覆盖的假设范围
同步与异步强化学习训练中,生成阶段与更新阶段的对比

Figure 8: A comparison of the generation-update phases for synchronous or asynchronous RL training following Noukhovitch et al. 2024. 一种常见的工程实践是在独立的 GPU 节点上并行运行推理与训练,并通过专门设计的软件系统来高效协调这两部分计算
在主流的开源语言模型强化学习工具中,通常会使用诸如 Ray 这样的分布式进程管理库,配合高效的推理引擎(例如 vLLM),在策略梯度学习循环与推理循环之间传递数据
在这种架构下,负责执行策略梯度更新的 GPU 通常被称为 learner,而负责从语言模型中进行采样生成的 GPU 被称为 actor
在提高训练异步程度的过程中,所面临的核心挑战在于如何保持训练的稳定性,以及如何避免学习信号的退化

Figure 9: An example distributed RL system, where two queues are managed to pass data to the learner and actor GPUs, which can both be synchonized with a distributed computing library such as Ray. Olmo Team 2025, license CC-BY. 这类系统在设计和实现时通常基于一个假设:近似同策略的数据已经足以支持稳定的策略学习
在该框架下,可以较为容易地对生成阶段与更新阶段进行同步,从而避免训练系统中某一部分计算资源长时间空闲,例如图中从 learner 向 actor 传递模型权重的过程
对于推理模型而言,一些任务具有极端的长推理特性,单个答案可能需要生成 10K 到 100K 以上的 token,这使得 rollout 采样的生成过程成为训练流程中的主要瓶颈
在更偏同步的强化学习基础设施上训练此类模型时,一个常见问题是:同一批次中,不同提示对应的生成时间差异极大,某一个样本可能由于生成 token 更多或工具调用次数更多而显著拖慢整体进度,导致其余计算资源在等待期间处于空闲状态
针对这种序列长度不匹配的问题,另一种解决方案称为序列级打包,即通过精心设计的掩码机制,在同一个批次中组合多个较短样本,使模型能够持续进行 rollout 生成,并在批次内部更均匀地分摊长度归一化带来的影响
随着推理模型的出现,研究者进一步开始探索将训练与推理循环完全转变为离策略的形式,其中用于策略梯度更新的训练批次由多个并行实例中最近完成的 rollout 采样结果动态填充
完全异步的训练方式还使得强化学习训练更容易扩展到多个数据中心,因为它允许显著拉大 learner(执行策略梯度更新)与 actor(尝试解决任务)之间的模型权重同步间隔
PPO
PPO 有很多种实现,下面展示的是其核心的损失计算过程
除了策略损失之外,价值计算同样对训练稳定性至关重要,而在价值计算上也存在多种不同的设计选择(包括价值模型损失的多种形式)
需要注意的是,这里使用的参考策略(或者说旧的对数概率)来自于生成样本时刻的策略,而不一定是单独维护的参考策略,参考策略本身仅用于 KL 距离的约束或惩罚项
理解 PPO 的关键在于理解策略梯度损失是如何被更新的,重点关注以下三行代码:
其中,pg_losses1 是标准的、以优势加权的策略梯度损失;pg_losses2 使用相同的公式,但将概率比限制在给定区间内,从而限制策略在一次更新中发生变化的幅度
关键的区别在于对这两个损失取
torch.max,由于目标是在最小化一个负损失(注意优势项前面的负号),取最大值等价于选择更加保守的梯度也就是导致策略更新幅度更小的那个梯度,当优势为正时(表示一个好的动作),裁剪机制可以防止策略过于激进地提高该动作的概率;当优势为负时(表示一个不好的动作),裁剪机制可以防止在相反方向上的过度修正
通过对对数概率比进行裁剪,PPO 限制了策略相对于生成训练数据时所用策略的漂移范围,从而在不需要显式计算信任区域的情况下实现训练稳定性
上述代码还展示了 PPO 在学习策略的同时也在学习一个价值函数,这确实增加了实现上的复杂度,但被裁剪的目标函数才是 PPO 的核心机制
当超参数“每个样本的梯度步数”等于 1 时,PPO(以及 GRPO)的实现可以变得更加简洁,该超参数在实际中常见的取值通常为 2–4,甚至更高
在 PPO 或 GRPO 的主要公式中(见公式 22),“参考”策略指的是上一轮的参数,即用于生成补全结果或动作的那一组参数
因此,如果对每个样本只进行一次梯度更新 $\pi_\theta=\pi_{\theta_{old}}$,则更新规则可以简化为如下形式(其中符号$[]_\nabla$表示停止梯度):
J(θ)=G1i=1∑G(πθ(ai∣s)∇πθ(ai∣s)Ai−βDKL(πθ∥πref))这导致在 PPO 或 GRPO 的实现中,可以省略第二个策略梯度和裁剪逻辑,从而使优化器更接近标准的策略梯度
GRPO
对于 RLHF,KL 惩罚的标准应用形式为 $r=r_\theta-\beta D_{\text{KL}}$
而在 GRPO 中,KL 惩罚项是在损失更新阶段直接施加的,而不是作用在奖励函数上:
L=Lpolicy gradient+βDKL传统上,KL 距离是针对某个提示对应的补全序列中的每一个 token 来计算的
在推理训练场景中,通常会从同一个提示中采样出多个补全结果,并且一个批次中还会包含多个不同的提示,因此 KL 距离张量的形状为 $[B, L, N]$,其中 $B$ 表示批次大小,$L$ 表示序列长度,$N$ 表示每个提示对应的补全数量
在采用第一种损失累积方式的情况下,其伪代码可以写成如下形式
RLOO
RLOO 的优势更新方式与 GRPO 非常接近,如果暂时不考虑 PPO 风格的裁剪和 KL 惩罚等细节,这两种算法在概念层面上具有很强的相似性
在 RLOO 中,优势是相对于一个基线来计算的,而这个基线与 GRPO 中使用的基线几乎完全一致——即针对同一个问题,将某个补全的奖励与该问题下其他补全的奖励进行对比
RLOO 的优势估计可以写成如下形式:
算法比较
REINFORCE
On-policy
Yes
No
No
$-\frac{1}{T}\sum_{t=1}^{T}\log\pi_\theta(a_t \mid s_t),(G_t - b(s_t))$
RLOO
On-policy
Yes
No
No
$-\frac{1}{K}\sum_{i=1}^{K}\sum_t \log\pi_\theta(a_{i,t} \mid s_{i,t})\left(R_i - \frac{1}{K-1}\sum_{j\neq i} R_j\right)$
CISPO
On-policy
Yes
No
Yes
$-\sum_{i,t}\operatorname{sg}(\hat\rho_{i,t}),A_{i,t}\log\pi_\theta(a_{i,t} \mid s_{i,t}),\ \hat\rho_{i,t}=\operatorname{clip}(\rho_{i,t},1-\varepsilon,1+\varepsilon)$
PPO
On-policy
Yes
Yes
Yes
$-\frac{1}{T}\sum_{t=1}^{T}\min!\left(\rho_t A_t,\ \operatorname{clip}(\rho_t,1-\varepsilon,1+\varepsilon)A_t\right),\ \rho_t=\frac{\pi_\theta(a_t \mid s_t)}{\pi_{\theta_{\text{old}}}(a_t \mid s_t)}$
GRPO
On-policy
Yes
No
Yes
$-\frac{1}{G}\sum_{i=1}^{G}\min!\left(\rho_i A_i,\ \operatorname{clip}(\rho_i,1-\varepsilon,1+\varepsilon)A_i\right),\ \rho_i=\frac{\pi_\theta(a_i \mid s)}{\pi_{\theta_{\text{old}}}(a_i \mid s)},\ A_i=\frac{r_i-\operatorname{mean}(r_{1:G})}{\operatorname{std}(r_{1:G})}$
GSPO
On-policy
Yes
No
Yes
$-\frac{1}{G}\sum_{i=1}^{G}\min!\left(\rho_i A_i,\ \operatorname{clip}(\rho_i,1-\varepsilon,1+\varepsilon)A_i\right),\ \rho_i=\left(\frac{\pi_\theta(a_i \mid s)}{\pi_{\theta_{\text{old}}}(a_i \mid s)}\right)^{1/\mid a_i\mid}$
DPO
Off-policy
No
No
Yes
$-\mathbb{E}{(x,y^w,y^l)}!\left[\log\sigma!\left(\beta\bigl[\Delta\log\pi\theta(x)-\Delta\log\pi_{\text{ref}}(x)\bigr]\right)\right]$
双重正则化
在 RLHF 和语言模型微调中,常见的策略梯度方法涉及两种正则化形式:
内置于算法中的步长正则化
例如 PPO 通过裁剪(clipping)限制参数更新幅度,形成替代目标(surrogate objective)
在训练中可以通过 clip fraction 指标衡量有多少样本的梯度被裁剪
基于 KL 散度的距离惩罚
用于约束当前策略相对于初始策略的偏移
在 RLHF 中,KL 惩罚通常是主要的正则化来源,保证微调过程中策略不会偏离原始模型过远
深度强化学习早期算法(包括 PPO)的设计初衷是稳定智能体学习,而在语言模型微调场景下,PPO 内部的步长裁剪正则化作用相对较小,这是由于多数实现每批次仅执行一次梯度更新,裁剪机制很少触发,而 KL 惩罚才是主要约束手段
从这个角度看,PPO 在 RLHF 中与 REINFORCE 的差异,主要体现在 KL 正则化,而非内部裁剪机制
直接对齐算法
直接对齐算法(Direct Alignment Algorithms, DAAs)允许在不训练奖励模型或使用强化学习优化器的情况下,直接更新模型以解决相同的 RLHF 目标
它利用与传统方法完全相同的数据,解决相同的偏好学习问题,从而使语言模型更加对齐、智能且易用
由于无需奖励模型和在线优化,DAAs 的实现更为简单,降低了训练计算成本,也使实验迭代更加方便
最具代表性的 DAA 是直接偏好优化(Direct Preference Optimization, DPO),其核心思想是利用梯度上升法求解带约束的 RLHF 目标:
πmaxEx∼DEy∼π(y∣x)[rθ(x,y)]−βDKL(π(y∣x)∥πref(y∣x))技术上讲,序列似然校准(SLiC-HF)是第一个现代直接对齐算法,但由于多种因素未能流行起来
直接偏好优化 (DPO)
DPO的工作机制
表面上看,DPO 是直接优化策略以实现 RLHF 目标,其损失函数形式如下:
LDPO(πθ;πref)=−E(x,yc,yr)∼D[logσ(βlogπref(yc∣x)πθ(yc∣x)−βlogπref(yr∣x)πθ(yr∣x))]$x$:输入提示(prompt)
$y_c$:被选中的响应(chosen response)
$y_r$:被拒绝的响应(rejected response)
$\pi_\theta$:我们正在训练的模型策略
$\pi_{\text{ref}}$:参考策略(通常是原始语言模型)
$\beta$:超参数,控制平衡奖励优化和 KL 约束
直观理解:
对每一对偏好数据 $(y_c \succ y_r)$,DPO 想让模型生成 $y_c$ 的概率尽量比 $y_r$ 高
$\log \frac{\pi_\theta(y \mid x)}{\pi_{\text{ref}}(y \mid x)}$ 是对数比率,衡量当前模型相对参考模型对一个输出的偏好程度
Sigmoid 函数 $\sigma(\cdot)$ 将这个差值映射到 $0\sim1$,用作概率
损失函数整体的作用就是让被选中输出的对数比率尽可能大于被拒绝输出的对数比率
DPO 定义了一个隐式奖励,它取代了外部奖励模型,定义为对数概率比:
r(x,y)=βlogπref(y∣x)πr(y∣x)这里的 $\pi_r$ 可以理解为“最优策略”——如果知道最优策略,它能直接告诉我们每个输出的好坏
隐式奖励的意义:不需要显式训练一个奖励模型(RLHF 里通常要训练一个),直接用概率比来衡量输出的好坏
因此 DPO 的核心思想是让模型自己成为奖励模:它学到的概率分布越符合人类偏好,其本身就是隐式奖励
损失的梯度可以写为:
∇θLDPO(πθ;πref)=−βE(x,yc,yr)∼D[σ(rθ(x,yr)−rθ(x,yc))(∇θlogπ(yc∣x)−∇θlogπ(yr∣x))]$\sigma(r_\theta(y_r) - r_\theta(y_c))$:
如果模型把 $y_r$ 的概率估计得比 $y_c$ 高,这个值接近 1,梯度更新更大(因为要纠正错误排序)
如果 $y_c$ 已经比 $y_r$ 高,这个值接近 0,梯度更新小(不需要调整太多)
$\nabla_\theta \log \pi(y_c \mid x)$ 增加 $y_c$ 的概率,$\nabla_\theta \log \pi(y_r \mid x)$ 减少 $y_r$ 的概率
$\beta$ 控制更新步长——平衡学习速度和 KL 约束(防止模型过度偏离原始语言模型)
所以整个梯度公式就是在做一个加大“好输出”概率,降低“差输出”概率”的差值优化
核心直觉是,DPO 正在拟合一个隐式奖励模型,其对应的最优策略可以通过闭式解提取(这要归功于梯度下降和机器学习工具)
DPO 本质上让语言模型“暗中学会了奖励函数”,而不是显式训练奖励模型,正符合论文标题 “Your Language Model is Secretly a Reward Model”
DPO 与 RLHF 的关系
RLHF:间接优化,依赖 RM + 在线采样
训练奖励模型(Reward Model, RM)
用策略梯度方法(如 PPO)优化语言模型策略以最大化奖励
过程在线,需要采样多次
DPO:直接优化,闭式梯度,离线数据即可
不训练显式奖励模型,而是用隐式奖励(概率比)
梯度直接计算在对数概率上
闭式梯度,不需要采样生成补全
更直接、更简单,但本质上仍优化同样的偏好目标
$\beta$ 的作用
控制更新幅度与 KL 约束的权衡:
小 $\beta$:更新小,模型更接近原始参考模型
大 $\beta$:更新大,更强烈地偏向人类偏好,但可能过拟合
在实践中,DPO 的 $\beta$ 相对容易调优,因为它是离线闭式优化,不像在线 RLHF 那样受采样方差影响
DPO 推导
DPO 推导主要分为两部分
首先,推导出最优解的策略形式,该策略解决了 RLHF 目标
然后,说明如何从成对偏好数据(即 Bradley Terry 模型)推导出该解
推导最优 RLHF 解
考虑 RLHF 的优化目标,希望最大化以下公式:
πmaxEx∼DEy∼π(y∣x)[rθ(x,y)]−βDKL(π(y∣x)∥πref(y∣x))第一个期望项 $\mathbb{E}[r(x,y)]$ 表示策略生成的输出尽可能获得高奖励(最好符合人类偏好)
第二项 KL 散度 $D_{KL}(\pi \parallel \pi_{\text{ref}})$ 用于约束策略不要偏离原始模型太远(防止过拟合)
超参数 $\beta$ 控制两者的权衡
我们希望找到一个策略 $\pi$,既能产生高奖励,又不会与原始语言模型差距太大
这里,双重期望仅适用于计算期望奖励的采样,因为 KL 项仍然是解析表达式
首先,展开 KL 散度的定义,根据定义
DKL(π∥πref)=Ey∼π[logπref(y∣x)π(y∣x)]其中求和中的 $\pi(y|x)$ 权重变为采样分布,由于两项现在共享相同的对 $y \sim \pi(y|x)$ 的期望,可以将它们合并:
πmaxEx∼DEy∼π(y∣x)[r(x,y)−βlogπref(y∣x)π(y∣x)]将其拆分为两项:
=πmax(Ex∼DEy∼π(y∣x)[r(x,y)]−βEx∼DEy∼π(y∣x)[logπref(y∣x)π(y∣x)])引入负号:
=πmin(−Ex∼DEy∼π(y∣x)[r(x,y)]+βEx∼DEy∼π(y∣x)[logπref(y∣x)π(y∣x)])除以 $\beta$,重新组合:
=πmin(Ex∼DEy∼π(y∣x)[logπref(y∣x)π(y∣x)−β1r(x,y)])现在损失的形式类似 KL 散度 + 奖励修正项,便于后续分析
为了把优化问题转化为标准概率分布形式,引入配分函数 $Z(x)$(归一化因子):
Z(x)=y∑πref(y∣x)exp(β1r(x,y))意图:构造一个有效的概率分布
π∗(y∣x)∝πref(y∣x)exp(β1r(x,y))$\pi^*$ 归一化后就成为合法概率分布:
π∗(y∣x)=Z(x)1πref(y∣x)exp(β1r(x,y))这里的直觉是对原始模型概率加权奖励,奖励越高,最终策略分布越倾向于选择它
考虑以下部分:
logπref(y∣x)π(y∣x)−β1r(x,y)加上 $\log Z(x) - \log Z(x)$:
=logπref(y∣x)π(y∣x)−β1r(x,y)+logZ(x)−logZ(x)根据结合律:
=(logπref(y∣x)π(y∣x)+logZ(x))−logZ(x)−β1r(x,y)(14)利用 $\log(x) + \log(y) = \log(x \cdot y)$(并将$Z$移至分母),得到:
=logZ(x)1πref(y∣x)π(y∣x)−logZ(x)−β1r(x,y)将 $\frac{1}{\beta} r(x,y)$ 展开为 $\log \exp \frac{1}{\beta} r(x,y)$ 并执行相同的操作,得到:
πminEx∼DEy∼π(y∣x)logZ(x)1πref(y∣x)exp(β1r(x,y))π(y∣x)−logZ(x)有了这种优化形式,需要实际求解最优策略 $\pi^*$,由于引入了配分函数 $Z(x)$,从而使下列项成为关于 $y$ 的有效概率分布
Z(x)1πref(y∣x)exp(β1r(x,y))这实际上是一个 KL 散度,因此得到
πminEx∼D[DKL(π(y∣x)Z(x)1πref(y∣x)exp(β1r(x,y)))−logZ(x)]KL 散度的最小值为 0,当且仅当两个分布相等
因为 $\log Z(x)$ 与 $\pi$ 无关,可以忽略它
根据吉布斯不等式(Gibbs inequality),当且仅当两个量相等时,该距离最小化为 0 ,因此得到最优策略:
π∗(y∣x)=π(y∣x)=Z(x)1πref(y∣x)exp(β1r(x,y))由此得出,最优策略就是对参考策略进行加权,权重由奖励决定
奖励越高的输出,其概率被放大;奖励低的输出被压缩
这种形式非常优雅,因为它直接给出闭式解,无需采样策略梯度或显式训练奖励模型
Bradley Terry 模型的 DPO 目标
首先,人类偏好的 Bradley-Terry 模型形式如下:
p∗(y1≻y2∣x)=exp(r∗(x,y1))+exp(r∗(x,y2))exp(r∗(x,y1))每个回答 $y$ 有一个标量奖励 $r^*(x,y)$
被偏好的概率只取决于两个奖励的相对大小,奖励差越大,那么被选中的概率越接近 1
这是一个排序模型,不关心奖励的绝对值,只关心差值
上一步我们已经得到 RLHF 的最优策略:
π∗(y∣x)=Z(x)1πref(y∣x)exp(β1r∗(x,y))如果 $\pi^$ 是最优策略,那么一定存在一个 $r^$,使它满足这个指数加权形式,所以可以反过来解出 $r^*$
首先对两边取对数:
logπ∗(y∣x)=log(Z(x)1πref(y∣x)exp(β1r∗(x,y)))利用 $\log(abc) = \log a + \log b + \log c$,展开右侧:
logπ∗(y∣x)=−logZ(x)+logπref(y∣x)+β1r∗(x,y)把 $r^*$ 单独放在一边:
β1r∗(x,y)=logπ∗(y∣x)−logπref(y∣x)+logZ(x)两边乘以$\beta$:
r∗(x,y)=βlogπref(y∣x)π∗(y∣x)+βlogZ(x)此时可以看到一个极其重要的事实:奖励 = 相对于参考模型的对数概率比 + 一个 与 $y$ 无关的常数项 $\beta \log Z(x)$,而 Bradley–Terry 只关心 奖励差,所以这个常数项马上会消失
将 $r^*$ 代入偏好概率:
p∗(y1≻y2∣x)=exp(βlogπref(y1∣x)π∗(y1∣x)+βlogZ(x))+exp(βlogπref(y2∣x)π∗(y2∣x)+βlogZ(x))exp(βlogπref(y1∣x)π∗(y1∣x)+βlogZ(x))利用 $e^{a+b}=e^a e^b$,分子、分母都含有 $e^{\beta \log Z(x)}$,完全抵消,因此简化为:
p∗(y1≻y2∣x)=exp(βlogπref(y1∣x)π∗(y1∣x))+exp(βlogπref(y2∣x)π∗(y2∣x))exp(βlogπref(y1∣x)π∗(y1∣x))这一步揭示了 DPO 的核心:人类偏好概率只取决于两个“对数概率比”的差
为了得到标准形式,把分子分母同时除以第一项的指数,即将分子和分母乘以 $\exp\left( -\beta \log \frac{\pi^*(y_1 \mid x)}{\pi_{\text{ref}}(y_1 \mid x)} \right)$,得到:
p∗(y1≻y2∣x)=1+exp(βlogπref(y2∣x)π∗(y2∣x)−βlogπref(y1∣x)π∗(y1∣x))1最后,根据 sigmoid 函数的定义 $\sigma(x) = \frac{1}{1+e^{-x}}$,得到:
p∗(y1≻y2∣x)=σ(βlogπref(y1∣x)π∗(y1∣x)−βlogπref(y2∣x)π∗(y2∣x))这就是在最优策略 $\pi^*$ 下,Bradley-Terry 模型下偏好数据的似然
这一步非常关键,Bradley–Terry + RLHF 最优策略自动变成了一个 sigmoid 的 log-probability 差
现实中并不知道 $\pi^*$,只能用参数化策略 $\pi_\theta$ 去逼近它
而 Bradley–Terry 的学习目标是最大化偏好数据的对数似然,等价于最小化负对数似然,得到损失:
LDPO(πθ;πref)=−E(x,yc,yr)∼D[logp(yc≻yr∣x)]=−E(x,yc,yr)∼D[logσ(βlogπref(yc∣x)πθ(yc∣x)−βlogπref(yr∣x)πθ(yr∣x))]这就是 DPO 的损失函数!
DPO 论文还提供了在 Plackett-Luce 模型下目标的额外推导,但在实践中使用较少
推导 Bradley Terry DPO 梯度
对 DPO 的损失函数求导
∇θLDPO(πθ;πref)=−∇θE(x,yc,yr)∼D[logσ(βlogπref(yc∣x)πθ(yc∣x)−βlogπref(yr∣x)πθ(yr∣x))]简写为:
∇θLDPO=−∇θE(x,yc,yr)∼D[logσ(⋅)]由于数据分布与 $\theta$ 无关,把梯度作用到期望内部:
∇θLDPO=−E(x,yc,yr)∼D[∇θlogσ(⋅)]令 sigmoid 内部的 logit 为:
u=βlogπref(yc∣x)πθ(yc∣x)−βlogπref(yr∣x)πθ(yr∣x)则损失梯度变为:
∇θLDPO=−E[∇θlogσ(u)]利用链式法则:
∇θlogσ(u)=σ(u)1σ′(u)∇θu而 sigmoid 的导数为:
σ′(u)=σ(u)(1−σ(u))代入后得到:
σ(u)σ′(u)=1−σ(u)再利用 sigmoid 的对称性:
1−σ(u)=σ(−u)于是梯度变成:
∇θLDPO=−E[σ(−u)∇θu]回忆 $u$ 的定义:
u=βlogπθ(yc∣x)−βlogπθ(yr∣x)+(reference terms)由于 $\pi_{\text{ref}}$ 与 $\theta$ 无关,其梯度为 0,因此:
∇θu=β(∇θlogπθ(yc∣x)−∇θlogπθ(yr∣x))将 $\nabla_{\theta} u$ 代回:
∇θLDPO(πθ;πref)=−E(x,yc,yr)∼D[βσ(−u)(∇θlogπθ(yc∣x)−∇θlogπθ(yr∣x))]把 $-u$ 展开回原始形式:
σ(−u)=σ(βlogπref(yr∣x)πθ(yr∣x)−βlogπref(yc∣x)πθ(yc∣x))最终得到标准 DPO 梯度表达式:
∇θLDPO(πθ;πref)=−E(x,yc,yr)∼D[βσ(βlogπref(yr∣x)πθ(yr∣x)−βlogπref(yc∣x)πθ(yc∣x))(∇θlogπ(yc∣x)−∇θlogπ(yr∣x))]
可以把梯度拆成三块来看:
方向项:提高被选中回答的概率,降低被拒绝回答的概率
∇θlogπ(yc∣x)−∇θlogπ(yr∣x)权重项:如果模型当前排序是错的($y_r$ 得分更高),权重大;如果排序已经正确,权重趋近 0
σ(rθ(x,yr)−rθ(x,yc))尺度项 $\beta$:控制更新强度,同时对应 RLHF 中的 KL 约束强度
替代方案
DPO 的一个根本特征是训练信号只来自成对偏好 $(y_c \succ y_r)$,每一对偏好在损失中权重相同,没有奖励模型、没有 rollout、没有额外评分
这带来两个直接后果:偏好信号是二值的,信息密度低,模型不知道“强烈偏好”和“勉强偏好”的区别
而现实中的人类反馈往往更丰富,例如一个好一点 vs 好很多;两个都不太好,但 A 稍微不那么糟;对某些维度(安全性、风格)更敏感,但是 DPO 原始目标完全丢掉了这些信息
为了解决 DPO 的弱点,提出了许多 DPO 算法的变体
重新加权偏好对:不是每一对都一样重要
REBEL(REgression to RElative REward Based RL)
核心思想是只用偏好标签太粗糙,仍然引入奖励模型,但不走 PPO 那条路,而是用奖励模型给出的相对奖励差(margin) 来指导更新
DPO:“A 胜过 B” → 推一下;REBEL:“A 比 B 好多少” → 推多远;它本质上是在 DPO 和传统 RLHF 之间折中
cDPO 和 IPO:假设偏好数据是脏的
这两者针对的是同一个现实问题:人类偏好数据一定有噪声
cDPO(Conservative DPO):假设偏好标签中有 $N%$ 是错误的,因此在优化时刻意收敛得更保守,等价于对损失进行缩放或截断,避免“相信每一条标签”
IPO(Identity Preference Optimization)更激进:直接修改偏好概率函数,不再使用 Bradley–Terry 的 sigmoid 形式,改用非线性映射:
Ψ(q)=log(1−qq)Bradley–Terry 假设人类是“理性排序器”,而 IPO 明确承认人类偏好并不服从 BT 假设
ODPO(DPO with an offset)的思想非常直观:不只是“选中比拒绝好”,而是“至少好 $\delta$ 这么多”
修改损失形式,而不是优化目标
ORPO(Odds Ratio Policy Optimization)不再使用 $\pi_{\text{ref}}$,损失更接近指令微调(SFT),但对选中响应施加一个轻微惩罚,防止崩坏
SimPO(Simple Preference Optimization)发现一个非常现实的问题:DPO 用的是 token log-prob 的求和,长回复天然吃亏 / 占优(取决于设置),于是提出:用平均 log-prob 或显式做长度归一化
一些 DPO 变体试图通过对损失进行微小更改来改善学习信号,或者通过减少内存使用来提高应用效率
Odds Ratio Policy Optimization (ORPO) 直接更新策略模型,使其向选中的响应靠拢,类似于指令微调损失,但对选中的响应有轻微惩罚。这种损失函数的改变消除了对参考模型的需求,简化了设置
Simple Preference Optimization (SimPO) 对 DPO 优化进行了微小更改,通过平均对数概率而不是求和(SimPO)或添加长度归一化来提高性能
DPO 存在一个重要的结构性问题:其优化目标仅关注拉开选中响应 $y_c$ 与拒绝响应 $y_r$ 之间的概率 margin,而不直接约束生成分布的绝对形态
从损失函数
LDPO=−logσ(βlogπref(yc∣x)πθ(yc∣x)−βlogπref(yr∣x)πθ(yr∣x))可以看出,优化仅要求相对差值变大,而并未要求 $\pi_\theta(y_c \mid x)$ 本身必须增大
在数值上,这意味着模型可以同时降低 $y_c$ 和 $y_r$ 的概率,只要拒绝响应 $y_r$ 被压得更低,loss 依然会下降
因此,DPO 的梯度并非“奖励选中响应”,而是“惩罚拒绝响应更强”
从梯度形式
∇θLDPO∝σ(rθ(x,yr)−rθ(x,yc))(∇θlogπθ(yc∣x)−∇θlogπθ(yr∣x))可以看到,学习信号完全由二者的差值驱动,而非由绝对奖励或校准后的概率驱动
这种“只拉开 margin”的优化方式在直觉上并不保证良好的泛化:模型可能将概率质量推向未被偏好数据覆盖的 token 或序列区域,从而增加未对齐、未约束行为的发生概率
已有工作指出,这种偏好位移(preference shift)可能导致模型在训练分布外产生不可预测行为,这被认为是 DPO 类离线方法在某些场景下性能弱于在线 RLHF 方法的潜在原因之一
一些后续方法(如 Cal-DPO、AlphaPO)尝试通过调整梯度形状或奖励函数形式来缓解这一问题,但这本质上揭示了 DPO 的一个核心限制:其目标函数并未显式约束策略的全局生成分布,只在局部偏好对上施加相对约束
离线 DPO vs 在线方法的根本差异
一个经常被忽视、但极其关键的点:DPO 的训练信号来自过去模型或其他模型的补全,而不是当前模型的真实行为分布
这意味着模型可能在“修正一个早已不常出现的错误”,却没看到自己现在真正会犯的新错误
为了解决这个问题
在线 DPO:用当前模型采样,再进行偏好优化
D2PO(Discriminator-Guided DPO):用奖励模型或判别器动态重标注新生成样本
实现注意事项
像 DPO 这样的 DAA 的实现方式与策略梯度优化器非常不同,DPO损失的实现可以总结如下:
KL距离是静态的:在 DPO 和其他算法中,KL 距离由平衡距离惩罚与优化的 $\beta$ 参数显式设置。这是因为 DPO 朝着给定数据的 RLHF 目标的最优解迈出梯度步——它精确地迈向由 $\beta$ 项设定的解。另一方面,基于 RL 的优化器根据批次和最近的数据采取步骤。
缓存对数概率:DPO 的简单实现为了方便计算损失函数,同时对策略模型和参考模型进行前向传播。然而,这将内存使用量加倍,并导致 GPU 使用率增加。为了避免这种情况,可以先计算参考模型在训练数据集上的对数概率,然后在每批计算损失和更新参数时引用它,从而将峰值内存使用量减少 50%
AI Feedback
RLAIF(RL from AI Feedback,基于 AI 反馈的强化学习):RLHF 的替代方法,利用 AI 逼近人类数据部分以加速实验,是 AI 反馈技术的重要应用形式,可用于偏好数据收集和奖励模型训练,由 Anthropic 在《Constitutional AI: Harmlessness from AI Feedback》论文中提出
宪法人工智能(Constitutional AI,CAI):Anthropic 在 Claude 模型中使用的技术,是最早大规模将合成数据用于 RLHF 训练的方法
AI 反馈:利用 AI 增强或生成解释特定输入质量数据的技术集合,起始于成对偏好,应用已超越替代人类偏好标签,可实现可扩展评估及基于评分标准的奖励机制
CAI 是 RLAIF 的具体实现案例,RLAIF 是 AI 反馈在 RLHF 中的核心应用形式,三者均服务于优化语言模型的训练与对齐
人类反馈和 AI 反馈的差异
人类反馈AI 反馈成本
成本高,撰写本文时单条人类偏好数据成本约 1 美元及以上,部分场景超 10 美元 / 提示,且人力成本基本稳定
成本极低,如使用 GPT-4o 等前沿模型,单条反馈成本不到 0.01 美元,且模型性能提升的同时单位性能成本下降
数据
高噪声、低偏差,数据收集筛选难,但处理后信号可靠
低噪声、高偏差,易获取,但可能对模型产生非预期二阶效应
应用
实际产品场景或角色训练等需精细控制模型的场景,被视为行业重要竞争优势
大规模任务评估,因低成本可覆盖人类数据成本或时间延迟不适用的场景
不可被 AI 反馈完全替代,即使评估场景也需结合使用
评估场景应用量远多于训练场景,但无法完全取代人类反馈
CAI
核心思想:以一套由人类编写的书面原则作为“宪法”,并借助一个独立的大语言模型,在无需或极少依赖人工标注的情况下,自动生成可用于模型训练的合成数据。这些原则构成集合 $\mathcal{C}$,明确规定了在评估和改写模型输出时需要关注的关键维度,例如安全性、真实性、有害性等
指令数据构建过程
模型针对同一个提示 $x$,从原则集 $\mathcal{C}$ 中反复抽取某一条原则 $c_i$,并被要求依据该原则对当前输出进行修订
具体而言,模型先生成初始回答 $y^0$,随后在一系列原则 ${c_0, c_1, \dots, c_{n-1}}$ 的约束下,逐步得到一组中间变体 ${y^0, y^1, \dots, y^n}$,其中每一步都使输出更加符合对应原则
最终得到的数据点由原始提示 $x$ 与最终补全结果 $y^n$ 组成,用于后续的指令微调
偏好数据构建过程
反馈模型会接收一个提示 $x$、一组从 $\mathcal{C}$ 中选取的原则 ${c_0, \dots, c_n}$,以及两个候选补全内容 $y_0$ 和 $y_1$
这两个补全通常来自已有的 RLHF 数据集,并被标记为答案 A 与 B
模型需要判断哪一个补全在整体质量上更优,同时也更符合给定原则,从而生成新的偏好样本
在早期实现中,这一选择过程通常通过提示模型输出 “The answer is:” 来完成,并比较 A 与 B 的对数概率(logit),以概率更高者作为偏好结果
现在更常见的做法是采用生成式奖励模型:模型先显式生成对比和评估的推理过程,再给出最终选择。这种“先解释、再判断”的方式在一致性和可控性上表现更好,也逐渐成为 CAI 中生成偏好数据的主流方案
CAI 通过两种方式生成合成数据:
指令数据生成:依据人类编写的 “宪法”(原则集合),反复抽取原则让模型修改对提示的输出,使其符合原则,最终形成 “提示 + 最终输出” 的数据点用于模型微调,原则如 “答案是否鼓励暴力”“是否真实” 等
偏好数据生成:以 “宪法” 中部分原则为反馈模型上下文,给模型提供提示、原则及两条历史 RLHF 数据集中的补全内容,让模型判断哪条质量更高且更符合原则,生成新偏好数据,早期通过概率判断,现多采用生成式奖励模型(先解释推理再选择)
随着 RLAIF 方法逐渐普及,研究者开始重新审视一个关键问题
是否有必要使用同一个模型同时承担回答生成与评价、评分的职责,其中 LLM-as-Judge 这一做法的校准性尤为受到关注
多项研究指出,大语言模型在评估任务中存在显著的不一致性,而且相较于其他模型的输出,它们往往更倾向于认可自身生成的回答,这种现象通常被称为自我偏好偏差
正因为这些系统性偏差的存在,人们进一步提出:是否应当为数据标注和质量评估单独训练一个专用的评判模型
围绕这一目标,已有多种模型被提出,试图作为前沿大模型的替代方案,用于数据标注或回答质量评估,例如 Shepherd、CriticLLM 等评判模型,以及 Auto-J、Prometheus、Prometheus 2、Prometheus-Vision 等性能评估模型
然而,从已有公开的训练方案来看,这类专用评判模型并未得到广泛采用
相反,一些研究发现,通过重复采样、Self-Refined 或 tournament ranking 等方式来扩展推理过程,往往能够更好地逼近真实判断,或生成质量更高、稳定性更强的偏好数据
另一些校准策略则尝试让模型的生成能力与判断能力在训练过程中协同演化,以缓解评估偏差问题
总体而言,尽管评判偏差客观存在,但主流的大语言模型已经在这一任务上接受了大量训练,这既是 AI 实验室内部流程的刚需,也源于用户在实际应用中的广泛使用
因此,在大多数场景下,并不需要额外训练一个独立的评判模型,除非具体任务涉及大量未在公共互联网上公开的私有或敏感信息
推理和测试时计算
RLHF(强化学习人类反馈)
推理模型训练的前身,需通过奖励模型评估主观质量(如回答的清晰度、准确性、完整性和有用性),缺乏明确的正确答案评判标准
例如解释经济学中机会成本概念的回答,评分依赖习得的偏好
RLVR(带可验证奖励的强化学习)
过程与RLHF相似,但用评分函数替代可选的奖励模型,答案正确时返回正奖励,否则返回0,奖励具有确定性
数学领域:通过验证函数(如
extracted_answer == 正确答案)判断答案正确性,如计算小于20的所有质数之和,验证结果为77则奖励为1代码生成领域:以单元测试形式验证,若所有断言通过则奖励为1,否则为0,如验证Python斐波那契函数
fib(n)的正确性无需学习到的奖励模型(多数情况下),可在存在多个正确解决方案的领域(如代码生成)应用,核心是拥有多样且有深度的可验证问题
强化学习现在奏效的原因
稳定性问题得以解决:强化学习应用曾受稳定性限制(学习过程反复无常、训练易出现损失峰值和崩溃),如今众多新模型在预训练基础模型上结合可验证奖励的RL训练,技术入门门槛降至历史最低,且获学术界广泛认可。
开源工具:存在多种用于 RLVR 及相关技术训练语言模型的工具,如TRL、Open Instruct、veRL、OpenRLHF等,基于RLHF早期和训练后的优化,推动研究快速发展
模型基础能力达标:2024年左右及之后推出的领先模型具备一定基础能力,使得针对推理能力的 RL 训练可行
推理时扩展(Inference-Time Scaling)
又称测试时扩展,是机器学习系统的基本特性,指在推理时使用更多计算能力以提升下游任务性能
价值引导采样、带有答案提取的重复随机采样等,在DeepSeek R1和OpenAI的o1发布前已被研究,这两款模型推动了对强化学习训练的投入
强化学习训练是实现推理时扩展定律的捷径,大量 RL 训练使模型每个响应生成更多标记,且与下游性能提升相关,但也有研究探索不依赖该技术提升性能的方式
RL训练与推理时扩展对比
维度RL训练推理时扩展核心目标
通过训练激发推理行为,提升可验证领域性能
推理时用更多计算能力,优化下游任务表现
与模型响应长度关系
大量RL训练常使模型响应生成更多标记,与性能提升相关
可通过多种方法(如组合推理调用)提升性能,需关注性能与生成标记数的相关性
发展趋势
短期是推理时扩展定律的捷径
长期将有更多方法获取推理时权衡,优化性能
RLVR 的未来
关注性能:新形式的RLVR更契合开发者目标,聚焦性能而非行为,与标准微调API(如基于指令监督微调的LoRA)不同
训练特点:标准指令微调对数据进行1-2个周期的损失更新,RLVR对少量数据点进行数百或数千个周期训练,将基础模型中偶尔有效的积极行为强化为稳健行为
发展前景:语言模型RL训练范围持续扩大,o1和R1表明存在更多训练模型实现有价值行为的方法,为AI发展带来乐观前景
OpenAI 的 o1或 DeepSeek R1之前的推理研究
2022-2023年,STaR系列、TRICE等使用真实奖励信号鼓励模型思维链推理
VinePPO采用基于PPO的算法,以数学问题正确性为二元奖励训练
还有研究将代码执行作为反馈信号或用于定理证明(RLVF)
Tülu3用简单PPO训练器奖励正确答案补全,且保持模型整体性能
局限性:这些研究方法未实现与 DeepSeek R1 及后续模型同等程度的规模化,或为提升特定能力(数学、编码)牺牲了模型整体性能
已有推理模型(2025年)
日期模型名称核心特点开放权重开放数据2025-01-22
DeepSeek R1
基于RL的DeepSeek升级,数学和代码推理大幅提升
是
否
2025-01-22
Kimi 1.5
中英数据上扩展PPO/GRPO,AIME数学能力强
否
否
2025-03-31
Open-Reasoner-Zero
基础模型RL的完全开放式复现
是
是
2025-04-10
Seed-Thinking 1.5
字节跳动动态CoT选通的RL管道
是
否
2025-04-30
Phi-4 Reasoning
14B模型,精心设计SFT→RL流程,擅长STEM推理
是
否
2025-05-02
Llama-Nemotron
多尺寸“推理切换”模型
是
是
2025-05-12
INTELLECT-2
首个公开记录的全球去中心化RL训练运行
是
是
2025-05-12
Xiaomi MiMo
从预训练到后训练的端到端推理管道
是
否
2025-05-14
Qwen 3
采用类似R1的方案应用于新模型
是
否
2025-05-21
Hunyuan-TurboS
Mamba-Transformer MoE,自适应长短CoT
否
否
2025-05-28
Skywork OR-1
避免熵坍缩的RL方案,AIME上击败DeepSeek
是
是
2025-06-04
Xiaomi MiMo VL
端到端调整推理流程,纳入多模态任务
是
否
2025-06-04
OpenThoughts
从QwQ-32B提炼的120万示例公开指令数据集
是
是
2025-06-10
Magistral
Mistral 3上的纯RL,多语言CoT,开源小模型
是
否
2025-06-16
MiniMax-M1
456B MoE混合/闪电注意力推理模型,1M上下文,带CISPO的RL
是
否
2025-07-10
Kimi K2
1T MoE(32B活跃),MuonClip确保稳定性,多阶段后训练
是
否
2025-07-28
GLM-4.5
355B-A32B MoE“ARC”模型,有思考/非思考模式,多阶段训练+RL
是
否
2025-08-20
Nemotron Nano 2
混合Mamba-Transformer,FP8预训练后压缩/蒸馏,公开多数据集
是
是(大部分)
2025-09-09
K2-Think
32B开源权重模型,测试时缩放方案,完全开源(含数据/代码)
是
是
2025-09-23
LongCat-Flash-Thinking
560B MoE推理模型,分阶段方案,开源
是
否
2025-10-21
Ring-1T
万亿级“思维模型”,聚焦RL规模扩展,阐述瓶颈与解决方案
是
否
2025-11-20
OLMo 3 Think
完全开放“模型流”,记录全生命周期,定位旗舰开放思维模型
是
是
2025-12-02
DeepSeek V3.2
开放权重MoE,关注注意力效率、RL框架升级和数据合成
是
否
2025-12-05
K2-V2
70B密集型“360-open”模型,仅3次SFT后训练实现可控思维
是
是
2025-12-15
Nemotron 3 Nano
30B-A3B MoE混合Mamba-Transformer,预训练+SFT+大规模RL
是
是(大部分)
2025-12-16
MiMo-V2-Flash
309B MoE(15B活跃),优化速度,FP8预训练+后训练提升推理/编码
是
否
训练推理模型的常见做法
数据筛选与调度
离线难度筛选:在 RLVR 框架中,模型只会从“有学习信号”的样本中更新参数,因此通常在训练前进行难度筛选,保留初始模型解题成功概率约在 20%–80% 之间的问题。这类做法可以避免过易或过难样本带来的低效学习,Seed-Thinking 1.5、Open Reasoner Zero 等模型采用了这一策略
逐批次在线筛选:为解决训练过程中样本呈现顺序对学习效率的影响,一些工作采用在线方式对每个批次的问题进行筛选,或提前构建课程学习机制与数据调度器,使样本难度随训练逐步变化,例如 Kimi 1.5、Magistral 等模型
算法与训练优化
移除 KL 惩罚:随着强化学习训练时间拉长,奖励函数往往不再容易被过度优化,部分模型因此移除了用于约束策略与初始模型保持接近的 KL 惩罚项,以提升探索能力,RAGEN、Magistral 等均采用了类似做法
放宽策略梯度裁剪:在 GRPO 的一些变体中(如 DAPO),通过修改双边裁剪目标来增强探索性,避免在奖励信号不理想时引入虚假的学习信号,这一思路被 RAGEN、INTELLECT-2 等模型使用
离策略数据(完全异步更新):在处理高难度问题时,模型补全长度可能显著增长,导致计算资源闲置。为提高硬件利用率,一些方法采用完全异步的更新方式,或对批处理策略进行调整,例如 Seed-Thinking 1.5、INTELLECT-2
奖励与惩罚机制
额外格式奖励:为保证推理过程结构清晰、可预测,部分模型会对遵循指定推理格式(如
...)的输出给予少量额外奖励,例如 DeepSeek R1、OpenReasonerZero语言一致性奖励:在多语言模型中,为避免推理过程中频繁切换语言而影响体验,训练时会偏好始终使用同一语言完成推理的输出,这一策略见于 DeepSeek R1、Magistral 等模型
长度惩罚:为稳定训练过程或抑制在高难度问题上的过度思考,部分模型引入长度惩罚机制,例如 Kimi 1.5 采用逐步延长目标长度的方式,INTELLECT-2 则在整个训练过程中使用较小的长度惩罚
其他关键技术
损失归一化:为避免原始 GRPO 算法中组内归一化带来的偏差,一些模型在批次级别对损失或优势项进行归一化处理,如 Magistral、MiMo
并行测试时的计算扩展:通过并行生成多个推理结果来提升最终性能,基础做法是采用多数投票作为答案,高级做法则引入评分模型从多个候选中选择最优结果,例如 Claude 4 的相关实践以及 DeepSeek-GRM
数据合成与蒸馏
蒸馏是指利用更强模型的输出结果来训练更小的模型

Figure 1: Traditional knowledge distillation trains a smaller student model to match the soft probability distribution of a larger teacher model using KL divergence loss. Both models process the same input simultaneously, and temperature scaling (\tau > 1) softens the distributions to reveal more information about class relationships. 数据合成

Synthetic data generation in LLM post-training: prompts are passed through a strong model to generate completions, which are paired to create a training dataset. This dataset is then used to fine-tune smaller models via standard supervised learning. More complex pipelines may involve multiple models editing completions, generating preference pairs, or filtering for quality. 蒸馏的常见形式
作为可在大范围 Post-Training 流程中使用的数据引擎:用于指令补全、偏好数据(或宪法人工智能),或强化学习验证
将特定技能从更强的模型迁移到较弱的模型,这通常用于特定技能,如数学推理或编程
RLVR

Last updated
Was this helpful?