快手OneRec 重构推荐系统:从检索排序到生成统一的跃迁

news2025/4/20 16:49:18

文章目录

  • 1. 背景
  • 2. 方法
    • 2.1 OneRec框架
    • 2.2 Preliminary
    • 2.3 生成会话列表
    • 2.4 利用奖励模型进行迭代偏好对齐
      • 2.4.1 训练奖励模型
      • 2.4.2 迭代偏好对齐
  • 3. 总结

昨天面试的时候聊到了OneRec,但是由于上次看这篇文章已经是一个月之前,忘得差不多了,这里就来回顾一下。

1. 背景

在过去十余年中,推荐系统已经成为信息分发的核心技术,大量互联网平台广泛采用了**级联排序(cascade ranking)**的架构来平衡系统效率与推荐效果。这种方法通常将推荐流程拆解为多个独立的阶段,如召回、粗排、精排、重排,每个阶段对候选集进行进一步筛选与优化。这种多阶段结构虽然具备良好的工程可控性和响应速度,但由于各阶段彼此独立优化,导致信息难以全局共享,使得每个阶段的性能成为下一阶段的“天花板”,从而限制了系统整体的推荐能力。

与此同时,随着生成式模型(Generative Models)在自然语言处理、计算机视觉等领域的突破,研究者开始探索其在推荐系统中的应用——特别是“生成式检索”这一新兴范式的潜力。相比传统方法依赖向量匹配和打分机制,生成式推荐模型尝试直接以自回归方式“生成”用户感兴趣的内容,从而打破了传统推荐流程中“选择而非生成”的逻辑。然而,目前大多数生成式模型仅作为候选生成器(retrieval stage)存在,未能形成真正的端到端解决方案,其精度也未能超过多阶段精调系统,导致其仍难以在工业界大规模落地。

在这种背景下,OneRec 的提出具有明确而强烈的动机:即构建一个真正统一、端到端、生成式的推荐架构,既能打破多阶段推荐的结构限制,又具备大模型在表达能力上的优势。同时,通过引入会话级生成(session-wise generation)和偏好对齐机制(preference alignment),OneRec 试图从根本上提升推荐的上下文理解能力和用户满意度,探索推荐系统在“生成式时代”中的新形态。

在这里插入图片描述

图 1 直观展示了传统级联推荐架构(Cascade Architecture)与 OneRec 所提出的统一生成式架构(Unified Architecture)之间的本质差异。下半部分(b)展示的是目前工业界广泛采用的多阶段推荐流程:首先从海量视频库(约 1010 个候选项)中通过粗略召回选出数十万条视频,经过预排序阶段筛到数千条,最后由精排模型进一步打分排序,最终输出几十条推荐视频。整个过程尽管高效,但各阶段之间彼此独立、信息传递受限,限制了最终推荐质量的上限。

上半部分(a)是 OneRec 提出的端到端生成架构,它打破了分阶段设计的限制,直接使用一个 encoder-decoder 模型,输入用户行为序列后,一次性生成最终推荐视频列表。这种方法不仅省略了中间复杂的召回与排序流程,还能更充分地建模用户兴趣的上下文依赖,提升推荐结果的连贯性与个性化程度。图中的红色箭头“End-to-End Generation”正体现了这一转变的核心思想:从传统的“多阶段选择”迈向了“一体化生成”。

2. 方法

2.1 OneRec框架

在这里插入图片描述

OneRec 是一个端到端的单阶段生成式推荐框架,旨在替代传统的多阶段推荐流水线。其方法部分主要分为三个核心组件:特征工程会话级生成任务建模偏好对齐机制。图 2 对整体流程进行了结构化展示,展示了从用户行为建模到生成推荐列表,再到基于用户偏好进行迭代优化的完整路径。

如图 2(a) 所示,OneRec 的模型结构采用 Encoder-Decoder 架构。用户的历史行为序列被表示为语义 token(如 <a_6><b_1><c_5>),首先由 Encoder 进行表征学习,提取出序列的上下文兴趣表示 H \mathbf{H} H。Decoder 接收这一表示,并以自回归方式生成一个完整的推荐会话列表。值得注意的是,Decoder 中引入了 稀疏专家网络 MoE(Mixture-of-Experts),可通过激活少量专家节点提升模型表达力,同时保持高效推理。此外,模型训练目标是最小化一个会话级的 next-token 预测损失 L NTP \mathcal{L}_{\text{NTP}} LNTP

在图 2(b) 中,展示了 OneRec 的第二阶段——偏好对齐优化(Iterative Preference Alignment, IPA)。首先,当前训练轮次下的 OneRec 模型 OneRec t \text{OneRec}_t OneRect 通过 Beam Search 生成多个推荐会话候选。接着,一个训练好的奖励模型(Reward Model 对这些候选进行打分,选出最符合用户偏好的结果(chosen)和最差的结果(rejected),构建偏好对比对(preference pairs)。然后使用直接偏好优化(Direct Preference Optimization, DPO) 对模型进行优化,目标函数为 L DPO \mathcal{L}_{\text{DPO}} LDPO,从而进一步提高模型生成内容与用户真实偏好的契合度。

2.2 Preliminary

在 OneRec 的生成式推荐任务中,模型被设计为从用户的历史行为中直接生成一个完整的推荐列表。输入为用户与内容的交互序列 H u = v 1 h , v 2 h , … , v n h \mathcal{H}_u = {v_1^h, v_2^h, \dots, v_n^h} Hu=v1h,v2h,,vnh,其中每个 v i h v_i^h vih 表示用户曾经有效互动的视频,例如观看、点赞或转发。模型的目标是基于这些历史行为序列,生成一个长度为 m m m 的推荐列表 S = v 1 , v 2 , … , v m \mathcal{S} = {v_1, v_2, \dots, v_m} S=v1,v2,,vm,作为当前会话的推荐结果。与传统逐项预测的方式不同,OneRec 一次性输出整个推荐序列,强化了内容之间的连贯性和整体结构。

为了让模型理解每个视频的语义信息,系统为每个视频 v i v_i vi 提供了一个多模态嵌入向量 e i ∈ R d e_i \in \mathbb{R}^d eiRd,该向量整合了视频的标题、封面图、标签等内容特征,并通过预训练方法对齐用户的真实行为偏好。这些嵌入表示作为输入,有助于模型从内容层面建模用户兴趣,也为后续的序列生成提供了语义基础。

过去的生成式推荐方法通常会采用 RQ-VAE(Residual Quantized Variational Autoencoder)将嵌入向量 e i e_i ei 编码成语义 token。然而,这种方式存在“沙漏效应”:由于 token 分布严重不均,部分 token 被过度使用,而大多数 token 几乎从不出现。这种不均衡不仅限制了模型表达能力,也容易导致训练不稳定。为解决这一问题,OneRec 采用了分层残差量化机制,将每个嵌入向量通过多层 K-Means 编码,逐步生成一组离散语义 token。量化过程从 e i e_i ei 本身作为初始残差开始,第一层选择最近的中心点 c s i 1 1 c_{s_i^1}^1 csi11

r i 1 = e i , s i 1 = arg ⁡ min ⁡ k ∣ r i 1 − c k 1 ∣ 2 2 r_i^1 = e_i, \quad s_i^1 = \arg\min_k |r_i^1 - c_k^1|_2^2 ri1=ei,si1=argkminri1ck122

接着计算残差 r i 2 r_i^2 ri2 并进入下一层:

r i 2 = r i 1 − c s i 1 1 , s i 2 = arg ⁡ min ⁡ k ∣ r i 2 − c k 2 ∣ 2 2 r_i^2 = r_i^1 - c_{s_i^1}^1, \quad s_i^2 = \arg\min_k |r_i^2 - c_k^2|_2^2 ri2=ri1csi11,si2=argkminri2ck222

以此类推,直到最后一层 L L L

r i L = r i L − 1 − c s i L − 1 L − 1 , s i L = arg ⁡ min ⁡ k ∣ r i L − c k L ∣ 2 2 r_i^L = r_i^{L-1} - c_{s_i^{L-1}}^{L-1}, \quad s_i^L = \arg\min_k |r_i^L - c_k^L|_2^2 riL=riL1csiL1L1,siL=argkminriLckL22

最终每个视频都被编码为一组语义 token s i 1 , s i 2 , … , s i L {s_i^1, s_i^2, \dots, s_i^L} si1,si2,,siL,作为生成模型的输出目标。

其中,为了构建出更加平衡且高效的语义空间,OneRec 使用了一种 Balanced K-Means 聚类算法对所有视频嵌入向量进行划分。在这个过程中,整个视频集合 V \mathcal{V} V 被划分为 K K K 个等量的 cluster,每个 cluster 精确包含 w = ∣ V ∣ / K w = |\mathcal{V}| / K w=V∣/K 个视频。算法在每轮迭代中,基于欧几里得距离为每个中心点选择 w w w 个最接近的未分配视频,并据此更新中心点。当所有 cluster 达到稳定分配后,算法停止。这种方式能够确保每个 code 被均匀使用,从而克服传统 RQ-VAE 的 token 分布偏斜问题,提高生成模型的训练效率和语义覆盖能力。

在这里插入图片描述

整个算法的输入是:视频集合 V \mathcal{V} V,和聚类数量 K K K。我们希望将 V \mathcal{V} V 平均划分成 K K K 个子集,每个子集大小是 w = ∣ V ∣ / K w = |\mathcal{V}| / K w=V∣/K。下面是每一步的工作内容:

  1. 初始化阶段
    • 首先计算每个 cluster 该有多少个视频,即 w w w
    • 然后随机选择 K K K 个向量作为初始中心点,构成初始的 codebook: C l = c 1 l , c 2 l , … , c K l C_l = {c_1^l, c_2^l, …, c_K^l} Cl=c1l,c2l,,cKl
  2. 聚类迭代过程(repeat 循环)
    • 初始化一个未分配的视频集合 U = V \mathcal{U} = \mathcal{V} U=V,每轮都从这个集合里往外“抽视频”;
    • 然后对每一个 cluster k k k 做以下步骤:
      • 计算 U \mathcal{U} U 中所有视频到当前中心点 c k l c_k^l ckl 的距离;
      • 按距离从近到远排序;
      • 选择前 w w w 个最接近的视频分配给当前 cluster(记作 V k \mathcal{V}_k Vk);
      • 用这 w w w 个视频的平均值更新中心点 c k l c_k^l ckl
      • 最后把这 w w w 个已分配的视频从 U \mathcal{U} U 中移除。
  3. 终止条件
    • 当所有 cluster 的分配都不再发生变化时(也就是“收敛”了),循环结束;
    • 输出最终的均衡 codebook C l C_l Cl,用于后续的残差量化过程。

与传统 K-Means 不同的是,Balanced K-Means 会强制让每个 cluster 拿到相同数量的视频,这保证了所有 token 都能被均匀使用,不会有某些 token 被滥用、某些 token 被冷落。这种平衡性对于语义编码来说非常关键,因为后续的生成模型训练依赖这些 token 的质量和覆盖范围。

2.3 生成会话列表

在这里插入图片描述

在 OneRec 的推荐生成中,我们首先需要一种方式将每个视频转换为模型可以理解的离散语义表示。为此,论文借鉴了 RQ-VAE(Residual Quantization VAE) 的思想,对视频的多模态嵌入向量进行分层残差量化编码。每个视频原本是一个连续向量 e i ∈ R d e_i \in \mathbb{R}^d eiRd,通过 L L L 层的 K-Means 量化后,变成了 L L L 个离散 token,也就是 s i 1 , s i 2 , … , s i L {s_i^1, s_i^2, …, s_i^L} si1,si2,,siL。每个 token 表示该视频在某一语义空间中的“位置”,这使得模型能更好地建模视频的语义结构。最终,我们将用户的历史行为序列(多个视频)拼接成一个 token 序列,作为 Encoder 的输入,形式如下:

H u = ( s 1 1 , s 1 2 , … , s 1 L ) , ( s 2 1 , s 2 2 , … , s 2 L ) , … , ( s n 1 , s n 2 , … , s n L ) \mathcal{H}_u = {(s_1^1, s_1^2, \dots, s_1^L), (s_2^1, s_2^2, \dots, s_2^L), \dots, (s_n^1, s_n^2, \dots, s_n^L)} Hu=(s11,s12,,s1L),(s21,s22,,s2L),,(sn1,sn2,,snL)

Encoder 的作用是对用户的历史行为进行建模,提取用户兴趣的语义表示。在 OneRec 中,Encoder 采用了 Transformer 架构,输入就是刚才提到的 H u \mathcal{H}_u Hu,也就是视频 token 的序列。每个 token 会通过多层的自注意力(Self-Attention)和前馈网络(Feed Forward)进行编码,最终输出一个用户兴趣表示序列 H H H

H = Encoder ( H u ) H = \text{Encoder}(\mathcal{H}_u) H=Encoder(Hu)

其中,Attention 是全可见的(Fully Visible),因为我们希望模型可以自由地在历史行为之间建模上下文关系。这个 H H H 就像是一份语义“兴趣档案”,会在后续 Decoder 生成推荐列表时被引用,作为 cross-attention 的 Key 和 Value。

Decoder 的任务是根据用户兴趣向量 H H H,生成推荐 session(多个视频 token)的完整序列。Decoder 同样采用 Transformer 架构,在每一层中包含因果掩码的 Self-Attention 和对 Encoder 输出 H H H 的 Cross-Attention。在训练阶段,我们使用真实的推荐 session(例如用户确实点开的内容),将每个视频编码为一组 token s i 1 , … , s i L {s_i^1, …, s_i^L} si1,,siL,并在每个视频前添加起始标记 s [ BOS ] s_{[\text{BOS}]} s[BOS],构造 Decoder 的输入:

S ˉ = s [ BOS ] , s 1 1 , s 1 2 , … , s 1 L , s [ BOS ] , s 2 1 , … , s 2 L , … \bar{\mathcal{S}} = {s_{[\text{BOS}]}, s_1^1, s_1^2, …, s_1^L, s_{[\text{BOS}]}, s_2^1, …, s_2^L, \dots} Sˉ=s[BOS],s11,s12,,s1L,s[BOS],s21,,s2L,

Decoder 的每个 token 都依赖于前面已生成的 token,同时参考 Encoder 提供的用户兴趣向量 H H H,一步步自回归生成整个推荐序列。

整个 Encoder-Decoder 模型是通过一个标准的语言建模目标进行端到端训练,目标是最小化生成 token 序列与真实推荐 token 序列之间的差异。具体来说,训练采用的是自回归的 下一 token 预测损失,即 Next Token Prediction Loss( L NTP \mathcal{L}_{\text{NTP}} LNTP):

L NTP = − ∑ i = 1 m ∑ j = 1 L log ⁡ P ( s i j + 1 ∣ s [ BOS ] , s 1 1 , s 1 2 , … , s 1 L , s [ BOS ] , s i 1 , s i 2 , … , s i j ; Θ ) \mathcal{L}_{\text{NTP}} = - \sum_{i=1}^m \sum_{j=1}^L \log P(s_i^{j+1} \mid s_{[\text{BOS}]}, s_1^1, s_1^2, …, s_1^L,s_{[\text{BOS}]}, s_i^1, s_i^2, \dots, s_i^j; \Theta) LNTP=i=1mj=1LlogP(sij+1s[BOS],s11,s12,,s1L,s[BOS],si1,si2,,sij;Θ)

其中, s i j s_i^j sij 表示第 i i i 个视频的第 j j j 个 token, Θ \Theta Θ 表示整个模型参数(包含 Encoder 和 Decoder)。训练的目标是最大化生成下一个 token 的概率,从而保证 Decoder 能够准确地生成推荐 session 的每一个 token。这种训练方式完全类比于机器翻译任务中的 Transformer,只不过在这里,推荐 session 的 token 取代了自然语言中的词语,成为生成的目标。

2.4 利用奖励模型进行迭代偏好对齐

在这里插入图片描述

尽管 OneRec 在前期通过端到端的训练已经能够生成符合用户历史兴趣的推荐列表,但仅仅依赖历史行为序列进行建模,仍然难以保证生成的内容真正契合用户偏好。传统推荐系统通常通过点击率、停留时长等弱监督信号进行优化,但这些指标本质上并不能直接衡量用户对整个推荐 session 的满意度。因此,为了进一步提升推荐质量,OneRec 引入了“偏好对齐”(preference alignment)机制,旨在从用户行为中学习推荐结果的优劣,从而实现更细致、更个性化的推荐调整。这种优化思想受启发于自然语言处理(NLP)领域中流行的 RLHF(Reinforcement Learning from Human Feedback),即通过人类打分对生成结果进行强化学习。然而,与 NLP 不同,推荐系统中几乎不存在由人类标注的“偏好比较数据”。取而代之的,是稀疏、间接的用户行为数据。因此,OneRec 设计了一种替代方式:先构建一个奖励模型(Reward Model, RM),让其学会自动评估一个推荐 session 的“质量”,然后利用这个 RM 来对模型生成的多个候选推荐进行打分,从中选出“好”的(chosen)和“不好”的(rejected),形成偏好对比对。在此基础上,OneRec 采用了 Direct Preference Optimization(DPO) 进行训练。这种方法不依赖复杂的强化学习算法,而是通过 pairwise ranking 的方式直接优化生成策略,使得模型在未来生成中更加倾向于高偏好序列。最终,模型可以在真实用户行为的弱监督反馈中,持续进行自我迭代、自我优化,从而生成更贴合用户兴趣的内容,真正实现从“生成推荐”到“偏好对齐”的闭环。

2.4.1 训练奖励模型

在 OneRec 中,为了实现用户偏好的精准对齐,模型需要一种机制能够判断“推荐得好不好”。但推荐系统不同于 NLP 领域,后者可以通过人工标注来得到明确的偏好信号,而推荐系统中用户并不会直接告诉我们他喜欢哪些推荐。相反,我们只能通过用户在实际使用系统时留下的行为数据,来间接推断推荐的好坏。为了解决这一问题,OneRec 引入了一个奖励模型(Reward Model, RM),用来预测用户是否会喜欢某个推荐 session,并将这个预测结果作为后续优化的依据。

奖励模型的目标是,给定一个用户 u u u 和一个推荐 session S = v 1 , v 2 , … , v m \mathcal{S} = {v_1, v_2, …, v_m} S=v1,v2,,vm,输出一个分数 r r r 来表示这个 session 对该用户来说是否具有吸引力。这个分数不需要用户明确标注,而是通过用户的行为日志进行间接学习。比如,当用户完整地观看了 session 中的大多数视频、点击了其中的内容、点赞或收藏了视频时,这些行为都可以被视为“喜欢”;而如果用户快速划过这些推荐,或者根本没有互动,则说明这条推荐可能不够好。这些自然发生的行为数据就成为训练奖励模型的“真实标签”。

为了让模型具备判断能力,第一步是将用户 u u u 和推荐 session S \mathcal{S} S 建模为一组结合表示。具体来说,对于 session 中的每个视频 v i v_i vi,模型会融合用户兴趣生成一个目标感知向量:

e i = v i ⊙ u e_i = v_i \odot u ei=viu

其中 ⊙ \odot 表示一种交互操作(可以理解为加权注意力、向量点乘等),使得每个视频的表示都与用户兴趣相关联。经过融合后的所有视频表示构成一个向量集合 h = e 1 , e 2 , … , e m h = {e_1, e_2, …, e_m} h=e1,e2,,em,这就形成了该用户视角下的 session 表示。

考虑到推荐列表中的多个视频之间是有协同关系的(比如连贯性、风格一致性、多样性等),模型并不会直接使用这些向量去做判断,而是通过一个**多头自注意力模块(Self-Attention)**来让视频之间“交流信息”:

h f = SelfAttention ( h W s Q , h W s K , h W s V ) h_f = \text{SelfAttention}(hW_s^Q, hW_s^K, hW_s^V) hf=SelfAttention(hWsQ,hWsK,hWsV)

这个操作让模型能感知整个 session 的结构与互动,最终输出一个融合后的 session 表示 h f h_f hf,用于后续的打分预测。

为了全面评估推荐 session 的质量,OneRec 的奖励模型设计了多个预测任务,分别关注用户的不同偏好行为。例如:

  • r ^ swt \hat{r}^{\text{swt}} r^swt:用户是否持续观看(session watch time);
  • r ^ vtr \hat{r}^{\text{vtr}} r^vtr:用户是否点击进入观看(view through rate);
  • r ^ ltr \hat{r}^{\text{ltr}} r^ltr:用户是否点赞、收藏等行为(like-through rate);

这些行为通过不同的 MLP 模块(也称作 tower)来分别预测:

r ^ swt = Tower swt ( Sum ( h f ) ) , r ^ vtr = Tower vtr ( Sum ( h f ) ) , r ^ ltr = Tower ltr ( Sum ( h f ) ) \hat{r}^{\text{swt}} = \text{Tower}^{\text{swt}}(\text{Sum}(h_f)), \quad \hat{r}^{\text{vtr}} = \text{Tower}^{\text{vtr}}(\text{Sum}(h_f)), \quad \hat{r}^{\text{ltr}} = \text{Tower}^{\text{ltr}}(\text{Sum}(h_f)) r^swt=Towerswt(Sum(hf)),r^vtr=Towervtr(Sum(hf)),r^ltr=Towerltr(Sum(hf))

这里的 Sum ( h f ) \text{Sum}(h_f) Sum(hf) 表示对 session 中所有 token 表示做加和池化,得到整体 session 的语义表达,然后再送入每个塔进行预测。

训练过程中,系统会从用户真实行为日志中抽取是否完成观看、是否点击、是否点赞等行为,转化为二分类标签(1 表示发生,0 表示未发生)。模型的输出与这些标签进行对比,采用二元交叉熵损失函数作为优化目标:

L RM = − ∑ x ∈ swt , vtr , ltr x t r [ y x t r log ⁡ ( r ^ x t r ) + ( 1 − y x t r ) log ⁡ ( 1 − r ^ x t r ) ] \mathcal{L}_{\text{RM}} = - \sum_{x \in {\text{swt}, \text{vtr}, \text{ltr}}}^{xtr}\left[ y^{xtr} \log(\hat{r}^{xtr}) + (1 - y^{xtr}) \log(1 - \hat{r}^{xtr}) \right] LRM=xswt,vtr,ltrxtr[yxtrlog(r^xtr)+(1yxtr)log(1r^xtr)]

这个损失函数会对每一个行为目标分别求解,并指导模型学习什么样的推荐 session 更容易被用户接受、产生良好互动。最终训练完成的奖励模型就具备了自动评分能力,可以在无需人工干预的前提下判断任意一个推荐 session 的优劣,为后续的 DPO 偏好对齐提供决策依据。

2.4.2 迭代偏好对齐

在完成奖励模型(Reward Model, RM)的训练之后,我们就可以利用它对推荐结果的质量进行自动打分,并用作模型微调的依据。OneRec 并没有一次性完成训练,而是采用了一个迭代式的偏好对齐方法(Iterative Preference Alignment)。它的核心思路是:让模型自己生成多个推荐候选,然后用奖励模型打分,从中选出表现好的和差的推荐结果,作为正负样本对进行对比学习。这种方式与传统的强化学习不同,它更简单、更稳定,同时能在没有明确人工偏好标签的前提下实现推荐优化。

具体来说,给定当前时间步的 OneRec 模型 M t \mathcal{M}_t Mt,我们为每个用户 u u u 生成 N N N 个不同的推荐 session 候选,使用的是 Beam Search 采样:

S u n ∼ M t ( H u ) for all  u ∈ U , n ∈ [ N ] \mathcal{S}_u^n \sim \mathcal{M}_t(\mathcal{H}_u) \quad \text{for all } u \in \mathcal{U}, n \in [N] SunMt(Hu)for all uU,n[N]

其中, H u \mathcal{H}_u Hu 表示用户 u u u 的历史行为, S u n \mathcal{S}_u^n Sun 是模型生成的第 n n n 个推荐 session 候选。生成这些 session 后,我们使用前面训练好的奖励模型 R ( u , S ) R(u, \mathcal{S}) R(u,S) 对每个候选结果进行打分,得到该推荐 session 的偏好得分:

r u n = R ( u , S u n ) r_u^n = R(u, \mathcal{S}_u^n) run=R(u,Sun)

随后,我们从这 N N N 个候选中选出得分最高的一个 S u w \mathcal{S}_u^w Suw 和得分最低的一个 S u l \mathcal{S}_u^l Sul,构成一个偏好对比对(Preference Pair)

D t pairs = ( S u w , S u l , H u ) D_t^{\text{pairs}} = \left(\mathcal{S}_u^w, \mathcal{S}_u^l, \mathcal{H}_u\right) Dtpairs=(Suw,Sul,Hu)

也就是说,在给定用户历史 H u \mathcal{H}_u Hu 的前提下,我们知道用户更可能喜欢 S u w \mathcal{S}_u^w Suw,而不太喜欢 S u l \mathcal{S}_u^l Sul。我们希望训练一个新的模型 M t + 1 \mathcal{M}_{t+1} Mt+1,让它以后在面对相同用户历史时,更倾向于生成 S u w S_u^w Suw 这样的推荐,而不是 S u l S_u^l Sul

训练新模型使用的是 DPO(Direct Preference Optimization)损失函数,它通过比较两个推荐结果的相对概率,来实现模型偏好上的优化。具体损失如下:

L DPO = L DPO ( S u w , S u l ∣ H u ) = − log ⁡ σ ( β log ⁡ M t + 1 ( S u w ∣ H u ) M t ( S u w ∣ H u ) − β log ⁡ M t + 1 ( S u l ∣ H u ) M t ( S u l ∣ H u ) ) \mathcal{L}_{\text{DPO}} = \mathcal{L}_{\text{DPO}}(\mathcal{S}_u^w, \mathcal{S}_u^l \mid \mathcal{H}_u) = -\log \sigma \left( \beta \log \frac{\mathcal{M}_{t+1}(\mathcal{S}_u^w \mid \mathcal{H}_u)}{\mathcal{M}_t(\mathcal{S}_u^w \mid \mathcal{H}_u)} - \beta \log \frac{\mathcal{M}_{t+1}(\mathcal{S}_u^l \mid \mathcal{H}_u)}{\mathcal{M}_t(\mathcal{S}_u^l \mid \mathcal{H}_u)} \right) LDPO=LDPO(Suw,SulHu)=logσ(βlogMt(SuwHu)Mt+1(SuwHu)βlogMt(SulHu)Mt+1(SulHu))

这个公式的核心是:如果新的模型 M t + 1 \mathcal{M}_{t+1} Mt+1 在偏好的推荐上得分更高、在不偏好的推荐上得分更低,那这个偏好方向是正确的,损失就会变小;反之则会增大。 β \beta β 是一个可调的温度超参数,用于控制对比强度, σ \sigma σ 是 sigmoid 函数。

整个过程是逐步迭代进行的:从 M t \mathcal{M}_t Mt 开始,我们生成候选、打分、选出正负样本对、计算损失、更新参数,得到 M t + 1 \mathcal{M}_{t+1} Mt+1。下一个迭代又以 M t + 1 \mathcal{M}_{t+1} Mt+1 为基础继续进行。这种自我对比、自我优化的策略,使得模型能够不断地贴近用户真实偏好。

为了减轻计算负担,论文中提到实际只对 1% 的样本进行 DPO 微调(即 r DPO = 1 r_{\text{DPO}} = 1% rDPO=1),从而在效率和性能之间取得平衡。

这一迭代优化过程的最终目标,是构建出一个能持续自我进化的推荐系统,使模型不仅能根据历史行为生成推荐,还能“对比判断”哪些推荐更好,并据此不断改进。相比传统的强化学习,DPO 更简洁、稳定,特别适用于用户行为数据稀疏、偏好信号隐性的推荐场景。它使得 OneRec 不仅是一个生成模型,更是一个可以持续优化的偏好智能体。

在这里插入图片描述

图 3 展示了 OneRec 系统在真实业务中的在线部署与训练框架。整个系统由三个主要组成部分构成:DPO Server、分布式训练系统在线服务系统(Online Serving)。其中,DPO Server 包含了预训练好的奖励模型 R ( u , S ) R(u, \mathcal{S}) R(u,S) 和用于生成偏好对比对的 DPO Sample Server,它负责从当前 OneRec 模型中生成多个候选推荐,并利用奖励模型对这些候选进行打分,从中选出得分最高和最低的推荐 session,形成偏好对比对 ( S u w , S u l ) \left(\mathcal{S}_u^w, \mathcal{S}_u^l\right) (Suw,Sul)。这些样本会被送入 Offline Model Trainer,与主干的推荐模型一起进行训练,并定期将更新后的参数同步到在线推理服务(Online Infer Model)中,实现推荐效果的持续自我优化。

在这里插入图片描述

算法 2 给出了整个 Iterative Preference Alignment(IPA)过程的详细执行流程。在每一轮训练中,模型会遍历样本集合 N sample N_{\text{sample}} Nsample,对于每一个样本,根据预设概率 r DPO r_{\text{DPO}} rDPO 决定是否进行 DPO 微调。如果是,则执行如下步骤:从当前模型 M t \mathcal{M}_t Mt 中生成 N N N 个推荐候选 S u n \mathcal{S}_u^n Sun,并使用奖励模型 R ( u , S u n ) R(u, \mathcal{S}_u^n) R(u,Sun) 为它们打分,挑选得分最高的作为偏好推荐 S u w \mathcal{S}_u^w Suw,得分最低的作为反偏好推荐 S u l \mathcal{S}_u^l Sul。随后计算该样本的 DPO 损失 L DPO \mathcal{L}{\text{DPO}} LDPO 与常规的下一 token 预测损失 L NTP \mathcal{L}_{\text{NTP}} LNTP,并组合得到总损失 L \mathcal{L} L。否则,若不进行 DPO,仅使用 NTP 损失进行更新。最终,根据该损失对模型参数 Θ \Theta Θ 进行梯度更新。

3. 总结

总的来说,OneRec不仅是一种技术创新,也是快手生成式推荐的重要探索,体现了推荐系统未来的发展趋势:从“排序打分”走向“偏好理解与生成”,从“静态预测”走向“持续自我优化”。

本文提出OneRec打破传统多阶段检索排序架构的限制,首次构建一个端到端、单阶段、生成式推荐模型框架。在方法上,采用一种平衡k-means(RQ-VAE改变)将视频内容编码为离散语义token,基于用户行为的统一编码器解码器结构(解码器用了MoE技术),通过自回归生成完整的推荐session。并为进一步提升推荐质量,结合DPO以及奖励模型,进行迭代的偏好对齐,实现模型与用户真实偏好的自我对齐。整天方法不仅在离线评估中显著优于传统推荐策略,也已成功部署与真实短视频平台中。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2338852.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

软件测试的页面交互标准:怎样有效提高易用性

当用户遇到"反人类"设计时 "这个按钮怎么点不了&#xff1f;"、"错误提示完全看不懂"、"我输入的内容去哪了&#xff1f;"——这些用户抱怨背后&#xff0c;都指向同一个问题&#xff1a;页面交互的易用性缺陷。作为软件测试工程师&a…

共享单车出行规律与决定因素的空间交互分析——以北京六大区为例

共享单车出行规律与决定因素的空间交互分析——以北京六大区为例 原文&#xff1a;Spatial Interaction Analysis of Shared Bicycles Mobility Regularity and Determinants: A Case Study of Six Main Districts, Beijing 这篇文章主要研究了北京六个主要城区共享单车的流动…

Windows上安装FFmpeg的详细指南

1.下载FFmpeg 访问FFmpeg官方下载页面&#xff1a;https://ffmpeg.org/download.html 点击"Windows builds from gyan.dev"或"Windows builds by BtbN" gyan.dev版本&#xff1a;https://www.gyan.dev/ffmpeg/builds/ BtbN版本&#xff1a;https://githu…

作业2 CNN实现手写数字识别

# 导入必要库 import numpy as np import matplotlib.pyplot as plt import seaborn as sns # 用于高级可视化 from tensorflow import keras from tensorflow.keras import layers from sklearn.metrics import confusion_matrix, ConfusionMatrixDisplay import time # 用于…

WordPress自定义页面与文章:打造独特网站风格的进阶指南

文章目录 引言一、理解WordPress页面与文章的区别二、主题与模板层级&#xff1a;自定义的基础三、自定义页面模板&#xff1a;打造专属页面风格四、自定义文章模板&#xff1a;打造个性化文章呈现五、使用自定义字段和元数据&#xff1a;增强内容灵活性六、利用WordPress钩子&…

PHP最新好看UI个人引导页网页源码

PHP最新好看UI个人引导页网页源码 采用PHP、HTML、CSS及JavaScript等前端技术&#xff0c;构建了一个既美观又实用的个人主页解决方案。 源码设计初衷在于提供一个高度可定制、跨平台兼容的模板&#xff0c;让用户无需深厚的编程基础&#xff0c;即可快速搭建出专业且富有创意的…

arkTs:使用回调函数的方法实现子组件向父组件传值

使用回调函数的方法实现子组件向父组件传值 1 主要内容说明2 实现步骤2.1 父组件中定义回调函数2.2 子组件声明并调用回调函数2.3 注意事项 3 源码3.1 父组件3.2 子组件3.3 源码效果显示截图 4 结语5 定位日期 1 主要内容说明 本文源码是一套 父组件与子组件之间双向数据传递的…

VBA 调用 dll 优化执行效率

问题描述 之前excel 用vba写过一个应用&#xff0c;请求的是aws lambda 后端, 但是受限于是云端服务&#xff0c;用起来响应特别慢&#xff0c;最近抽了点时间准备优化下&#xff0c;先加了点日志看看是哪里慢了 主方法代码如下&#xff0c;函数的主要目的是将 Excel 工作簿的…

Django-Friendship 项目常见问题解决方案

Django-Friendship 项目常见问题解决方案 django-friendship Django app to manage following and bi-directional friendships 项目地址: https://gitcode.com/gh_mirrors/dj/django-friendship Django-Friendship 是一个基于 Django 的应用&#xff0c;它允许创建和管…

AI时代下 你需要和想要了解的英文缩写含义

在AI智能时代下&#xff0c;越来愈多的企业都开始重视并应用以及开发AI相关产品&#xff0c;这个时候都会或多或少的涉及到英文&#xff0c;英文还好&#xff0c;但是如果是缩写&#xff0c;如果我们没有提前了解过&#xff0c;我们往往很难以快速Get到对方的意思。在这里&…

2025年对讲机选购指南:聚焦核心参数与场景适配

在无线通信领域&#xff0c;对讲机始终占据着专业通讯工具的独特地位。随着5G时代到来和物联网技术深化&#xff0c;2025年的对讲机市场正呈现智能化、专业化、场景化的升级趋势。面对琳琅满目的产品&#xff0c;选购者需从通信性能、环境适应性、智能集成度三个维度进行综合考…

C/C++ 动态链接详细解读

1. 为什么要动态链接&#xff1f; 1.1 静态链接浪费内存和磁盘空间 静态链接的方式对于计算机内存和磁盘空间浪费非常严重&#xff0c;特别是多进程操作系统的情况下&#xff0c;静态链接极大的浪费了内存空间。在现在的Linux系统中&#xff0c;一个普通的程序会使用的C 语言静…

python flask 项目部署

文章目录 概述 windows 部署准备工作使用 Waitress 部署 Flask 应用 linux 部署**2. 使用 WSGI 服务器**示例&#xff1a;使用 Gunicorn nginx反向代理**5. 使用进程管理工具**示例&#xff1a;使用 Systemd 概述 在 Windows 上使用 Waitress 部署 Flask 应用是一个不错的选择…

Java课程内容大纲(附重点与考试方向)

本文是在传统 Java 教程框架基础上&#xff0c;加入了重点提示与考试思路&#xff0c;适合用于课程备考、知识查漏与面试准备。 第1章&#xff1a;Java语言基础 ⭐ 重点知识&#xff1a; Java平台特点&#xff08;跨平台性、JVM&#xff09; JDK、JRE、JVM 区别 Java 程序的…

200+短剧出海平台:谁能成为“海外红果”?

2025年&#xff0c;短剧的国际市场表现令人瞩目。仅在两年前&#xff0c;业界关注的焦点仍是美国市场&#xff0c;如今国产短剧应用已成功打入包括印尼、巴西、美国、墨西哥、印度、菲律宾、泰国、日本、哥伦比亚及韩国在内的多个国家&#xff0c;轻松获得超过500万次下载。 市…

Visio导出清晰图片步骤

在Visio里画完图之后如何导出清晰的图片&#xff1f;&#x1f447; ①左上角单击【文件】 ②导出—更改文件类型—PNG/JPG ③分辨率选择【打印机】&#xff0c;大小选择【源】&#xff0c;即可。 ④选择保存位置并命名 也可以根据自己需要选择是否需要【透明底】哈。 选PNG 然…

Linux系统:详解进程等待wait与waitpid解决僵尸进程

本节重点 理解进程等待的相关概念掌握系统调用wait与waitpid的使用方法输出型status参数的存储结构阻塞等待与非阻塞等待 一、概念 进程等待是操作系统中父进程与子进程协作的核心机制&#xff0c;指父进程通过特定方式等待子进程终止并回收其资源的过程。这一机制的主要目的…

IntelliJ IDEA clean git password

IntelliJ IDEA clean git password 清除git密码 方法一&#xff1a;&#xff08;这个要特别注意啊&#xff0c;恢复默认设置&#xff0c;你的插件什么要重新下载了&#xff09; File->Manage IDE Settings->Restore Default Settings以恢复IDEA的默认设置(可选); 清空…

【已更新完毕】2025泰迪杯数据挖掘竞赛C题数学建模思路代码文章教学:竞赛智能客服机器人构建

完整内容请看文末最后的推广群 基于大模型的竞赛智能客服机器人构建 摘要 随着国内学科和技能竞赛的增多&#xff0c;参赛者对竞赛相关信息的需求不断上升&#xff0c;但传统人工客服存在效率低、成本高、服务不稳定和用户体验差的问题。因此&#xff0c;设计一款智能客服机器…

ACI EP Learning Whitepaper 3. Disabling IP Data-plane Learning 功能

目录 1. 使用场景 1.1 未disable IP data-plane learning时 1.2 disable IP data-plane learning后 2. 一代Leaf注意事项 3. L2 未知单播注意事项 1. 使用场景 Windows网卡的动态负载均衡绑定模式等。或多个设备共享相同VIP并通过ARP/GARP/ND来宣告VIP切换时,这些外部设…