了解 DeepSeek R1

news2025/4/8 10:29:06

了解DeepSeek R1

R1探索纯强化学习是否可以在没有监督微调的情况下学会推理的能力。

‘Aha’ Moment

这种现象有点类似于人类在解决问题时突然意识到的方式,以下是它的工作原理:

  1. 初始尝试:模型对解决问题进行初始尝试
  2. 识别:识别潜在的错误或不一致
  3. 自我纠正:它根据这种识别调整其方法
  4. 解释:它可以解释为什么新方法更好

这种能力从 RL 训练中自然而然地出现,没有明确编程,展示了学习,而不仅仅是从训练数据中记住一个过程。

训练过程

  • DeepSeek-R1-Zero: 纯粹使用强化学习训练的模型。
  • DeepSeek-R1: 基于 DeepSeek-R1-Zero 构建并添加监督微调的模型。
FeatureDeepSeek-R1-ZeroDeepSeek-R1
Training ApproachPure RLMulti-phase (SFT + RL)
Fine-tuningNoneSupervised fine-tuning
Reasoning CapabilityEmergentEnhanced
AIME Performance71.0%79.8%
Key CharacteristicsStrong reasoning but readability issuesBetter language consistency and readability
1. Cold Start Phase(Quality Foundation)
SFT
R1-Zero
High-quality
COT data
V3-Base
V3-Base
SFT-1
2. Reasoning RL Phase(Capability Building)

此阶段采用基于规则的强化学习,奖励与解决方案的正确性直接相关,无需单独的奖励模型,从而简化了训练过程。

  • language consistency reward
  • human preferences reward
  • answer reward
  • format reward
generate
reward
Prompts
V3-Base
SFT-1
Responses
Rules
format reward
answer reward
consistency reward
......
3. Rejection Sampling Phase(Quality Control)

侧重于推理,此阶段整合来自其他领域的数据,以增强模型在编写、角色扮演和其他通用任务方面的能力

generate
judgment
filter
SFT
Reasoning
prompts
V3-Base
RL
Ground-truth
Responses
V3-Base
Quality
score
Prompts
Responses
Q-scores
Reasoning
data
V3-Base
RL
V3-Base
SFT-2
4. Diverse RL Phase(Broad Alignment)

最后的 Diverse RL 阶段使用复杂的混合方法处理多种任务类型。对于确定性任务,它采用基于规则的奖励,而主观任务则通过 LLM 反馈进行评估。此阶段旨在通过其创新的混合奖励方法实现人类偏好对齐,将基于规则的系统的精确性与语言模型评估的灵活性相结合。

  • rule-base reward : math、code、logical reasoning
  • model-reward : upon the DeepSeek-V3

Group Relative Policy Optimization(GRPO)

GRPO 的新颖之处在于它能够 “直接优化以纠正偏好”。这意味着将模型与所需输出对齐的途径更直接、更高效,这与 PPO 等传统强化学习算法形成鲜明对比。下面通过其三个主要组件来分解 GRPO 的工作原理。

1. Group Formation: Creating Multiple Solutions

GRPO 的第一步非常直观 - 它类似于学生通过尝试多种方法解决难题的方式。当给出提示时,它会创建多次尝试来解决同一问题(通常为 4、8 或 16 次不同的尝试)。

Input
Prompt
Model
Attempt 1
......
Attempt 2
......
Attempt 3
......
Group
Responses
Evaluate
Responses
2. Preference Learning: Understanding What Makes a Good Solution

这就是 GRPO 最具特色的地方,与其他需要单独奖励模型来预测解决方案可能有多好的 RLHF 方法不同,GRPO 可以使用任何函数或模型来评估解决方案的质量。例如,我们可以使用 length 函数来奖励较短的响应,或使用数学求解器来奖励准确的数学解决方案。

Response
Correct?
Reward
Correct
Length?
Helpful?
Correct
Format?

GRPO 不仅给出绝对分数,还对每组内的奖励进行标准化。它使用一个简单但有效的公式来估计群体相对优势:

Advantage = (reward - mean(group_rewards)) / std(group_rewards)
3. Optimization: Learning from Experience

最后一步是 GRPO 教模型根据它从评估一组解决方案中学到的知识进行改进。这种方法被证明比传统方法更稳定,因为:

  • 它着眼于多个解决方案,而不是一次只比较两个
  • 基于组的规范化有助于防止奖励扩展出现问题
  • KL 处罚就像一个安全网,确保模型在学习新事物时不会忘记它已经知道的东西
4. GRPO Algorithm in Pseudocode
Input: 
- initial_policy: Starting model to be trained
- reward_function: Function that evaluates outputs
- training_prompts: Set of training examples
- group_size: Number of outputs per prompt (typically 4-16)

Algorithm GRPO:
1. For each training iteration:
   a. Set reference_policy = initial_policy (snapshot current policy)
   b. For each prompt in batch:
      i. Generate group_size different outputs using initial_policy
      ii. Compute rewards for each output using reward_function
      iii. Normalize rewards within group:
           normalized_advantage = (reward - mean(rewards)) / std(rewards)
      iv. Update policy by maximizing the clipped ratio:
          min(prob_ratio * normalized_advantage, 
              clip(prob_ratio, 1-epsilon, 1+epsilon) * normalized_advantage)
          - kl_weight * KL(initial_policy || reference_policy)
          
          where prob_ratio is current_prob / reference_prob

Output: Optimized policy model

Limitations and Challenges of GRPO

  • 生成成本:与仅生成一个或两个完成的方法相比,为每个提示生成多个完成 (4-16) 会增加计算要求。
  • 批量大小约束:需要一起处理完成组可能会限制有效的批量大小,从而增加训练过程的复杂性,并可能减慢训练速度。
  • 奖励函数设计:训练的质量在很大程度上取决于精心设计的奖励函数。设计不佳的奖励可能会导致意外行为或针对错误目标的优化。
  • 组大小权衡:选择最佳组大小涉及平衡解决方案的多样性与计算成本。样本太少可能无法提供足够的多样性,而样本太多会增加训练时间和资源需求。
  • KL 背离调整:为 KL 背离惩罚找到合适的平衡需要仔细调整 - 太高会导致模型无法有效学习,太低并且可能会偏离其初始能力太远。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2330409.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

局域网:电脑或移动设备作为主机实现局域网访问

电脑作为主机 1. 启用电脑的网络发现、SMB功能 2. 将访问设备开启WIFI或热点,用此电脑连接;或多台设备连接到同一WIFI 3. 此电脑打开命令行窗口,查看电脑本地的IP地址 Win系统:输入"ipconfig",回车后如图 4.…

小型园区组网图

1. 在小型园区中,S5735-L-V2通常部署在网络的接入层,S8700-4通常部署在网络的核心,出口路由器一般选用AR系列路由器。 2. 接入交换机与核心交换机通过Eth-Trunk组网保证可靠性。 3. 每个部门业务划分到一个VLAN中,部门间的业务在C…

数据分享:汽车测评数据

说明:如需数据可以直接到文章最后关注获取。 1.数据背景 Car Evaluation汽车测评数据集是一个经典的机器学习数据集,最初由 Marko Bohanec 和 Blaz Zupan 创建,并在 1997 年发表于论文 "Classifier learning from examples: Common …

批量将 txt/html/json/xml/csv 等文本拆分成多个文件

我们的文本文件太大的时候,我们通常需要对文本文件进行拆分,比如按多少行一个文件将一个大的文本文件拆分成多个小的文本文件。这样我们在打开或者传输的时候都比较方便。今天就给大家介绍一种同时对多个文本文件进行批量拆分的方法,可以快速…

Vue3 路由权限管理:基于角色的路由生成与访问控制

Vue3 路由权限管理:基于角色的路由生成与访问控制 一、核心概念 1.1 大致流程思路: 用户在登录完成的时候,后端给出一个此登录用户对应的角色名字,此时可以将这个用户的角色存起来(vuex/pinia)中,在设置路由时的met…

忘记mysql的root用户密码(已解决)

1、打开数据库可视化界面(比如MySQL workbench) 2、执行select host,user,authentication_string from mysql.user; 3、把‘authentication_string’下面的字段 复制到MD5在线解密网页中(比如md5在线解密)

ubuntu 20.04 编译和运行SC-LeGo-LOAM

1.搭建文件目录和clone代码 mkdir -p SC-LeGo-LOAM/src cd SC-LeGo-LOAM/src git clone https://github.com/AbangLZU/SC-LeGO-LOAM.git cd .. 2.修改代码 需要注意的是原作者使用的是Ouster OS-64雷达,需要更改utility.h文件中适配自己的雷达类型,而…

CentOS 7安装hyperscan

0x00 前言 HyperScan是一款由Intel开发的高性能正则表达式匹配库,专为需要快速处理大量数据流的应用场景而设计。它支持多平台运行,包括Linux、Windows和macOS等操作系统,并针对x86架构进行了优化,以提供卓越的性能表现。HyperSc…

UE5 Simulation Stage

首先将Grid2D创建出来,然后设置值,Grid2D类似于在Niagara系统中的RenderTarget2D,可以进行绘制,那么设置大小为512 * 512 开启Niagara粒子中的Simulation Stage 然后开始编写我们的自定义模块 模块很简单,TS就是Textur…

Swift 解 LeetCode 250:搞懂同值子树,用递归写出权限系统检查器

文章目录 前言问题描述简单说:痛点分析:到底难在哪?1. 子树的概念搞不清楚2. 要不要“递归”?递归从哪开始?3. 怎么“边遍历边判断”?这套路不熟 后序遍历 全局计数器遍历过程解释一下:和实际场…

增益调度控制 —— 理论、案例与交互式 GUI 实现

目录 增益调度控制 —— 理论、案例与交互式 GUI 实现一、引言二、增益调度控制的基本原理三、数学模型与公式推导四、增益调度控制的优势与局限4.1 优势4.2 局限五、典型案例分析5.1 案例一:航空飞行控制中的增益调度5.2 案例二:发动机推力控制中的增益调度5.3 案例三:化工…

关于OEC/OEC-turbo刷机问题的一些解决方法(2)——可能是终极解决方法了

前面写了两篇关于OEC/OEC-turbo刷机问题的文章了,从刷机过程、刷机中遇到的问题,以及遇到最多但始终无法有效解决的下载boot失败的问题的剖析,最近确实也做了一些工作,虽然没有最终解决,但也算是这系列文章里面阶段性的…

瓦片数据合并方法

影像数据 假如有两份影像数据 1.全球底层影像0-5级别如下: 2.局部高清影像数据级别9-14如下: 合并方法 将9-14文件夹复制到全球底层0-5的目录下 如下: 然后合并xml文件 使得Tileset设置到最高级(包含所有级别)&…

第16届蓝桥杯单片机模拟试题Ⅰ

试题 代码 sys.h #ifndef __SYS_H__ #define __SYS_H__#include <STC15F2K60S2.H> //onewire.c float getT(); //sys.c extern unsigned char UI; extern bit touch_mode; extern float jiaozhun; extern float canshu; extern float temper; void init74hc138(unsigned…

mac 卸载流氓软件安全助手

之前个人电脑在公司使用过一段时间&#xff0c;为了使用网线联网安装了公司指定的 联软上网助手&#xff0c;谁知安装容易卸载难&#xff0c;后来找运维来卸载&#xff0c;输入管理员密码后&#xff0c;也无反应&#xff0c;最后不了了之了&#xff0c;这个毒瘤软件长期在后台驻…

⭐算法OJ⭐滑动窗口最大值【双端队列(deque)】Sliding Window Maximum

文章目录 双端队列(deque)详解基本特性常用操作1. 构造和初始化2. 元素访问3. 修改操作4. 容量操作 性能特点时间复杂度&#xff1a;空间复杂度&#xff1a; 滑动窗口最大值题目描述方法思路解决代码 双端队列(deque)详解 双端队列(deque&#xff0c;全称double-ended queue)是…

沧州铁狮子

又名“镇海吼”&#xff0c;是中国现存年代最久、形体最大的铸铁狮子&#xff0c;具有深厚的历史文化底蕴和独特的艺术价值。以下是关于沧州铁狮子的详细介绍&#xff1a; 历史背景 • 铸造年代&#xff1a;沧州铁狮子铸造于后周广顺三年&#xff08;953年&#xff09;&#…

Python•判断循环

ʕ⸝⸝⸝˙Ⱉ˙ʔ ♡ 判断🍰常用的判断符号(比较运算符)andor括号notin 和 not inif-elif-else循环🍭计数循环 forrange()函数简易倒计时enumerate()函数zip()函数遍历列表遍历元组遍历字符串遍历字典条件循环 while提前跳转 continue跳出循环 break能量站😚判断🍰 …

【力扣hot100题】(060)分割回文串

每次需要判断回文串&#xff0c;这点比之前几题回溯题目复杂一些。 还有我怎么又多写了循环…… class Solution { public:vector<vector<string>> result;string s;bool palindromic(string s){for(int i0;i<s.size()/2;i) if(s[i]!s[s.size()-1-i]) return …

C++---day7

#include <iostream> #include <cstring> #include <cstdlib> #include <unistd.h> #include <sstream> #include <vector> #include <memory>using namespace std;class Stu { private:public:};// 自定义 vector 类&#xff0c;重…