《生成式 AI》课程 第7講:大型語言模型修練史 — 第二階段: 名師指點,發揮潛力 (兼談對 ChatGPT 做逆向工程與 LLaMA 時代的開始)

news2024/11/28 9:56:09

资料来自李宏毅老师《生成式 AI》课程,如有侵权请通知下线

Introduction to Generative AI 2024 Springicon-default.png?t=O83Ahttps://speech.ee.ntu.edu.tw/~hylee/genai/2024-spring.php

摘要

这一系列的作业是为 2024 年春季的《生成式 AI》课程设计的,共包含十个作业。每个作业都对应一个具体的主题,例如真假难辨的世界、AI 应用开发、AI催眠大师、LLM 微调等。

承接上一讲:

《生成式 AI》课程 第6講:大型語言模型修練史 — 第一階段: 自我學習,累積實力-CSDN博客这一系列的作业是为 2024 年春季的《生成式 AI》课程设计的,共包含十个作业。每个作业都对应一个具体的主题,例如真假难辨的世界、AI 应用开发、AI催眠大师、LLM 微调等。接续上一篇博文《生成式 AI》课程 第5講:訓練不了人工智慧?你可以訓練你自己 (下)-CSDN博客这一系列的作业是为 2024 年春季的《生成式 AI》课程设计的,共包含十个作业。每个作业都对应一个具体的主题,例如真假难辨的世界、AI 应用开发、AI催眠大师、LLM 微调等。https://blog.csdn.net/chenchihwen/article/details/144005688?spm=1001.2014.3001.5501PPT 资源

第二阶段 “名师指点,发挥潜力” icon-default.png?t=O83Ahttps://download.csdn.net/download/chenchihwen/90031390

该文档主要讲述大型语言模型的训练过程,特别是第二阶段 “名师指点,发挥潜力” 的相关内容,包括督导式学习(Supervised Learning)和指令微调(Instruction Fine - tuning)等方法,以及不同训练路线(打造专才模型和通才模型)的特点与发展。具体如下:

幻灯片主要内容总结

摘要说明

  1. 督导式学习与指令微调
    • 人类老师教导模型,通过提供问题和答案来训练,如 “台湾最高的山是哪座?”“玉山” 等,但人力成本高且难以收集大量资料。在这个过程中,输入包含 “USER” 和 “AI” 的对话格式,模型逐步预测下一个词,训练方式为督导式学习,同时涉及资料标注工作。
    • 关键在于利用第一阶段的参数作为初始参数,这样可以避免与第一阶段参数差异过大,从而在预训练(Pre - train)基础上进行指令微调,如 GPT - 3、PaLM 等模型。还介绍了 Adapter(如 LoRA)等技术,可在少量资料情况下进行优化。
  2. 模型的 “举一反三” 能力
    • 以在多种语言上预训练后的模型为例,如 Multi - BERT,在学习了英文阅读能力测试后,能自动应用于中文阅读能力测试,展示了模型强大的迁移学习能力。
  3. 训练路线分化
    • 打造一堆专才模型(路线一)
      • 针对不同任务训练专门的模型,如翻译专才、摘要专才、编修专才等,仅使用对应任务的训练资料。以 BERT 系列为例,介绍了其在不同常见任务(如单句子分类、成对标句子分类、问答任务等)中的应用及微调方式。
    • 直接打造一个通才模型(路线二)
      • 收集涵盖各种任务的大量标注资料进行预训练,使模型学会多种技能,如翻译、编修、摘要等,并能处理组合任务。例如 FLAN(Finetuned Language Net)、T0 等模型,在多个任务类型上进行训练和测试,展示了通才模型的性能表现。还提到了 Chain - of - thought finetuning、Multi - task instruction finetuning 等技术提升模型推理和泛化能力,以及 Instruct GPT 在指令微调中的数据使用情况。
  4. 指令微调的重要性及相关实践
    • 强调 Instruction Fine - tuning 的关键作用,如 Meta 在训练中发现高质量的 Instruction Fine - tuning 资料对提升结果有显著影响,适量的高质量标注数据(如数万条)就能达到较好效果。
    • 介绍了 Self - Instruct 方法,即先让 ChatGPT 想任务,再根据任务生成输入和答案,用于生成 Instruction Fine - tuning 资料。同时指出以 ChatGPT 为逆向工程对象存在风险,如违反 OpenAI 使用条款中的相关规定(如禁止反向编译、利用服务输出开发竞争模型、非法提取数据等)。
  5. 模型开源与发展趋势
    • Meta 开源了 LLaMA,引发了一系列基于其的模型开发,如 Alpaca、Vicuna 等,开启了人人可微调大型语言模型的时代,模型在不同领域(如中文、多模态、数学、金融、医学、法律、双语等)得到进一步发展和应用,如 Open - Chinese - LLaMA、MiniGPT - 4、ChatMed、LAWGPT 等。还提及了不同模型在数据集、训练代码、评估方式、训练成本等方面的差异。

幻灯片内容

幻灯片 1:模型学习阶段与问题引出

  • 页面内容:回顾大型语言模型修炼的三个阶段,重点指出当前模型虽从网络资料学习了很多知识,但缺乏使用方法,如同有上乘内功却不会运用,从而引出人类老师教导的必要性。
  • 摘要说明:承上启下,在总结前期模型学习情况的基础上,提出模型面临的新问题,为后续介绍人类指导下的训练方式做铺垫,强调从单纯数据学习向有指导学习的过渡。

幻灯片 2:督导式学习过程

  • 页面内容:详细展示人类老师教导模型的示例,包括问题(如 “台湾最高的山是哪座?”“你是谁?”“教我骇入邻居家的 Wifi” 等)和相应答案,同时呈现模型在处理这些问题时的输入输出过程,如对 “台湾最高的山是哪座?” 逐步预测出 “玉”“山”“[END]” 等,解释了督导式学习中资料标注的情况,以及输入中 “USER” 和 “AI” 的作用。
  • 摘要说明:通过具体实例深入剖析督导式学习的操作流程,让读者清晰了解模型如何在人类老师提供的样本下进行学习,以及这种学习方式的细节和特点,包括数据格式、预测顺序等。

幻灯片 3:督导式学习的局限性

  • 页面内容:阐述督导式学习面临的人力成本高和资料收集量有限的问题,以 “如果输入出现「最」,就回答「玉山」” 为例,说明模型可能过度依赖简单规则,无法应对复杂情况,如 “世界最深的海沟在哪?”,强调仅靠人类老师教导难以实现全面有效的训练。
  • 摘要说明:分析督导式学习方式在实际应用中的不足之处,从人力和模型表现两个方面进行探讨,突出需要新的训练策略来克服这些局限,为引入预训练和指令微调等方法提供背景。

幻灯片 4:预训练与指令微调的关键

  • 页面内容:强调预训练阶段参数作为指令微调初始参数的重要性,说明使用第一阶段参数作为起点,能使模型在少量人类标注资料的情况下进行优化,不会与第一阶段参数差异过大,以 GPT - 3、PaLM 为例,介绍在这个过程中如何结合任何文字资料和人类标注资料进行训练,同时提及 Adapter(如 LoRA)技术在其中的作用。
  • 摘要说明:详细解释预训练和指令微调相结合的训练机制,突出初始参数的关键作用,阐述如何在保证模型既有知识基础上,通过少量有针对性的标注数据进一步提升模型性能,使读者理解模型训练过程中不同阶段参数的利用和优化方式。

幻灯片 5:模型的迁移学习能力

  • 页面内容:以 Multi - BERT 为例,展示在多种语言上预训练后的模型强大的迁移学习能力,如学习英文阅读能力测试后能自动应用于中文阅读能力测试,体现模型在不同语言和任务间举一反三的能力,通过实验数据(如不同模型在中英文问答任务中的 EM 和 F1 分数)进一步说明这种能力的效果。
  • 摘要说明:通过具体模型和实验数据,生动呈现大型语言模型在多语言预训练后的迁移学习优势,让读者直观感受到模型的泛化能力及其在实际应用中的价值,拓展对模型学习能力的认识。

幻灯片 6:训练路线分化 - 专才模型

  • 页面内容:介绍训练路线中的第一种,即打造一堆专才模型,针对不同任务(如翻译、编修、摘要等)使用仅包含对应任务的训练资料进行训练,以 BERT 系列为例,详细说明其在单句子分类、成对标句子分类、问答任务等常见任务中的微调方式和应用场景,展示不同任务下模型的训练和输出特点。
  • 摘要说明:系统阐述专才模型的训练理念、方法和应用,以 BERT 系列为典型案例,深入剖析其在各类具体任务中的工作方式,使读者清晰了解针对特定任务打造专业模型的流程和优势。

幻灯片 7:训练路线分化 - 通才模型

  • 页面内容:阐述直接打造通才模型的路线,收集涵盖各种任务的大量标注资料进行预训练,使模型学会多种技能(如翻译、编修、摘要等)并能处理组合任务,以 FLAN(Finetuned Language Net)、T0 等模型为例,展示其在多个任务类型(如自然语言推理、阅读理解、闭卷问答、翻译等)上的训练和性能表现,提及 Chain - of - thought finetuning、Multi - task instruction finetuning 等技术对通才模型推理和泛化能力的提升作用,以及 Instruct GPT 在指令微调中的数据来源和使用情况。
  • 摘要说明:全面介绍通才模型的训练模式、技术手段和实际表现,通过多个模型实例和任务类型,深入分析通才模型如何在广泛的任务领域中实现能力的综合提升,使读者理解打造通用型模型的策略和效果。

幻灯片 8:指令微调的重要性与实践

  • 页面内容:再次强调 Instruction Fine - tuning 在模型训练中的关键作用,以 Meta 的实践为例,说明高质量的 Instruction Fine - tuning 资料对提升模型结果的重要性,适量的高质量标注数据(数万条)就能达到较好效果,介绍 Self - Instruct 方法,即先让 ChatGPT 想任务,再根据任务生成输入和答案,用于生成 Instruction Fine - tuning 资料,同时指出以 ChatGPT 为逆向工程对象存在违反 OpenAI 使用条款的风险,如禁止反向编译、利用服务输出开发竞争模型、非法提取数据等。
  • 摘要说明:深入探讨指令微调环节的重要意义、实践方法和潜在风险,从数据质量、生成方式到法律合规性等多方面进行分析,使读者认识到指令微调在模型优化中的核心地位以及在实施过程中需要注意的问题。

幻灯片 9:模型开源与发展趋势

  • 页面内容:介绍 Meta 开源 LLaMA 引发的一系列模型开发,如 Alpaca、Vicuna 等,展示了基于 LLaMA 的模型在不同领域(如中文、多模态、数学、金融、医学、法律、双语等)的进一步发展和应用,列出不同模型在数据集、训练代码、评估方式、训练成本等方面的差异,呈现人人可微调大型语言模型时代的模型发展生态。
  • 摘要说明:概述模型开源后的发展态势,通过列举多种基于开源模型的衍生模型及其特点,展示模型在不同领域的拓展和创新,使读者了解当前大型语言模型领域的多元化发展格局和开源带来的广泛影响。

https://arxiv.org/abs/2303.18223

大型语言模型综述 A Survey of Large Language Models_大语言模型文献综述有哪些-CSDN博客文章浏览阅读1.6k次,点赞45次,收藏21次。文章源自这是一篇关于大语言模型(LLMs)的综述论文,主要介绍了 LLMs 的发展历程、技术架构、训练方法、应用领域以及面临的挑战等方面,具体内容如下:摘要 —— 自从图灵测试在 20 世纪 50 年代被提出以来,人类已经探索了机器对语言智能的掌握。语言本质上是一个由语法规则支配的复杂、复杂的人类表达系统。它对开发有能力的人工智能(AI)算法来理解和掌握语言提出了重大挑战。作为一种主要方法,语言建模在过去的二十年里被广泛研究用于语言理解和生成,从统计语言模型发展到神经语言模型。_大语言模型文献综述有哪些https://blog.csdn.net/chenchihwen/article/details/143860043?spm=1001.2014.3001.5502

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2248972.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

公司金融期末考试题目

公司金融期末考试题 选择题 1.现金折扣和信用条件(教材P253) 题目类似: 下列不属于信用条件的是()。 现金折扣 数量折扣信用期限 折扣期限 给定的信用条件为"1/10,n/40",则其含义…

【前端】JavaScript中的字面量概念与应用详解

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳] 本文专栏: 前端 文章目录 💯前言💯字面量1. 数字字面量2. 字符串字面量3. 布尔字面量4. 空值字面量(null)5. 对象字面量6. 数组字面量7. 正则表达式字面量8. 特殊值字面量9. 函数字…

Kotlin DSL Gradle 指南

本文是关于 Kotlin DSL Gradle 的指南(上篇),介绍了 Gradle 作为 Android 开发构建工具的作用及优势,包括初始配置、生命周期、依赖管理、Task 相关内容。如 Task 的创建、自定义、各种方法和属性,以及文件操作等&…

Web开发:使用stackexchange.redis库对redis进行增删改查

一、安装第三方库 二、官网 StackExchange.Redis |通用型 redis 客户端 三、连接示例 private static string redisConnectionString "localhost:6379,passwordyourpassword,defaultDatabase0,allowAdmintrue,asyncTimeout10000";private static string redisConn…

2024年第15届蓝桥杯C/C++组蓝桥杯JAVA实现

目录 第一题握手,这个直接从49累加到7即可,没啥难度,后面7个不握手就好了,没啥讲的,(然后第二个题填空好难,嘻嘻不会) 第三题.好数​编辑 第四题0R格式 宝石组合 数字接龙 最后一题:拔河 第…

Django基础之路由

一.前言 前面我们说了django的安装于基础配置,基础知识点我就细分下来,每天和大家讲一点,今天就要和大家说django的基础知识点了,我们今天先来讲路由,内容不多,希望大家记住 二.传统路由 路由就是前面一个…

gitlab ssh-key 绑定

windows环境下配置 gitlab的ssh key: 1.打开本地git bash,使用如下命令生成ssh公钥和私钥对: ssh-keygen -t rsa -C xxxxxx.com 2.一直回车; 3.然后打开公钥文件:C:/Users/Administrator/.ssh/id_rsa.pub文件,复制其中的内容; 4…

26.100ASK_T113-PRO 测试摄像头 输出信息

1.测试代码 读到摄象头参数 输出 video_test.c #include <sys/types.h> #include <sys/stat.h> #include <fcntl.h> #include <sys/ioctl.h> #include <unistd.h> #include <stdio.h> #include <string.h> #include <linux/type…

【人工智能】深入解析GPT、BERT与Transformer模型|从原理到应用的完整教程

在当今人工智能迅猛发展的时代&#xff0c;自然语言处理&#xff08;NLP&#xff09;领域涌现出许多强大的模型&#xff0c;其中GPT、BERT与Transformer无疑是最受关注的三大巨头。这些模型不仅在学术界引起了广泛讨论&#xff0c;也在工业界得到了广泛应用。那么&#xff0c;G…

【Flink-scala】DataStream编程模型之 窗口的划分-时间概念-窗口计算程序

DataStream编程模型之 窗口的划分-时间概念-窗口计算程序 1. 窗口的划分 1.1 窗口分为&#xff1a;基于时间的窗口 和 基于数量的窗口 基于时间的窗口&#xff1a;基于起始时间戳 和终止时间戳来决定窗口的大小 基于数量的窗口&#xff1a;根据固定的数量定义窗口 的大小 这…

虚拟地址空间与物理内存(Linux系统)

个人主页&#xff1a;敲上瘾-CSDN博客 个人专栏&#xff1a;Linux学习、游戏、数据结构、c语言基础、c学习、算法 目录 问题引入 一、什么是虚拟内存 二、虚拟内存的描述与组织 三、页表的优势 四、虚拟内存区域划分 问题引入 为引入今天的话题&#xff0c;我们先来看下面…

docker-compose搭建xxl-job、mysql

docker-compose搭建xxl-job、mysql 1、搭建docker以及docker-compose2、下载xxl-job需要数据库脚本3、创建文件夹以及docker-compose文件4、坑来了5、正确配置6、验证-运行成功 1、搭建docker以及docker-compose 略 2、下载xxl-job需要数据库脚本 下载地址&#xff1a;https…

【ArcGIS Pro实操第11期】经纬度数据转化成平面坐标数据

经纬度数据转化成平面坐标数据 数据准备ArcGIS操作步骤-投影转换为 Sinusoidal1 投影2 计算几何Python 示例 另&#xff1a;Sinusoidal (World) 和 Sinusoidal (Sphere) 的主要区别参考 数据准备 数据投影&#xff1a; 目标投影&#xff1a;与MODIS数据相同&#xff08;Sinu…

【模型学习之路】PyG的使用+基于点的任务

这一篇是关于PyG的基本使用 目录 前言 PyG的数据结构 演示 图的可视化 基于点的任务 任务分析 MLP GCN 前言 对图结构感兴趣的朋友可以学一下常用的有关图结构的库&#xff1a;networkx详细介绍 networkx 库&#xff0c;探讨它的基本功能、如何创建图、操作图以及其常…

如何监控Elasticsearch集群状态?

大家好&#xff0c;我是锋哥。今天分享关于【如何监控Elasticsearch集群状态&#xff1f;】面试题。希望对大家有帮助&#xff1b; 如何监控Elasticsearch集群状态&#xff1f; 1000道 互联网大厂Java工程师 精选面试题-Java资源分享网 监控 Elasticsearch 集群的状态对于确保…

Edify 3D: Scalable High-Quality 3D Asset Generation

Deep Imagination Research | NVIDIA 目录 一、Abstract 二、核心内容 1、多视图扩散模型 3、重建模型&#xff1a; 4、数据处理模块&#xff1a; 三、结果 1、文本到 3D 生成结果 2、图像到 3D 生成结果 3、四边形网格拓扑结构 一、Abstract NVIDIA 开发的用于高质量…

QUAD-MxFE平台

QUAD-MxFE平台 16Tx/16Rx直接L/S/C频段采样相控阵/雷达/电子战/卫星通信开发平台 概览 优势和特点 四通道MxFE数字化处理卡 使用MxFE的多通道、宽带系统开发平台 与Xilinx VCU118评估板&#xff08;不包括&#xff09;搭配使用 16个RF接收(Rx)通道&#xff08;32个数字Rx通道…

操作系统 锁——针对实习面试

目录 操作系统 锁什么是死锁&#xff1f;说说死锁产生的条件&#xff1f;死锁如何预防&#xff1f;死锁如何避免&#xff1f;银行家算法具体怎么操作&#xff1f;死锁如何解决&#xff1f;死锁会产生什么影响&#xff1f;乐观锁与悲观锁有什么区别&#xff1f; 操作系统 锁 什么…

UI设计-色彩、层级、字体、边距(一)

一.色彩&#xff1a;色彩可以影响人的心理与行动&#xff0c;具有不同的象征意义&#xff1b;有冷暖&#xff0c;轻重&#xff0c;软硬等等。 1.色彩情绪&#xff1a;最直观的视觉感受 一个活动的页面所用的颜色必须要与其内容相适应&#xff0c;让人看起来舒服。有时我们会不…

从入门到精通数据结构----四大排序(上)

目录 首言&#xff1a; 1. 插入排序 1.1 直接插入排序 1.2 希尔排序 2. 选择排序 2.1 直接选择排序 2.2 堆排序 3. 交换排序 3.1 冒泡排序 3.2 快排 结尾&#xff1a; 首言&#xff1a; 本篇文章主要介绍常见的四大排序&#xff1a;交换排序、选择排序、插入排序、归并排…