《深入浅出LLM 》(一):大模型概念综述

news2024/11/15 10:03:45

《深入浅出LLM 》(一):大模型概念综述

在这里插入图片描述

一、大模型概念

大规模语言模型(LargeLanguageModels,LLM),也称大规模语言模型或大型语言模型,是一种由包含数百亿以上参数的深度神经网络构建的语言模型,使用自监督学习方法通过大量无标注文本进行训练。自2018年以来,Google、OpenAI、Meta、百度、华为等公司和研究机构都相继发布了包括BERT[1],GPT[6]等在内多种模型,并在几乎所有自然语言处理任务中都表现出色。2019年大模型呈现爆发式的增长,特别是2022年11月ChatGPT(ChatGenerativePre-trainedTransformer)发布后,更是引起了全世界的广泛关注。用户可以使用自然语言与系统交互,从而实现包括问答、分类、摘要、翻译、聊天等从理解到生成的各种任务。大型语言模型展现出了强大的对世界知识掌握和对语言的理解。

在这里插入图片描述

在这里插入图片描述

一般来说大模型(Pretrained Foundation Model,Large Language Model)满足如下条件:

  1. 百亿级别参数量,GPT3 175B,Ernie-3.0 260B,llama 65B,PaLM 540B

  2. 具备一定的零示例和少示例预测能力,即预训练之后不需要或者需要少量样本就能解新任务

  3. 具备突现能力(emergent ability)

    (1)量变引发质变:模型效果随参数量/训练计算量/训练数据数量&质量增加出现近乎跳变般的提升 (2)不可预测,不能通过小模型的效果外推

自然语言处理发展

下面回顾人工智能发展的三个阶段

  • 1.人工智能的⼀个 要目标是让机器能听会说,能理解会思考
  • 2.目前人工智能技术正处在从感知智能到认知智能跨越的时间节点
  • 3.自然语⾔处理(NLP)是认知智能中的要内容,是通往强人工智能的必经之路

自然语言处理与图像、语音不同,语言是高度抽象的产物,其基本组成单位并不是明确的物理 。

  • 自然语言表示的发展⼀定程度上反映了自然语言处理的发展
  • 自然语言表示的变迁很大程度影响着自然语言处理的范式
  • 从离散到连续,从上下文无关到上下文相关,从浅层到深层

在这里插入图片描述

二、大模型发展时间线:

在这里插入图片描述

三、大模型分类

2018年,OpenAI和Google分别推出GPT与BERT,打开了自然语言处处理新篇章,开启“预训练+精调”新范式 根据⾯向的任务类型,相关预训练模型也⼤致分为两⼤类:自然语言处理解(NLU)、自然语言处⽣成(NLG)

在这里插入图片描述

在这里插入图片描述

开源大模型汇总

在这里插入图片描述

闭源大模型汇总

在这里插入图片描述

四、大语言模型范式发展

新范式:预训练+上文学习(In Context Learning) 在这里插入图片描述

大模型语言构建流程

在这里插入图片描述 1.预训练(Pretraining)阶段需要利用海量的训练数据,包括互联网网页、维基百科、书籍、GitHub、论文、问答网站等,构建包含数千亿甚至数万亿单词的具有多样性的内容。

2.有监督微调(SupervisedFinetuning),也称为指令微调(InstructionTuning),利用少量高质量数据集合,包含用户输入的提示词(Prompt)和对应的理想输出结果。用户输入包括问题、闲聊对话、任务指令等多种形式和任务。

3.奖励建模(RewardModeling)阶段目标是构建一个文本质量对比模型,对于同一个提示词,SFT 模型给出的多个不同输出结果的质量进行排序。奖励模型(RM模型)可以通过二分类模型,对输入的两个结果之间的优劣进行判断。RM模型与基础语言模型和SFT模型不同,RM模型本身并不能单独提供给用户使用。奖励模型的训练通常和SFT模型一样,使用数十块GPU,通过几天时间完成训练。

4.强化学习(ReinforcementLearning)阶段根据数十万用户给出的提示词,利用在前一阶段训练的RM模型,给出SFT模型对用户提示词补全结果的质量评估,并与语言模型建模目标综合得到更好的效果。该阶段所使用的提示词数量与有监督微调阶段类似,数量在十万量级,并且不需要人工提前给出该提示词所对应的理想回复。

五、大模型预训练挑战

模型大小几乎呈指数增长,大模型训练面临新挑战:

  1. 成本高

(1)GPT-175B一次训练光计算资源消耗1200万美元

css复制代码  a. 采用A100的GPU,算力峰值在312TFLOPS。

  b. OpenAI定义的GPT-3 175B模型,算力总需求是3.64E+03 PFLOPS For One Day,不考虑内存限制,即单张A100卡训练 3640*1024 / 312 = 11946 days。

  c. 假定我们使用1000张A100,并且能够将算力打满(现实情况是几乎不可能,整体的使用率达到90%已经是优化的很极限的程序了),大约11天可以训练完成。
 

(2)业界方案:predictive scaling(GPT4核心工作)

六、名词解释:

大模型:一般指1亿以上参数的模型,但是这个标准一直在升级,目前万亿参数以上的模型也有了。大语言模型(Large Language Model,LLM)是针对语言的大模型。

175B、60B等:这些一般指参数的个数,B是Billion/十亿的意思,175B是1750亿参数,这是ChatGPT大约的参数规模。

强化学习:(Reinforcement Learning)一种机器学习的方法,通过从外部获得激励来校正学习方向从而获得一种自适应的学习能力。

基于人工反馈的强化学习(RLHF):(Reinforcement Learning from Human Feedback)构建人类反馈数据集,训练一个激励模型,模仿人类偏好对结果打分,这是GPT-3后时代大语言模型越来越像人类对话核心技术。

涌现:(Emergence)或称创发、突现、呈展、演生,是一种现象。许多小实体相互作用后产生了大实体,而这个大实体展现了组成它的小实体所不具有的特性。研究发现,模型规模达到一定阈值以上后,会在多步算术、大学考试、单词释义等场景的准确性显著提升,称为涌现。

泛化:(Generalization)模型泛化是指一些模型可以应用(泛化)到其他场景,通常为采用迁移学习、微调等手段实现泛化。

微调:(FineTuning)针对大量数据训练出来的预训练模型,后期采用业务相关数据进一步训练原先模型的相关部分,得到准确度更高的模型,或者更好的泛化。

指令微调:(Instruction FineTuning),针对已经存在的预训练模型,给出额外的指令或者标注数据集来提升模型的性能。

思维链:(Chain-of-Thought,CoT)。通过让大语言模型(LLM)将一个问题拆解为多个步骤,一步一步分析,逐步得出正确答案。需指出,针对复杂问题,LLM直接给出错误答案的概率比较高。思维链可以看成是一种指令微调。

Embedding: 这是指将输入的文本(如“an astronaut riding a horse”)转换成一个高维空间中的向量表示。这个过程通常通过一个文本编码器(Text encoder)完成,它可以捕捉和编码文本的语义信息。Embedding向量是一个密集的向量,它将文本的信息压缩进一个固定长度的格式,以便模型可以处理。

Encoder: 在深度学习模型中,encoder通常是一个神经网络结构,它的目的是将高维数据(如图像或文本)转换成一个低维的、密集的表示,即latent空间。这个过程涉及信息的压缩,encoder试图捕捉输入数据的核心特征。在文本到图像的生成模型中,encoder通常指的是将文本信息编码成向量的文本编码器。

Decoder: decoder是encoder的对偶,它的任务是将encoder输出的低维、密集的latent表示重新构建回原始数据的高维空间。在图像生成模型中,decoder负责将latent空间的数据“解码”成可识别的图像。这个过程通常涉及数据的扩张和细化,以生成高质量的输出图像。

ChatGPT:OpenAI发行的基于GPT架构的大型对话式语言模型。

GPT-4-powered eval:使用GPT-4模型评估技术,对其他模型输出进行定性比较。

ChatGPT API:提供外部开发者和应用程序访问ChatGPT功能的接口。

GPT4All:Nomic创建的模型及生态系统项目。

LLaMA:Meta公司开发的大型语言模型,社区泄露后引发创新和开发。

Vicuna:发布与Bard功能相当的13B参数模型的跨大学合作项目。

RLHF (Reinforcement Learning from Human Feedback):通过人类反馈训练AI模型的方法。

LoRA (Low Rank Adaptation):一种通过低秩分解降低更新矩阵大小的模型微调技术。

Chinchilla:可能指提高大规模语言模型效率的技术或模型结构。

Stable Diffusion:一个开源图像生成AI项目,使用生成对抗网络(GANs)产生高分辨率图像。

Dall-E:OpenAI开发的根据文本描述生成图像的AI模型。

Fine-tuning:在预训练模型基础上进一步训练优化特定任务性能的过程。

PEFT (Parameter Efficient Fine Tuning) :参数高效微调技术,用较少可学习参数有效微调模型。

Low rank:指矩阵中非零奇异值数量较少,微调时改变部分参数,保持结构大体不变。

Full-rank updates:更新模型所有参数的方法。

Datasets and tasks:机器学习模型训练所需的数据样本集合和模型需要完成的特定问题。

Distillation:一种模型压缩技术,训练小型神经网络模仿大型网络行为。

Model weights:连接神经网络神经元的参数,训练中学习得到,用于预测。

ULM (Universal Language Model):设计处理、理解、生成不同任务和领域内文本的模型。

Instruction Tuning:优化语言模型以更好理解并执行自然语言指令的过程。

Conversation Tuned:优化语言模型以提高进行自然语言对话的能力。

Alpaca:斯坦福大学发布的项目,对LLaMA模型进行指令调整。

Quantization:减少模型权重位数,以减小模型大小并加速推理的过程。

μ-parameterization (Micro-parameterization):模型规模优化方法,提高性能。

LLaMA-Adapter:使用PEFT技术,对LLaMA模型添加指令调整和多模态能力,快速训练。

ScienceQA:针对多模态科学问答的基准测试,评估模型性能。

那么,我们该如何学习大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

一、大模型全套的学习路线

学习大型人工智能模型,如GPT-3、BERT或任何其他先进的神经网络模型,需要系统的方法和持续的努力。既然要系统的学习大模型,那么学习路线是必不可少的,下面的这份路线能帮助你快速梳理知识,形成自己的体系。

L1级别:AI大模型时代的华丽登场

L2级别:AI大模型API应用开发工程

L3级别:大模型应用架构进阶实践

L4级别:大模型微调与私有化部署

一般掌握到第四个级别,市场上大多数岗位都是可以胜任,但要还不是天花板,天花板级别要求更加严格,对于算法和实战是非常苛刻的。建议普通人掌握到L4级别即可。

以上的AI大模型学习路线,不知道为什么发出来就有点糊,高清版可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1800691.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Python | Leetcode Python题解之第138题随机链表的复制

题目: 题解: class Solution:def copyRandomList(self, head: Optional[Node]) -> Optional[Node]:allNode[] # 用一个数组存储所有结点cur1headwhile cur1:allNode.append(cur1)cur1cur1.nextnlen(allNode)allRandom[-1]*n # 用一个数组存储所有节点…

Node.js后端构建指南:MongoDB与Express的集成

安装express 安装 Express 并将其保存到依赖列表中: $ cnpm install express --save 以上命令会将 Express 框架安装在当前目录的 node_modules 目录中, node_modules 目录下会自动创建 express 目录。以下几个重要的模块是需要与 express 框架一起安…

开源WebGIS全流程常用技术栈

1 数据生产 1.1 uDig uDig(http://udig.refractions.net/)是一个基于Java开源的桌面应用框架,它构建在Eclipse RCP和GeoTools(一个开源的Java GIS包)上。可以进行shp格式地图文件的编辑和查看;是一个开源空间数据查看…

前端最新面试题(基础模块HTML/CSS/JS篇)

目录 一、HTML、HTTP、WEB综合问题 1 前端需要注意哪些SEO 2 img的title和alt有什么区别 3 HTTP的几种请求方法用途 4 从浏览器地址栏输入url到显示页面的步骤 5 如何进行网站性能优化 6 HTTP状态码及其含义 7 语义化的理解 8 介绍一下你对浏览器内核的理解&#xff1…

阿里云服务器发送邮件失败 Could not connect to SMTP host: smtp.xxx.com, port: 465;

最近做了一个发送邮件的功能, 在本地调试完成后,部署到阿里云服务器就一直报错, Could not connect to SMTP host: smtp.qiye.aliyun.com, port: 465; 网上也搜索了很多的资料,最后花了好几个小时才解决, 报错日志如下…

全新抖音快手小红书视频解析去水印系统网站源码

这个系统支持几十种平台,包括抖音、快手小红书以及其他热门社交媒体平台。它可以帮助轻松地下载这些平台上的任何视频,并去除其中的水印,让你可以自由地保存和分享这些视频。 使用方法: 上传压缩包解压,网站信息在inc…

数据脱敏技术方案选择(word)

1 概述 1.1 数据脱敏定义 1.2 数据脱敏原则 1.2.1基本原则 1.2.2技术原则 1.2.3管理原则 1.3 数据脱敏常用方法 3.1.1泛化技术 3.1.2抑制技术 3.1.3扰乱技术 3.1.4有损技术 1.4 数据脱敏全生命周期 2 制定数据脱敏规程 3 发现敏感数据 4 定义脱敏规则 5 执…

读取文件

自学python如何成为大佬(目录):自学python如何成为大佬(目录)_利用python语言智能手机的默认语言实战一-CSDN博客 在Python中打开文件后,除了可以向其写入或追加内容,还可以读取文件中的内容。读取文件内容主要分为以下几种情况: 1 读取指…

python爬虫入门教程(二):requests库的高级用法

requests库除了基本的GET和POST请求外,requests库还提供了许多高级功能,本文将介绍其中一些常用的用法。包括: 会话保持(Session)SSL证书验证文件上传代理设置自定义HTTP适配器超时设置 请求参数 文章最开始&#x…

github将默认分支main改为master

github将默认分支main改为master 1.进入github,点击setting 2.在setting中,选择Respositories,更新默认分支为master 3.选择要更新的项目,在项目中选择setting->general->切换默认分支

Elastic Search(ES)Java 入门实操(3)数据同步

基本概念和数据查询代码: Elastic Search (ES)Java 入门实操(1)下载安装、概念-CSDN博客 Elastic Search(ES)Java 入门实操(2)搜索代码-CSDN博客 想要使用 ES 来查询数…

MAVEN:自定义模板Archetype的创建

目录 一、简介 二、具体步骤 三、 vscode通过模板创建项目 四、通过IDEA创建 一、简介 有时候MAVEN自带的模板库并不能满足我们创建项目的需求,为了能够快速创建项目,免去每次复杂的配置,所以我们需要自定义模板库,本次操作基于…

控制台输入javac命令输出的结果中的中文乱码解决方式

默认字符编码UTF-8无法解析中文。设置环境变量中 “JAVA_TOOL_OPTIONS” 的值为"UTF-8" 即可。 具体配置步骤: 桌面右键"我的电脑" --> 属性 高级系统设置 环境变量 用户变量中添加 JAVA_TOOL_OPTIONS 然后确定,保存即可。

Windows 更新根文件夹的修改时间

简介: Win10 系统不会根据深层目录文件更新主目录的修改时间. 一般解决办法是关闭 Winodws 搜索引擎。 win10文件夹不能自动更新了怎么办?_百度知道 本脚本通过递归遍历子目录和子文件,来更新根目录的时间。 使用内层目录和当前目录下的最新…

(杂交版)植物大战僵尸

1.为什么我老是闪退? 答:主页控制台把“后台运行”点开,尽量避免全屏就会好很多。 2.哪里下载? 答:夸克https://pan.quark.cn/s/973efb326f81 3.为啥我没有14个卡槽? 答:冒险没打,怪…

课时149:项目发布_基础知识_项目交付

1.1.1 项目交付 学习目标 这一节,我们从 基础知识、代码发布、小结 三个方面来学习 基础知识 简介 项目交付是一个涉及到多团队共同协作的事情,它包括 产品团队设计产品、研发团队开发产品、测试团队测试代码、运维团队发布代码和维护站点等工作。项…

运维 之 DNS域名解析

前言 我们每天打开的网站,他是如何来解析,并且我们怎么能得到网站的内容反馈的界面呢?那什么是DNS呢(DNS(DomainNameservice,域名服务,主要用于因特网上作为域名和IP地址相互映射)那…

【Python】读取文件夹中所有excel文件拼接成一个excel表格 的方法

我们平常会遇到下载了一些Excel文件放在一个文件夹下,而这些Excel文件的格式都一样,这时候需要批量这些文件合并成一个excel 文件里。 在Python中,我们可以使用pandas库来读取文件夹中的所有Excel文件,并将它们拼接成一个Excel表…

【UE5 刺客信条动态地面复刻】实现无界地面01:动态生成

2024.6.4更新 昨天半夜意识到生成Cube的方案不合适,又开始到处找动态地面的方法,发现了我想要的效果直接可以用nigara实现!!!! 于是这个部分就暂时告一段落,今季开始新的方向的学习。 为了快速…

Flink⼤状态作业调优实践指南:状态报错与启停慢篇

摘要:本文整理自俞航翔、陈婧敏、黄鹏程老师所撰写的大状态作业调优实践指南。由于内容丰富,本文分享终篇状态报错与启停慢篇,主要分为以下四个部分: 检查点和快照超时的诊断与调优 作业快速启动和扩缩容方案 总结 阿里云企业级…