2023年排行前五的大规模语言模型(LLM)

news2024/9/28 9:17:13

2023年排行前五的大规模语言模型(LLM)

截至2023年,人工智能正在风靡全球。它已经成为热门的讨论话题,吸引了数百万人的关注,不仅限于技术专家和研究人员,还包括来自不同背景的个人。人们对人工智能热情高涨的原因之一是其在人类多年来处理的各种形式的领域中所具备的能力,其中包括语言。语言是人类生活的一个组成部分,它帮助我们交流,理解我们周围的事物,甚至帮助我们思考。但是,如今人工智能已经更有能力处理与人类水平甚至高于人类水平的语言。这是由于自然语言处理(NLP)和大型语言模型(LLMs)的进步,ChatGPT的背后就是其中之一,这是总部位于旧金山的初创公司OpenAI的伟大创举。但是,OpenAI成为成功将其LLM技术推向公众的公司之一。有许多大型和小型公司构建了许多此类类型的大型语言模型。在本文中,我们将概述大型语言模型以及世界上一些先进的LLM,准确地说,我们将讨论其中的5个。需要注意的是,这些LLM的列表是通过各种来源的研究编制的,并不是基于排名的。

大型语言模型的精髓

近年来,自然语言处理(NLP)因计算机能够存储和处理大量自然文本数据的能力而受到迅猛发展。NLP的应用可以在我们使用了几十年的各种技术中看到,如语音识别、聊天机器人等。自从机器学习出现以来,科学家们开始将NLP与最先进的机器学习技术相结合,以更高效地处理文本。但是,最近NLP由于强大的大型语言模型(LLMs)的出现而变得更加流行。

那么什么是大型语言模型,为什么它们如此强大?语言模型基本上是一种特殊类型的机器学习模型,可以高效地学习、理解和处理人类语言。通过从包含文本的数据集中学习,语言模型可以高度准确地预测下一个词或句子。但是,当它们变得更大时,它们变得更加有趣和特殊。LLMs在非常大的文本数据集(数百万或数十亿的文本数据)上进行了训练,并且需要大量的计算能力。比较之下,如果说语言模型就像花园,那么大型语言模型就像是茂密的森林。

LLMs如何工作?

正如我们所说,LLMs是机器学习模型,它们可以通过文本做很多事情,例如将一种语言翻译成另一种语言,生成语言,回答问题等。但是它们是如何做到的呢?建立LLMs的可能性来自Google研究人员提出的一种特殊类型的神经网络架构,称为Transformer。

Transformer是一种专门用于在文本数据中执行魔术的神经网络类型。它们非常适合有效地进行扩展,并且可以在非常大的文本语料库上进行训练,甚至是数十亿甚至数万亿的文本!此外,与其他类型的神经网络(如循环神经网络)相比,变压器可以更快地进行训练。更有趣的是,Transformer可以并行训练,这意味着可以同时利用多个计算资源(例如CPU或GPU)来加速学习过程,而RNN只能顺序处理数据。

变压器模型的另一个有趣的特点是自我注意技术。这种机制使得变压器能够学习语言的潜在含义,而不仅仅是逐个产生随机相关的文本。由于具备了这种能力,今天的语言模型不仅仅是逐个输出文本,而且它们通过提供大量的文本数据来学习语言的实际含义(就像人类一样),包括语法、语义和上下文。

Google开发的Transformer模型的发明在人工智能和自然语言处理(NLP)领域取得了重大的成就。借助这种Transformer模型,许多大型、小型甚至初创公司正在构建LLMs,并将其用于不同的目的,如技术聊天支持、语音助手、内容生成、聊天机器人等等。我们无法讨论当今存在的每个LLMs,因为它们有很多。因此,现在,让我们讨论2023年世界上存在的最先进的5个LLMs,这些LLMs如下:

1、GPT-4(OpenAI)

在这里插入图片描述

GPT-4,全称为Generative Pre-trained Transformer-4,是OpenAI最先进且高度复杂的大型语言模型。它是继成功推出搭载GPT-3.5的ChatGPT后于2023年3月14日发布的第四代语言模型。它配备了一流的推理和创造能力,超越了人们的想象。GPT-4是一个庞大的神经网络,包含着惊人的1万亿参数,并在包含来自各种编程语言的代码在内的大型文本数据集上进行了训练。此外,GPT-4不仅精通文本处理,还展现出处理视觉数据(包括图像)的能力。凭借其从文本和视觉输入中理解和生成内容的能力,可以认为GPT-4是一种强大的多模态人工智能,连接了语言和视觉领域。

GPT-4的另一个有趣功能是它可以在单个请求中处理的数据量。OpenAI的前任语言模型可以在单个请求中处理多达3000个标记,但GPT-4可以在一个请求中处理多达25000个标记。这非常大,您实际上可以要求GPT-4在一次操作中对整个10页PDF进行摘要。

更有趣的是,OpenAI的科学家和研究人员表示,GPT-4具有人工通用智能(AGI)的一瞥,而许多科学家认为在未来40或50年内可能不太可能实现。然而,根据OpenAI的博客文章,GPT-4并不是一个完美的系统,它可能会出现幻觉和错误的回答。

2、GPT-3(OpenAI)

在这里插入图片描述

GPT-3,全称为Generative Pre-trained Transformer 3,是另一个基于Transformer的令人印象深刻的语言模型,于2020年6月11日由OpenAI推出,在2023年仍然是市场上最先进的LLMs之一。它使用先进的深度学习技术,如Transformer和注意机制,来处理和生成与人类编写的文本难以区分的文本。

从本质上讲,GPT-3非常庞大,大约有1750亿个参数,使用先进的自然语言处理(NLP),并在包含维基百科、WebText2、书籍、文章和代码等各种来源的数千兆字节的文本数据集上进行了训练。这种复杂性使得GPT-3在语言处理方面具有卓越的能力,包括文本生成、语言翻译和问题回答。此外,GPT-3在GitHub的大部分内容上进行了广泛的训练,使其在各种编程语言和概念的广泛范围内都具备了专业知识。

在GPT-3取得成功后,该公司再次推出了GPT-3的增强版本,称为GPT-3.5,它正在驱动ChatGPT。

3、Gopher(DeepMind)

在这里插入图片描述

Gopher是由Google DeepMind开发的AI语言模型,专门针对阅读理解、事实核查、理解有毒语言以及逻辑和常识任务等任务进行了训练。

DeepMind的研究人员开发了一系列的语言模型,从4400万参数到2800亿参数,这些模型在来自各种来源的大量文本上进行了训练。在这些语言模型中,2800亿参数的模型在语言理解和生成方面表现出更强的能力,他们称之为Gopher。在他们的研究中,他们发现Gopher在各种任务中超越了现有的语言模型,并达到了人类水平的专业水平,包括大规模多任务语言理解(MMLU),这是用于衡量大型语言模型理解和回应各种语言任务能力的新基准。这项研究表明,与其他语言模型(包括GPT-3)相比,Gopher在数学、科学、技术、人文学科和医学等领域表现出色。

Gopher的设计目标是在基于对话的互动中表现出色,从而使其能够通过聊天式的回应来解释甚至复杂的主题。如果您访问他们的公司博客,您可以看到Gopher以非常简单的术语解释细胞生物学的例子。

4、PaLM(Google)

在这里插入图片描述

PaLM,全称为Pathways Language Model,是Google的一种先进的语言模型,旨在在单一模型内概括多个领域。它使用Pathways架构更好地理解语言,并消除了现有语言模型(如特定领域性、单一性等)的一些局限性。Pathways是一种相对较新且在Google进行的研究中不断改进的神经网络架构。Pathways使得AI系统能够在多个领域中表现出色,而不仅仅是专注于一组单一的任务。它还使得AI模型成为多模态的,这意味着它们可以同时处理和理解来自不同模态(如文本、图像和音频)的信息。

PaLM是一个基于Transformer的语言模型,具有5400亿个参数,它在语言理解、问题回答、算术、代码、语言翻译、逻辑推理、对话等各个领域表现出卓越的性能。更有趣的是,Google的研究人员将其PaLM模型整合到了一个真实世界的机器人中,通过添加传感信息和机器人手势和控制。这个机器人可以通过其PaLM大脑执行各种任务,包括进行与人类的有意义对话、理解并响应口头指令、自主导航、使用机器臂操纵物体以及执行各种现实世界的任务。

PaLM是Google正在积极追求的研究领域之一,该公司正在开发新的、高性能的PaLM版本。事实上,他们最近推出了PaLM-2,该模型具有令人印象深刻的推理、编码和多语言能力。

5、LaMDA(Google)

在这里插入图片描述

LaMDA,全称为Language Model for Dialogue Applications,是Google于2020年早期进行的研究中开发的另一种语言模型。与其他语言模型不同,LaMDA主要在基于对话的文本上进行训练,这对于对话非常有利。由于在对话中进行了训练,LaMDA在进行人类水平有意义的对话方面表现出了异常的技能。LaMDA的这种能力非常出色,Google的一位前员工甚至认为LaMDA是有思想的。

LaMDA基于先进的NLP技术,采用了基于Transformer的神经网络模型。根据Google的研究人员表示,将基于Transformer的模型与对话相结合,有可能使大型语言模型更擅长进行人类水平的对话,甚至最终可以学会谈论几乎任何事情。此外,在大量对话文本中进行训练后,可以使用强化学习对LaMDA进行微调,使其在基于对话的任务中更难以区分出AI。

在2023年2月,Google将其最新版本的LaMDA集成到了名为Bard的聊天机器人中,该机器人现在在全球范围内可用。然而,Google表示,他们已经将Bard背后的技术从LaMDA替换为PaLM-2。

其他值得一提的提名

LLaMA(Meta AI):LLaMA(Large Language Model Meta AI)是由Meta(前Facebook)开发的一系列开源LLMs。其中,LLaMA 1于2023年2月发布,被认为是最佳的开源语言模型之一,可用于各种NLP任务,而无需支付任何费用,除非您可能需要在家中运行GPU。LLaMA 1的第一个版本包括7、13、33和65亿个参数模型。其中,Meta的研究人员发现,13亿个参数的模型在大多数NLP任务中表现比GPT-3(1750亿)更好。65亿模型的表现更佳,可能与Google的PaLM模型竞争。

Claude(Anthropic):Claude是由Anthropic开发的一种类似于GPT-3的大型语言模型。与其他LLMs不同,Claude的训练数据集主要由人类作者手动创建的,而不是自动收集的数据。这使得Claude能够更好地理解并生成高质量的文本。此外,Anthropic表示Claude不是一个通用的大型语言模型,而是一个以人类作为参考的模型,其目标是在编写时提供帮助和指导,而不仅仅是生成文本。

总结

在人工智能迅速发展的今天,大型语言模型(LLMs)已经成为人们热议的话题。它们在自然语言处理(NLP)领域取得了巨大的成功,并且已经广泛用于各种应用,从文本生成到问题回答,再到对话式AI。我们看到了许多公司不断推出越来越强大的LLMs,这些模型在语言理解和生成方面超越了以前的记录。在2023年,像GPT-4、GPT-3、Gopher、PaLM和LaMDA等最先进的LLMs展示了人工智能在理解和处理人类语言方面的显著进展。不过,这些模型仍然面临挑战,如幻觉、错误回答等,但它们仍然为科研、商业和创新提供了巨大的机会。随着技术不断演进,LLMs可能会在更多领域带来创新,为人类生活带来积极的影响。

博文参考:
https://www.pycodemates.com/2023/06/large-language-models-overview-and-types-of-llm.html

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/887710.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

新版本Qt Creator无法提示错误、不报红

问题 更新新版本Qt Creator后无法实时提示错误,在开发中非常难受 如图,此时w后面少了;Qt Creator却只有红色横线标识,没有具体的错误。 解决方法 首先要知道,提供这个错误显示功能是ClangCodeModel插件提供的,因此…

Kafka-eagle监控平台

Kafka-Eagle简介 在开发工作中,当业务不复杂时,可以使用Kafka命令来进行一些集群的管理工作。但如果业务变得复杂,例如:需要增加group、topic分区,此时,再使用命令行就感觉很不方便,此时&#x…

FPGA_学习_15_IP核_VIO

前一篇博客我们提到在线调试的时候, 可执行文件只要烧进板子,程序它就会自己跑起来,不会等你点 这个按钮,它才开始跑。我们测试的模块中,里面可能有几个我们关心的信号,它会在程序刚运行很短的时间内发生状…

matlab初

matlab语言方式与c有很大的相似之处,此篇记录一下自己初步学习matlab的一些过程和代码 学习matlab主要是从b站上,也从matlab官网去学习了一下相关感兴趣的函数 版本是之前下好的R2022b 1.变量命名,这与c语言变量命名要求的规则非常相似 简单…

Pycharm与Anaconda Python的开发环境搭建

目录 一:下载 二:安装python 三:设置Pycharm 一:下载 下载Anaconda: Anaconda | The World’s Most Popular Data Science Platform 安装好以后,设置一下环境变量: 打开命令行&#xff0c…

双链表的插入,删除以及遍历

在上一节我们讲解了单链表的头插法和尾插法 http://t.csdn.cn/RixAu 但是单链表无法反向检索,对于某些情景可能造成不便,所以我们今天学习双链表 目录 1.双链表的初始化 2.双链表的插入 3.双链表的删除 4.遍历双链表 1.双链表的初始化 typedef i…

【Git】(一)基本操作

读完本文后,您会了解: 1、如何在本地配置GIT环境? 2、环境配置成功后,如何从远端下载一个已有仓库到本地? 1. 配置全局用户名、邮箱 git config --global user.name "username" git config --global user.email &q…

plt绘画带箭头的xy坐标轴

import matplotlib.pyplot as plt import mpl_toolkits.axisartist as axisartist# 创建画布 fig plt.figure() # 使用axisartist.Subplot方法创建一个绘图区对象ax ax axisartist.Subplot(fig,2,3,1) # 将绘图区对象添加到画布中 fig.add_axes(ax) # 通过set_axisline_style…

varifocal loss(VFL)介绍

文章目录 一、论文链接二、公式理解代码 一、论文链接 https://arxiv.org/pdf/2008.13367.pdf 二、公式理解 简单说明下,这里的IACS是IoU-aware classification score的缩写。VFL原文里面这个target socre也就是q,是一个和IOU有关的软标签。对于挑选出…

华为网络篇 RIP的报文认证-28

难度2复杂度2 目录 一、实验原理 二、实验拓扑 三、实验步骤 四、实验过程 总结 一、实验原理 RIP的认证方式有两种,一种是明文认证,另一个是密文认证。明文认证有一个比较大的缺陷,就是认证的密钥也是明文传输的,这为攻击者…

关于 LLM 和图数据库、知识图谱的那些事

本文整理自 NebulaGraph 布道师 wey 在「夜谈 LLM」主题分享上的演讲,主要包括以下内容: 背景 LLMRAGGraph 知识抽取Text2CypherGraph RAG未来规划 技术背景 LLM 是什么 这里简单、快速地介绍下大语言模型:从 GPT-2 开始,到后…

如何在安卓设备上安装并使用 ONLYOFFICE 文档

您可以使用文档安卓版应用,在移动设备上访问存在您 ONLYOFFICE 帐号中的文件。阅读本文,了解如何操作。 什么是 ONLYOFFICE 文档安卓版 适用于 Android 系统的 ONLYOFFICE 文档是一款全面的办公工具,您可以使用它,查看、创建、编…

42.SpringBoot—原理篇

一、SpringBoot原理篇。 (1)自动配置。 (1.1)bean加载方式。 (1.1.1)xml方式。(适用自定义bean与第三方bean) (1.1.2)注解方式组件扫描。(适用于自定义bean&#xff…

[PyTorch][chapter 50][自定义网络 ResNet18]

前言: 这里结合一个ResNet-18 网络,讲解一下自己定义一个深度学习网络的完整流程。 经过20轮的训练,测试集上面的精度85% 一 残差块定义 针对图像处理有两种结构,下面代码左右实现的是左边的结构. # -*- coding: utf-8 -*- &q…

基于YOLOv8模型和Caltech数据集的行人检测系统(PyTorch+Pyside6+YOLOv8模型)

摘要 基于YOLOv8模型和Caltech数据集的行人检测系统可用于日常生活中检测与定位行人,利用深度学习算法可实现图片、视频、摄像头等方式的行人目标检测,另外本系统还支持图片、视频等格式的结果可视化与结果导出。本系统采用YOLOv8目标检测算法训练数据集…

2022年06月 C/C++(二级)真题解析#中国电子学会#全国青少年软件编程等级考试

第1题&#xff1a;小白鼠再排队 N只小白鼠(1 < N < 100)&#xff0c;每只鼠头上戴着一顶有颜色的帽子。现在称出每只白鼠的重量&#xff0c;要求按照白鼠重量从小到大的顺序输出它们头上帽子的颜色。帽子的颜色用 “red”&#xff0c;“blue”等字符串来表示。不同的小白…

实现简单纯Canvas文本输入框,新手适用

文章目录 概要效果技术细节代码 概要 Canvas上面提供输入&#xff1a; 一、最简单可能是用dom渲染一个input,覆盖在图形上面进行文本编辑&#xff0c;编辑完再把内容更新到图形.这样简单&#xff0c;但是缺点也明显&#xff0c;就是它不是真正绘制在canvas上面&#xff0c;没…

爬虫逆向实战(三)--天某云登录

一、数据接口分析 主页地址&#xff1a;天某云 1、抓包 通过抓包可以发现登录接口是account/login 2、判断是否有加密参数 请求参数是否加密&#xff1f; 通过“载荷”模块可以发现password、comParam_signature、comParam_seqCode是加密的 请求头是否加密&#xff1f; 无…

嵌入式学习之字符串

通过今天的学习&#xff0c;我主要提高了对sizeof 和 strlen、puts()、gets()、strcmp 、strncmp、strstr、strtok的理解。重点对sizeof的使用有了更加深刻的理解

【会议征稿信息】第二届信息学,网络与计算技术国际学术会议(ICINC2023)

2023年第二届信息学&#xff0c;网络与计算技术国际学术会议(ICINC2023) 2023 2nd International Conference on Informatics,Networking and Computing (ICINC 2023) 2023年第二届信息学&#xff0c;网络与计算技术国际学术会议(ICINC2023)将于2023年10月27-29日于中国武汉召…