AI 大底座,大模型时代的答卷

news2024/12/23 17:55:53
  1. 文心一言的诞生

“文心一言就是在这个全国 AI 领域规模最大的高性能 GPU 集群上完成训练的。”

早在 2021 年 6 月,为了满足未来的大模型训练任务,百度智能云开始规划全新的高性能 GPU 集群的建设,联合 NVIDIA 共同完成了可以容纳万卡以上规模的 IB 网络架构设计,集群中节点间的每张 GPU 卡都通过 IB 网络连接, 并在 2022 年 4 月将集群建设完成,提供单集群 EFLOPS 级别的算力。

2023 年 3 月,文心一言在这个高性能集群上诞生,并不断迭代出新的能力。目前,这个集群的规模还在不断扩大。

NVIDIA 中国区解决方案与工程总经理赖俊杰博士:高速 IB 网络互联的 GPU 集群是大模型时代的关键基础设施。NVIDIA
和百度智能云共同建成的这个国内云计算市场最大规模的高性能 GPU/IB 集群,将加速百度在大模型领域获得更大突破。

  1. 高性能集群设计

高性能集群并不是算力的简单堆积,还需要经过专门的设计和优化,才能发挥出集群的整体算力。

在分布式训练中 GPU 会在机间和机内不断地进行通信。在利用 IB 、RoCE 等高性能网络为机间通信提供高吞吐、低时延的服务同时,还需要对服务器的内部网络连接,以及集群网络中的通信拓扑进行专门设计,满足大模型训练对通信的要求。

做到极致的设计优化,需要对 AI 任务中的各项操作都对基础设施意味着什么有深刻理解。分布式训练中不同的并行策略,即模型、数据、参数如何进行拆分,会产生不同的数据通信需求,比如数据并行和模型并行会分别引入大量的机内和机间 Allreduce 操作,专家并行会产生机间 All2All 操作,4D 混合并行则会将各类并行策略产生的通信操作都引入。

为此,百度智能云从单机服务器和集群网络两个方面优化设计,构建高性能 GPU 集群。

在单机服务器方面,百度智能云的超级 AI 计算机 X-MAN,目前已经进化到第 4 代。X-MAN 4.0 为 GPU 建立起了高性能的卡间通信,提供单机内部 134 GB/s 的 Allreduce 带宽。这是目前百度定制化程度最高,专用物料最多的服务器产品。在 MLCommons 1.1 榜单中,X-MAN 4.0 在同配置单机硬件性能名列 TOP2。

在集群网络方面,专门设计了面向大模型训练优化过的三层 Clos 架构,确保在大规模训练时集群的性能和加速比。和传统方式相比,该架构经过八导轨的优化,让任一同号卡在不同机器中的通信中的跳步数尽可能少,为 AI 训练中网络流量占比最大的同号卡 Allreduce 操作提供高吞吐和低延时的网络服务。

该网络架构可以最大能支持到 16000 卡的超大规模集群,这个规模是现阶段全 IB 网络盒式组网的最大规模。该集群的网络性能稳定一致性能做到了 98% 的水平,接近一直在稳定通信的状态。经大模型算法团队验证,在此超大规模集群上提交千亿模型训练作业,同等机器规模下整体训练效率是上一代集群的 3.87 倍。

但是,建设大规模高性能异构集群,只是大模型成功落地的第一步。确保 AI 大模型训练任务的顺利完成,还需要更多系统性软硬一体的优化。

  1. 大模型训练的挑战

过去几年,大模型的参数规模将达到每年增长 10 倍的速度。2020 年左右,亿级别参数才是大模型,2022 年,已经是需要千亿参数规模才能叫大模型了。

在大模型之前,一个 AI 模型的训练,通常单机单卡、或者单机多卡就可以满足,训练周期在小时到数天之间。现在,为了完成千亿参数大模型的训练,几百台服务器、数千张 GPU/XPU 卡的大集群分布式训练成为必选项,训练周期也扩展到以月为单位。

为了训练 1750 亿参数的 GPT-3 (3000 亿 token 数据),1 块 A100 按半精度峰值计算性能折算需要 32 年, 1024 块 A100 按资源利用率 45% 计算需要 34 天时间。当然,即使不考虑时间问题,1 块 A100 也是无法训练千亿参数规模的模型的,因为模型参数已经超过单卡显存容量。

在分布式训练的环境下进行大模型训练,训练周期从单卡几十年缩短到几十天,需要突破计算墙、显存墙、通信墙等各种挑战,使得集群内的所有资源都能被充分利用,加速训练过程,缩短训练周期。

计算墙,指的是单卡算力和模型总算力之间的巨大差异。A100 的单卡算力只有 312 TFLOPS,而 GPT-3 则需要 314 ZFLOPs 的总算力,两者相差了 9 个数量级。

显存墙,指的是单卡无法完整存储一个大模型的参数。GPT-3 的 1750 亿参数本身就需要 700 GB 的显存空间(每个参数按照 4 个字节计算),而 NVIDIA A100 GPU 只有 80 GB 显存。

计算墙和显存墙的本质是有限的单卡能力和模型的巨大的存储、计算需求之间的矛盾。这可以通过分布式训练的方法解决,但分布式训练之后又会遇到通信墙的问题。

通信墙,主要是分布式训练下集群各计算单元需要频繁参数同步,通信性能将影响整体计算速度。如果通信墙如果处理的不好,很可能导致集群规模越大,训练效率反而会降低。成功的突破通信墙,体现为集群有较强的扩展能力,即集群的多卡加速能力和规模是匹配的。多卡的线性加速比就是评估集群多卡加速能力的指标,数值越高越好。

这几堵墙在多机多卡的训练中开始出现。随着大模型的参数越来越大,对应的集群规模也越来越大,这三堵墙也越来越高。同时,在大集群长时间训练过程中,还会出现设备故障,有可能会影响或者中断训练进程。

  1. 大模型训练的过程

一般来说,从基础设施视角看大模型训练,整个过程可以大致分成以下两个阶段:

阶段一:并行策略和训练优化

在提交待训练的大模型后,AI 框架会综合考虑大模型的结构等信息、以及训练集群的能力,为本次训练任务制定出一个并行训练策略,并完成 AI 任务放置。这个过程就是拆开模型、放置任务,即大模型应该被如何拆解,被拆开的各个部分如何放置到集群的各个 GPU/XPU 中。

针对放置在 GPU/XPU 中运行的 AI 任务,AI 框架会联合训练集群在单卡运行时和集群通信层面进行全链路优化,加速大模型训练过程中各个 AI 任务的运行效率,包括数据加载,算子计算、通信策略等。比如将 AI 任务中运行的普通算子替换为经过优化的高性能算子,提供适配当前并行策略和训练集群网络能力的通信策略等。

阶段二:资源管理和任务调度

大模型训练任务按照上面制定的并行策略开始运行,训练集群为 AI 任务提供各类高性能的资源。比如 AI 任务运行在什么环境中,如何为 AI 任务提供资源对接,AI 任务通过什么存储方式读取和保存数据,GPU/XPU 通过什么类型网络设施通信等。

同时,在运行过程中,训练集群会联合 AI 框架通过弹性容错等方式,为大模型的长时间训练提供可靠的环境。比如如何观测和感知集群中各类资源和 AI 任务的运行状态等,如何在集群变化时能够对资源和 AI 任务进行调度等。

从以上两个阶段的拆解中,我们可以发现整个大模型训练的过程,都依赖 AI 框架和训练集群的密切配合,完成对三堵墙的突破,共同确保大模型训练的高效和稳定。

  1. 全栈融合,「AI 大底座」加速大模型训练

结合多年在 AI 和大模型领域的技术积累和工程实践,百度在 2022 年底推出了全栈自研的 AI 基础设施「AI 大底座」,包括「芯片 – 框架 – 模型 」三层技术栈,在各个层面都拥有关键自研技术和领先产品,分别对应昆仑芯、飞桨 (PaddlePaddle)、文心大模型。

在这三层技术栈的基础上,百度智能云推出了两大 AI 工程平台,「AI 中台」和「百度百舸· AI 异构计算平台」,分别在开发和资源层面进行提效,完成对三堵墙的突破,加速训练过程。

其中,「AI 中台」依托 AI 框架为大模型训练过程制定并行策略和优化过的环境,覆盖训练的全生命周期。「百度百舸 」实现了高效的芯片使能,提供各类 AI 资源的管理和任务调度的能力。

在这里插入图片描述

百度「AI 大底座」对各层的技术栈进行了全栈融合、系统优化,完成了云和智的技术一体化建设,可以实现对大模型训练的端到端优化和加速。

百度集团副总裁侯震宇:大模型训练是一个系统工程,集群规模、训练时间、花费金额,相比过去都提高了很多。如果不是全栈优化,很难保证大模型训练的顺利完成。百度多年来在大模型上的技术投入和工程实践,使得我们建立起了一套完整的软件栈能力,用来加速大模型的训练。

接下来,我们将结合上文提到的大模型训练过程的两阶段,讲述「AI 大底座」的各层技术栈是如何相互融合、系统优化,实现大模型训练的端到端优化和加速。

5.1 并行策略和训练优化

模型拆分
飞桨可以为大模型训练提供数据并行、模型并行、流水并行、参数分组切片、专家并行等丰富的并行策略。这些并行策略可以满足从十亿到千亿、甚至万亿参数规模大模型的训练,实现对计算墙和显存墙的突破。2021 年 4 月,飞桨在业界第一个提出 4D 混合并行策略,可支持千亿级大模型的训练在月级别完成。

拓扑感知
百度百舸拥有专为大模型训练场景准备的集群拓扑感知能力,包括节点内架构感知、节点间架构感知等,比如每台服务器内部的算力大小、 CPU 和 GPU/XPU、GPU/XPU 和 GPU/XPU 链接方式,以及服务器之间 GPU/XPU 和 GPU/XPU 网络链接方式等信息。

自动并行
在大模型训练任务开始运行前,飞桨可以依据百度百舸平台的拓扑感知能力,对集群形成统一分布式资源图。同时,飞桨根据待训练的大模型形成的统一逻辑计算视图。

综合这两张图,飞桨自动化地为模型搜索出最优的模型切分和硬件组合策略,将模型参数、梯度、优化器状态按照最优策略分配到不同的 GPU/XPU 上,完成 AI 任务的放置以提升训练性能。

比如将模型并行的 AI 任务都放置在同一台服务器的不同 GPU 上,这些 GPU 通过服务器内部的 NVSwitch 链接。将数据并行、流水线并行的 AI 任务放置在不同服务器的同号 GPU 上,这些 GPU 通过 IB 或者 RoCE 链接。通过这种依据 AI 任务的类型进行 AI 任务放置的的方法,使得集群资源能够被高效使用,加速大模型训练。

端到端自适应训练
在训练任务运行过程中,如果集群发生了变化,比如有资源出现了故障,或者集群规模有变化,百度百舸会进行容错的替换或者弹性扩缩容。由于参与计算的节点所在位置发生了变化,它们之间的通信模式也许已经不是最优。飞桨能够依据最新的集群信息,自动调整模型切分和 AI 任务放置策略。同时,百度百舸完成相应的任务和资源的调度。

飞桨统一的资源和计算视图以及自动并行能力,再结合百度百舸的弹性调度能力,实现了大模型的端到端自适应分布式训练,可以覆盖集群训练的全生命周期。

这是 AI 框架和 AI 异构算力平台的深入交互,实现了算力、框架、算法三位一体的系统优化,支持大模型自动弹性的进行训练,端到端实测有 2.1 倍的性能提升,保证了大规模训练的高效性。

训练优化
完成模型的拆分和 AI 任务的放置后,在训练过程中为了确保算子在飞桨、Pytorch 等各类主流 AI 框架和各类计算卡上可以加速计算,百度百舸平台中内置了 AI 加速套件。AI 加速套件包括了数据层存储加速、训练和推理加速库 AIAK ,分别从数据加载、模型计算、分布式通信等维度进行了全链路优化。

其中,数据加载和模型计算的优化可以有效提高单卡的运行效率;分布式通信的优化,结合集群的 IB 或者 RoCE 等高性能网络和专门优化的通信拓扑,以及合理的 AI 任务放置策略,共同解决通信墙问题。

百度百舸在千卡规模集群中的多卡加速比达到了 90%,使得集群拥有的整体算力可以被充分释放出来。

在 2022 年 11 月发布的 MLPerf Trainning v2.1 测试结果中,百度使用飞桨加百度百舸提交的模型训练性能结果,位列同等 GPU 配置下世界第一,端到端训练时间和训练吞吐均超越 NGC PyTorch 框架。

5.2 资源管理和任务调度
百度百舸通过容器引擎 CCE 承载所有 AI 任务的运行,并通过相关容器插件的方式提供各类 AI 资源管理、架构感知、弹性容错等能力,在资源效能层面完成计算墙、显存墙、通信墙的突破。
资源管理
百度百舸可以提供各类计算、网络、存储等 AI 资源,包括百度太行·弹性裸金属服务器 BBC、IB 网络、RoCE 网络、并行文件存储 PFS、对象存储 BOS、数据湖存储加速 RapidFS 等各类适合大模型训练的云计算资源。

在任务运行时,可以将这些高性能资源进行合理的组合,进一步提升 AI 作业的效率,全流程实现 AI 任务的计算加速。在 AI 任务开始前可以预热对象存储 BOS 中的训练数据,通过弹性 RDMA 网络将数据加载至数据湖存储加速 RapidFS 中。弹性 RDMA 网络相比传统网络可以降低 2 至 3 倍通信时延,在高性能存储的基础上,加速 AI 任务数据的读取。最后通过高性能的百度太行·弹性裸金属服务器 BBC 或者云服务器 BCC,进行 AI 任务的计算。

弹性容错
AI 任务运行时,不仅需要高性能的资源,还需要确保集群的稳定,最大程度降低资源故障发生率以免打断训练。但是,资源的故障不能绝对避免,AI 框架和训练集群需要联合保证训练任务被打断后能够从最近的状态恢复,从而为大模型的长时间训练提供可靠环境。

百度自研的异构集合通库 ECCL ,支持昆仑芯和其他异构芯片的通信,支持慢节点和故障节点的感知。通过百度百舸的资源弹性和容错策略,将慢节点和故障节点剔除,并将最新的架构拓扑反馈给飞桨,重新进行任务布置,对应训练任务调配至其他 XPU/GPU 上,确保训练的平滑高效运行。

  1. 大模型时代的 AI 普惠
    大模型是人工智能迈向通用智能的里程碑技术,驾驭好大模型是完成智能化升级路径上的必答题。超大规模的算力、全栈融合的软件优化,是对这道必答题的最好回答。

为了帮助社会和产业快速训练出自己的大模型,抢占时代先机,2022 年底百度智能云发布了阳泉智算中心,搭载百度「AI 大底座」的全栈能力,可以提供 4 EFLOPS 的异构算力。这是目前亚洲单体规模最大、技术最先进的数据中心。

目前,百度智能云已经将「AI 大底座」的全部能力对外开放,实现大模型时代的 AI 普惠,通过各个地域的中心云、边缘云 BEC、本地计算集群 LCC、私有云 ABC Stack 等多种形式进行交付,使得社会和产业可以方便的获得智能服务。

– - - - - - - - - END - - - - - - - - - -

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/508723.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

华人再次突破芯片技术瓶颈,然而成果归美芯,中国芯可能输了?

外媒报道指华人研发团队已突破芯片的极限,晶体管厚度只有三个原子那么大,达到0.3纳米,打破了此前芯片业界认为的1纳米是硅基芯片技术极限的概念,然而这项技术却是归美国所有。 这次取得技术突破的研发团队是麻省理工研究所&#x…

云服务器安装宝塔Linux面板命令脚本大全

阿里云服务器安装宝塔Linux面板,操作系统不同安装命令脚本也不同,支持CentOS、Alibaba Cloud Linux、Ubuntu/Deepin等Linux系统,阿里云服务器网分享阿里云服务器安装宝塔Linux面板命令脚本大全: 云服务器安装宝塔Linux面板命令 …

无公网IP,公网SSH远程访问家中的树莓派

文章目录 前言如何通过 SSH 连接到树莓派步骤1. 在 Raspberry Pi 上启用 SSH步骤2. 查找树莓派的 IP 地址步骤3. SSH 到你的树莓派步骤 4. 在任何地点访问家中的树莓派4.1 安装 Cpolar内网穿透4.2 cpolar进行token认证4.3 配置cpolar服务开机自启动4.4 查看映射到公网的隧道地址…

多时相遥感深度学习作物提取方法综述(万字长文)

一、 引言 本人研究的方向是遥感作物分布提取,想基于多时相、深度学习和GEE平台展开研究,现对相关文献进行资料调研。深度学习和遥感原本属于2个研究方向,现在已经有越来越多的研究开始将深度学习算法应用到遥感领域。 传统遥感研究人员重视遥感数据本身,善于分析作物生长…

Vector - CAPL - CANoe硬件配置函数 - 03

目录 canFlushTxQueue -- 刷新已定义的Tx队列 代码示例 canSetChannelAcc -- CANoe接收过滤器设置 代码示例 canSetChannelMode -- CAN控制器Tx使能/失能 代码示例 canSetChannelOutput -- Ack自应答使能/失能 代码示例 getCardTypeEx -- CAN控制器类型 canFlushTxQue…

Node.js 与 TypeScript

目录 1、什么是 TypeScript 2、运行TypeScript 3、TypeScript 在Node.js 生态中的情况 1、什么是 TypeScript TypeScript是一种流行的开源语言,由微软维护和开发。它受到了世界各地许多软件开发人员的喜爱和使用。 基本上,它是JavaScript的超集&…

信号完整性基础03:反射与阻抗匹配(1)

说在开头:关于“惰性气体” 英国剑桥大学当时的校长是:威廉.卡文迪许公爵,他的祖上有一位“科学怪人”:亨利.卡文迪许,他一辈子深居简出,淡泊名利,从不靠刷论文来体现自己的学术水平&#xff0…

VMware NSX Advanced Load Balancer (NSX ALB) 22.1.3 - 负载均衡平台

请访问原文链接:https://sysin.org/blog/vmware-nsx-alb-22/,查看最新版。原创作品,转载请保留出处。 作者主页:sysin.org 负载均衡平台 NSX Advanced Load Balancer NSX Advanced Load Balancer (Avi) 可简化应用交付&#xff…

关于儿童急性感染性腹泻

腹泻是一种常见的症状,可导致儿童生长发育迟滞和营养不良。根据世界卫生组织(WHO)发布的数据显示,急性腹泻在5岁以下儿童死亡原因中排第二位,仅次于肺炎。引起儿童腹泻的原因包括感染和非感染因素,后者主要…

C语言CRC-16 XMODEM格式校验函数

C语言CRC-16 XMODEM格式校验函数 CRC-16校验产生2个字节长度的数据校验码,通过计算得到的校验码和获得的校验码比较,用于验证获得的数据的正确性。基本的CRC-16校验算法实现,参考: C语言标准CRC-16校验函数。 不同应用规范通过对…

一文快速入门体验 Hibernate

前言 Hibernate 是一个优秀的持久层的框架,当然,虽然现在说用得比较多的是 MyBaits,但是我工作中也不得不接触 Hibernate,特别是一些老项目需要你维护的时候。所以,在此写下这篇文章,方便自己回顾&#xf…

vue+Nodejs+Koa搭建前后端系统(五)--Nodejs中使用数据库

连接数据库 1.开启mysql服务 以管理员身份运行cmd,输入: net start mysql2.登录 root用户、创建新用户、赋予新用户权限 如果你用root用户作为node的连接用户,这一步可以略过。 (1)登录root: mysql -…

多功能文档应用程序Codex Docs

什么是 Codex Docs ? CodeX Docs 是一个简单的免费应用程序,适用于您的内部、公共或个人文档。它基于Editor.js,允许使用漂亮干净的 UI 处理内容。 官方提供了演示站点:https://docs-demo.codex.so/about-this-demo 安装 在群晖…

CIAA 网络安全模型 — 数据传输安全

目录 文章目录 目录网络传输 CIAA 安全模型机密性(Confidentiality)对称加密非对称加密混合加密 完整性(Integrity)L2 数据链路层的 CRC 强校验L3 网络层的 Checksum 弱校验L4 传输层的 Checksum 弱校验安全层的 Checksum 强校验 …

解决:component COMDLG32.OCX or one of…和 MSCOMCTL.OCX or one of...的解决方法

遇到的问题: 在做CTF题目 使用16进制转图片工具 出现了两个报错! 解决方法: 第一步:下载COMDLG32.OCX 程序(可以去官网)也可也使用我的百度网盘 http://链接:https://pan.baidu.com/s/1-1KNg…

本地部署 闻达:一个LLM调用平台

本地部署 闻达:一个LLM调用平台 1. 什么是 闻达2. Github 地址3. 安装 Miniconda34. 创建虚拟环境5. 安装 闻达6. 下载各个 model7. 配置各个 model8. 使用 RWKV-4-Raven-14B-v11x 启动9. 使用 chatglm-6b-int4 启动10. 使用 stable-vicuna-13B 启动11. 使用 moss-m…

SpringFramework

🏡个人主页 : 守夜人st 🚀系列专栏:Spring …持续更新中敬请关注… 🙉博主简介:软件工程专业,在校学生,写博客是为了总结回顾一些所学知识点 目录 Springspring概述1 Spring定义2 Sp…

我的创作纪念日(2)设置飞机进行调优

文章目录 前言 2.1 电池设置 2.2 电机设置 2.3 PID控制器初始设置 前言 以下参数应根据你的飞机的规格正确设置。每一个都会影响调优过程的质量。 2.1 电池设置 确保你的 VTOL 电机的推力曲线尽可能的线性是非常重要的。一个线性的推力曲线意味着电机产生的实际推力的变化…

GuassDB数据库的GRANT REVOKE

目录 一、GaussDB的权限概述 二、GaussDB权限设计建议 三、GaussDB的GRANT命令 1.功能说明 2.注意事项 3.常用语法 四、GaussDB的REVOKE命令用法 1.功能说明 2.注意事项 3.常用语法 五、GaussDB示例 1.GRANT 语句示例 2.REVOKE 语句示例 一、GaussDB的权限概述 在…

电气设备绝缘在线监测系统的原理

摘要:在线监测是控制好电气设备绝缘的重要方式,为电力系统稳定奠定重要基础。在线监测电气设备时,要利用检测技术促进电力系统运行效率提升,让电气设备在具体工作过程中发挥更大作用。本次研究中主要分析了电气设备绝缘在线监测系…