LLM 推理优化探微 (1) :Transformer 解码器的推理过程详解

news2024/11/15 19:26:02

编者按:随着 LLM 赋能越来越多需要实时决策和响应的应用场景,以及用户体验不佳、成本过高、资源受限等问题的出现,大模型高效推理已成为一个重要的研究课题。为此,Baihai IDP 推出 Pierre Lienhart 的系列文章,从多个维度全面剖析 Transformer 大语言模型的推理过程,以期帮助读者对这个技术难点建立系统的理解,并在实践中做出正确的模型服务部署决策。

本文是该系列文章的第一篇,作者的核心观点是:透彻理解 Transformer 解码器的推理过程,是实现大语言模型高性能服务的基础。

作者通过解析文本生成的流程,明确了启动阶段和生成阶段的概念,并指出了键值缓存在其中起到的关键作用,为后续优化方法做好了理论铺垫。

作者 | Pierre Lienhart

编译 | 岳扬

🚢🚢🚢欢迎小伙伴们加入AI技术软件及技术交流群,追踪前沿热点,共探技术难题~

01 Introduction

在本系列博文中,我将带领各位读者深入探讨 LLM 推理的各方面知识以及实践中可能面临的挑战。本系列博文所说的 LLM 推理是指使用仅包含解码器的 Transformer 模型生成词元(tokens),因为大多数挑战及其相关的补救方法都来自于该特定架构和使用场景。 虽然重点在解码器模型,但我认为该系列博客中的一些较好的见解也可以用于理解和优化编码器模型的推理过程。

我假定各位读者已经对 Transformer 架构和著名的《Attention Is All You Need》论文[1]中介绍的缩放点积注意力(SDPA)机制有了基本的了解。不过,阅读本文无需深入理解注意力机制背后的原理。

希望在本系列博客结束时,各位读者能够理解与 LLM 推理相关的术语,如键-值 (KV) 缓存、内存带宽约束(memory-bandwidth bound)等,能够理解各种推理优化(模型量化(quantization)、内核融合(fused kernels)、模型架构修改(model architecture modifications)等)和配置(batch size、使用哪种 GPU 等)技术,最后能够将它们与延迟、吞吐量和成本等关键性能指标联系起来。

期望各位读者通过理解文章中的内容,形成一种具备洞察力的思维模式,以便在处理 LLM 服务的配置和优化时,能够做出基于充分信息的、迅速而明智的决策。和其他系列文章一样,我希望本系列文章为初次部署 LLM 到服务端的读者,提供他们希望获得的有关信息和指导。

现在,让我来介绍一下本系列的大纲。

首先,需要理解使用 Transformer 解码器(Transformer decoder)生成 tokens 需要以下两个步骤。这两个步骤分别是处理提示语步骤和多个自回归步骤。两个步骤在硬件利用上有着截然不同的特征,我们将在整个系列中详细探讨这种区别。

然后,我们将介绍对自回归步骤进行的第一个非常常见的优化,即 KV 缓存(KV caching)。重点介绍 KV 缓存是不可避免的,因为它作为一种关键的输入影响着整个自回归阶段。正如我们将看到的那样,KV 缓存并非免费的午餐,它也会引发一系列问题。 在接下来的文章中,我们将更深入地探讨这些挑战及其缓解方法,并专门针对这一主题进行深入讨论。

当对 KV 缓存了如指掌之后,我们可以更深入地了解运行 Transformers 进行推理时,Transformer 模型如何(未)充分利用硬件资源。在这一阶段,我们必须引入算术强度(arithmetic intensity)这一关键概念,这是一个名为 “屋顶线模型”(roofline model)的 mental model (译者注:“mental model” 意指人们在思考和理解复杂概念时构建的一种抽象思维模型。“屋顶线模型” 是一种特定的mental model,用于评估计算密集型任务的性能极限。这种模型通常以图形的形式呈现,帮助人们直观地理解任务在硬件性能方面的限制,并在优化过程中提供指导。),并将其与峰值 FLOPS、内存带宽等关键硬件特征以及延迟、吞吐量和成本等关键性能指标联系起来。然后,我们将这些知识应用于 Transformers 的推理,汇总关键见解,以了解如何更好地利用硬件并改善性能指标。通过对这一阶段基础知识的理解,我们将更好地把握性能优化过程中各种策略的真实动机,为实际应用提供更有深度的指导。

模型量化(Quantization)一直是去年最热门的优化策略之一,能够为性能带来重大提升。虽然模型量化本身就值得写一系列文章,但我将仅用一篇文章介绍,以期为读者打牢坚实的基础,明确模型量化算法在哪些方面能够有帮助,哪些方面没有帮助。

最后,我们需要介绍目前的这些 LLM 服务框架是如何工作的。遗憾的是,要想在 LLM 推理过程获得最佳性能,仅优化模型本身是不够的。 事实上,模型服务器通过有效地管理传入的请求和硬件资源,在确保较好的 end-to-end 性能方面确实发挥着关键作用。我希望最后这篇文章能为读者提供有用的见解,帮助读者更好地部署LLM。

以下是本系列博客内容计划:

  • Introduction
  • The two-step process behind LLMs’ responses
  • KV caching unveiled
  • KV caching: A deeper look
  • Arithmetic intensity: Are you compute or memory-bandwidth bound?
  • Arithmetic intensity (and memory) is all you need
  • Shrink all the things! A guided tour of LLM quantization
  • Why you can’t just serve LLMs using a good old model server?

闲话少说,让我们直接开始吧!

02 LLM 做出回答前历经的两个步骤

此小节将为各位读者提供一个热身的机会,我们先来回顾 Transformer 架构和使用基于 Transformer 的解码器生成文本的基础知识。对于本系列博客的理解和学习,建立一致的专业用词体系是非常重要的。我将使用粗体标出我个人喜欢的专业术语。然后我们来一起了解文本生成的两个阶段:启动阶段和生成(或解码)阶段。

首先,我们来复习一下 Transformer。为简单起见,我们假设每次只处理单个序列(sequence)(即 batch size 为 1)。在下图中,我描绘了基于原始 Transformer 架构的解码器(图 1)的主要层次结构,该解码器(decoder)用于从输入的 tokens 序列中生成输出tokens。

图 1 -  Transformer 解码器的模型轮廓图

请注意,解码器本身并不输出 tokens,而是输出 logits(数量与词汇表的大小相同)(译者注:logits 是一个数值向量,其维度等于词汇表的大小,表示每个 token 的可能性分数。)。顺便说一下,输出 logits 的最后一层通常被称为 language model head 或 LM head 。在生成文本时,通过 logits 提取 tokens 的过程是通过一种被称为搜索策略(search strategy)、生成策略(generation strategy)或解码策略(decoding strategy)的启发式方法完成的。常见的解码策略包括:

  • 贪婪解码(Greedy decoding) ,简单来说,就是选取具有最大 logit 的token,在选择最终的 token 之前,也可以对 logits 进行一些变换(如重复惩罚(repetition penalty))。
  • 抽样解码(Sampling decoding) ,模型的 logits 被看作是一个多项分布,采用该分布进行抽样。换句话说,就是通过抽样从词汇表(vocabulary)中选择一个token。我们从中进行抽样的分布可以首先通过简单的一些转换操作(如temperature scaling、top-k和top-p)来调整,这是最为人熟知的。
  • 还有更复杂的启发式方法,比如束搜索(beam search)、对比解码(contrastive decoding) [2]等。

为了简单起见,我们将假定解码策略是模型的一部分(图2)。这种 mental model 实际上在部署、运行和提供大语言模型服务的整体解决方案中非常有用,这种将 tokens 序列作为输入并返回相应输出 token 的实体通常被称为执行引擎(execution engine)或推理引擎(inference engine)。

图 2 - 一个简化的 Transformer 解码器模型示意图

那么如何生成多个 tokens 呢?使用基于 Transformer 的解码器从输入文本序列(通常称为提示语(prompt))生成文本(通常也被称为对输入文本的扩展或补充)基本上包括以下步骤:

  1. 将模型权重加载到 GPU

  2. 在 CPU 上对提示语(prompt)进行分词(tokenizing),并将 token 张量传输到 GPU (图3)

图 3 - 分词步骤示意图

  1. 将分词完成后的提示语输入神经网络,生成扩展的第一个token

这一阶段通常被称为启动阶段(initiation phase)。 在下一篇文章中,我们将看到它也经常被称为预填充阶段(pre-fill phase)。

  1. 将生成的 token 附加到输入的 token 序列中,并将其用作生成扩展文本中第二个 token 的新输入。然后,重复此过程,直到生成了停止序列(stop sequence)(例如,单个 end-of-sequence(EOS) token)或达到所配置的最大序列长度(图4))。

这个由多个步骤组成的阶段通常被称为生成阶段(generation phase)、解码阶段(decoding phase)、自回归阶段(auto-regressive phase),甚至是增量阶段(incremental phase)。

步骤3和步骤4都在下面的图中(图4)有所说明。

图4 - tokens 生成过程的启动和解码阶段

5. 将完成的 tokens 从 GPU 获取到 CPU ,并对它们进行 detokenize(译者注:”detokenize“指的是将模型生成的 tokens 序列转换回原始文本或句子的过程。可能包括去除 tokens 之间的空格、添加标点符号、还原缩写等操作,以还原生成文本的自然语言形式。),以获取生成的文本(图5)。

图 5 - detokenize步骤

注意:最近出现的旨在降低推理延迟的更先进技术,如投机抽样(speculative sampling[3] )或前向解码(lookahead decoding[4]),并不完全遵循上述简单算法。

说到这里,你应该会感到失望、困惑或两者兼而有之。您可能会问我:那么启动阶段和解码阶段有什么区别?现在看来,这充其量只是人为刻意区分的。启动阶段的感觉确实像是 while 循环的初始化步骤,而且我们在这两个阶段所做的事情本质上是一样的:在每次迭代时,我们都对 tokens 序列进行前向传递,每次传递序列都会增加一个 token。

你说得没错。在这一点上,无论在硬件上如何进行计算,两个阶段之间确实没有区别,因此两个阶段在这方面都没有什么特别之处。不过,正如我们将在下一篇文章中看到的那样,这种设置涉及大量冗余计算,因此在许多情况下效率低下。缓解这种情况的一种重要方式是缓存我们不想重新计算的内容。这种优化被称为 KV 缓存,并引入了我一直在暗示的这两个阶段之间的关键差异。下一篇文章见!

Thanks for reading!

🚢🚢🚢欢迎小伙伴们加入AI技术软件及技术交流群,追踪前沿热点,共探技术难题~

END

参考资料

[1]: Attention Is All You Need (Vaswani et al., 2017) : https://arxiv.org/abs/1706.03762

[2]: A Contrastive Framework for Neural Text Generation (Su et al., 2022) : https://arxiv.org/abs/2202.06417

[3]: Fast Inference from Transformers via Speculative Decoding (Leviathan et al., 2022) : https://arxiv.org/abs/2211.17192

[4]: Breaking the Sequential Dependency of LLM Inference Using Lookahead Decoding (Fu et al. 2023) : https://lmsys.org/blog/2023-11-21-lookahead-decoding/

本文经原作者授权,由Baihai IDP编译。如需转载译文,请联系获取授权。

原文链接:

https://medium.com/@plienhar/llm-inference-series-1-introduction-9c78e56ef49d

https://medium.com/@plienhar/llm-inference-series-2-the-two-phase-process-behind-llms-responses-1ff1ff021cd5

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1424021.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

2024年小年是哪一天?小年习俗记到手机便签

随着春节的临近,我们即将迎来一个重要的传统节日——“小年”。那么2024年小年是哪一天呢?关于2024年小年的具体日期,地域不同,节日时间有所不同。在北方,小年通常是在腊月二十三,即2月2日;而在…

locust--python实现的分布式性能测试工具

1.locust特点: 1.1 支持Python编写测试用例方案; 1.2 使用requests发送http请求; 1.3 使用协程实现,高并发时消耗更低; 1.4 使用Flask提供 Web UI; 1.5 有第三方插件支持扩展; 2.创建locust 性能…

【MySQL】学习并使用聚合函数和DQL进行分组查询

🌈个人主页: Aileen_0v0 🔥热门专栏: 华为鸿蒙系统学习|计算机网络|数据结构与算法 ​💫个人格言:“没有罗马,那就自己创造罗马~” #mermaid-svg-t8K8tl6eNwqdFmcD {font-family:"trebuchet ms",verdana,arial,sans-serif;font-siz…

canvas自定义扩展方法:文字自动换行

查看专栏目录 canvas实例应用100专栏,提供canvas的基础知识,高级动画,相关应用扩展等信息。canvas作为html的一部分,是图像图标地图可视化的一个重要的基础,学好了canvas,在其他的一些应用上将会起到非常重…

15. 三数之和(力扣LeetCode)

文章目录 15. 三数之和题目描述双指针去重逻辑的思考a的去重b与c的去重 15. 三数之和 题目描述 给你一个整数数组 nums ,判断是否存在三元组 [nums[i], nums[j], nums[k]] 满足 i ! j、i ! k 且 j ! k ,同时还满足 nums[i] nums[j] nums[k] 0 。请 …

hbuilderx uniapp运行到真机控制台显示手机端调试基座版本号1.0.0,调用uni.share提示打包时未添加share模块

记录一个困扰了几天的一个蠢问题,发现真相的我又气又笑。 由于刚开始接触uniapp 移动端开发,有个需求需要使用uni.share API,但是我运行项目老提示打包时没配置share模块 我确实没在manifest内配置。网上搜了一些资料,但是我看官…

MySQL判断两个时间段是否重合

前提 新增的数据不能和数据库的时间有重合部分。 如图,4种重合情况和2种不重合情况。 时间段 a,b 数据库字段 start_time,end_time 第一种写法 列举每一种重合的情况: SELECT * FROM table WHERE(start_time > a and en…

大数据开发之离线数仓项目(用户行为采集平台)(可面试使用)

第 1 章:数据仓库概念 数据仓库,是为企业指定决策,提供数据支持的,可以帮助企业,改进业务流程、提高产品质量等。 数据仓库的输入数据通常包括:业务数据、用户行为数据和爬虫数据等。 业务数据&#xff1a…

写静态页面——粘性定位练习

0、效果&#xff1a; 1、HTML代码&#xff1a;为了简洁采用内部样式 <!DOCTYPE html> <html lang"en"> <head><meta charset"UTF-8"><meta name"viewport" content"widthdevice-width, initial-scale1.0"…

企业网络基础架构监控工具

IT 基础架构已成为提供基本业务服务的基石&#xff0c;无论是内部管理操作还是为客户托管的应用程序服务&#xff0c;监控 IT 基础设施至关重要&#xff0c;并且已经建立起来&#xff0c;SMB IT 基础架构需要简单的网络监控工具来监控性能和报告问题。通常&#xff0c;几个 IT …

【HTML】自定义属性(data)

自定义属性 data: 的用法&#xff08;如何设置,如何获取) &#xff0c;有何优势&#xff1f; data-* 的值的获取和设置&#xff0c;2种方法: 传统方法 getAttribute() 获取 data- 属性值; setAttribute() 设置 data- 属性值getAttribute() 获取 data- 属性值; setAttribute()…

强大的虚拟机Parallels Desktop 19 mac中文激活

Parallels Desktop是一款功能全面、易于使用的虚拟机软件&#xff0c;它为用户提供了在Mac电脑上同时运行多个操作系统的便利。 软件下载&#xff1a;Parallels Desktop 19 mac中文激活版下载 Parallels Desktop 19 mac具有快速启动和关闭虚拟机的能力&#xff0c;让用户能够迅…

怎么使用cmd命令来进行Vue脚手架的项目搭建

前言 使用vue搭建项目的时候&#xff0c;我们可以通过对应的cmd命令去打开脚手架&#xff0c;然后自己配置对应的功能插件 怎么打开 我们打开对应的cmd命令之后就开始进入对应的网站搭建 vue ui 然后我们就打开对应的项目管理器来进行配置----这里我们打开开始创建新的项目…

问题:第十三届全国人民代表大会第四次会议召开的时间是()。 #经验分享#知识分享#媒体

问题&#xff1a;第十三届全国人民代表大会第四次会议召开的时间是&#xff08;&#xff09;。 A. 2018年3月3日至3月11日 B. 2019年3月5日至3月11日 C. 2020年3月5日至3月11日 D. 2021年3月5日至3月11日 参考答案如图所示 问题&#xff1a;顾客满意是顾客对一件产品满足…

MacOS X 中 OpenGL 环境搭建 Makefile的方式

1&#xff0c;预备环境 安装 brew&#xff1a; /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" 安装glfw&#xff1a; brew install glfw 安装glew&#xff1a; brew install glew 2.编译 下载源代码…

《区块链简易速速上手小册》第7章:区块链在其他行业的应用(2024 最新版)

文章目录 7.1 供应链管理7.1.1 供应链管理中区块链的基础7.1.2 主要案例&#xff1a;食品安全追踪7.1.3 拓展案例 1&#xff1a;制药供应链7.1.4 拓展案例 2&#xff1a;汽车行业的零部件追踪 7.2 区块链在医疗保健中的应用7.2.1 医疗保健中区块链的基础7.2.2 主要案例&#xf…

Kafka下载安装及基本使用

目录 Kafka介绍 消息队列的作用 消息队列的优势 应用解耦 异步提速 削峰填谷 为什么要用Kafka Kafka下载安装 Kafka快速上手&#xff08;单机体验&#xff09; 1. 启动zookeeper服务 2. 启动kafka服务 3. 简单收发消息 Kakfa的消息传递机制 Kafka介绍 Apache Kafka…

结构体与共用体——C语言——day15

在C语言中&#xff0c;C语言允许用户自己指定这样一种数据结构&#xff0c;它称为结构体(structure) 。它相当于其他高级语言中的“记录”。 假设程序中要用到图所表示的数据结构&#xff0c;但是C语言没有提供这种现成的数据类型&#xff0c;因此用户必须要在程序中建立所需的…

vue3学习——初始化项目及配置

初始化项目 环境 node 16pnpm 8.0.0 命令 pnpm create vite进行以下选择 &#x1f447; – 项目名 – VUe – Ts – cd/目录 – pnpm run dev 浏览器自动打开 package.json 配置eslint 安装依赖包 pnpm i eslint -D npx eslint --init // 生成配置文件进行以下选择 &a…

golang开源的可嵌入应用程序高性能的MQTT服务

golang开源的可嵌入应用程序高性能的MQTT服务 什么是MQTT&#xff1f; MQTT&#xff08;Message Queuing Telemetry Transport&#xff09;是一种轻量级的、开放的消息传输协议&#xff0c;设计用于在低带宽、高延迟或不可靠的网络环境中进行通信。MQTT最初由IBM开发&#xf…