大语言模型(LLM)综述(三):大语言模型预训练的进展

news2024/9/30 21:28:09

A Survey of Large Language Models

  • 前言
  • 4. PRE-TRAINING
    • 4.1数据收集
      • 4.1.1 数据源
      • 4.1.2 数据预处理
      • 4.1.3 预训练数据对LLM的影响
    • 4.2 模型架构
      • 4.2.1 典型架构
      • 4.2.2 详细配置

前言

随着人工智能和机器学习领域的迅速发展,语言模型已经从简单的词袋模型(Bag-of-Words)和N-gram模型演变为更为复杂和强大的神经网络模型。在这一进程中,大型语言模型(LLM)尤为引人注目,它们不仅在自然语言处理(NLP)任务中表现出色,而且在各种跨领域应用中也展示了惊人的潜力。从生成文本和对话系统到更为复杂的任务,如文本摘要、机器翻译和情感分析,LLM正在逐渐改变我们与数字世界的互动方式。

然而,随着模型规模的增加,也出现了一系列挑战和问题,包括但不限于计算复杂性、数据偏见以及模型可解释性。因此,对这些模型进行全面而深入的了解变得至关重要。

本博客旨在提供一个全面的大型语言模型综述,探讨其工作原理、应用范围、优点与局限,以及未来的发展趋势。无论您是该领域的研究者、开发者,还是对人工智能有广泛兴趣的读者,这篇综述都将为您提供宝贵的洞见。

本系列文章内容大部分来自论文《A Survey of Large Language Models》,旨在使读者对大模型系列有一个比较程序化的认识。

论文地址:https://arxiv.org/abs/2303.18223

4. PRE-TRAINING

预训练建立了LLM(大型语言模型)的能力基础。通过在大规模语料库上进行预训练,LLM可以获得关键的语言理解和生成技能[55, 56]。在这个过程中,预训练语料库的规模和质量对于LLM获得强大的能力至关重要。此外,为了有效地预训练LLM,模型架构、加速方法和优化技术需要设计得很好。接下来,我们首先在第4.1节讨论数据收集和处理,然后在第4.2节介绍常用的模型架构,最后在第4.3节介绍稳定和高效优化LLM的训练技术。

4.1数据收集

与小规模语言模型相比,LLM对于模型预训练需要更高质量的数据,并且它们的模型能力在很大程度上依赖于预训练语料库以及它们的预处理方式。在这一部分中,我们将讨论预训练数据的收集和处理,包括数据来源、预处理方法,以及对预训练数据如何影响LLM性能的重要分析。

4.1.1 数据源

要开发出一款具备能力的LLM,关键在于从各种数据来源收集大量的自然语言语料库。现有的LLM主要利用多样性的公共文本数据集混合作为预训练语料库。图5显示了一些代表性LLM的预训练数据来源分布情况。

image-20231024163347394

图5:现有LLM预训练数据中各种数据源的比例。

预训练语料库的来源可以大致分为两种类型:一般数据和专业数据。一般数据,如网页、书籍和对话文本,由大多数LLM(大型语言模型)利用[55, 56, 81],因为它具有大规模、多样性和易获取的特点,可以增强LLM的语言建模和泛化能力。鉴于LLM表现出的出色泛化能力,还有研究将它们的预训练语料库扩展到更专业的数据集,如多语言数据、科学数据和代码,赋予LLM具体的任务解决能力[35, 56, 77]。接下来,我们将描述这两种类型的预训练数据来源以及它们对LLM的影响。有关常用语料库的详细介绍,可以参考第3.2节。

General Text Data(一般本文数据)

如图5所示,绝大多数LLMs采用通用预训练数据,例如网页、书籍和对话文本,这些数据提供了各种主题的丰富文本资源。接下来,我们简要总结了三种重要的通用数据类型。

• 网页。由于互联网的普及,产生了各种类型的数据,这使得LLMs能够获取多样化的语言知识并增强其泛化能力[26, 73]。为了方便利用这些数据资源,以前的工作从网络上爬取了大量数据,例如CommonCrawl [148]。然而,爬取的网络数据往往包含高质量文本,如维基百科,以及低质量文本,比如垃圾邮件,因此过滤和处理网页以提高数据质量非常重要。

• 对话文本。对话数据可以增强LLMs的对话能力[81],并有可能提高它们在各种问答任务上的性能[56]。研究人员可以利用公共对话语料库的子集(例如PushShift.io Reddit语料库)[143, 162],或者从在线社交媒体收集对话数据。由于在线对话数据通常涉及多个参与者之间的讨论,一种有效的处理方式是将对话转化为树状结构,其中话语与其回应的话语相连。通过这种方式,多方对话树可以分成多个子对话,可以被收集到预训练语料库中。此外,一个潜在的风险是,过度整合对话数据到LLMs中可能会导致副作用[81]:陈述性指令和直接疑问句被错误地视为对话的开始,从而导致指令的效力下降。

• 书籍。与其他语料库相比,书籍提供了一种重要的正式长文本的来源,这对LLMs学习语言知识、建模长期依赖性以及生成连贯叙述文本可能有益。为了获取开源书籍数据,现有研究通常采用Books3和Bookcorpus2数据集,这些数据集可以在Pile数据集中找到[146]。

专业化文本数据

专业化数据集对于提升LLMs在下游任务上的特定能力非常有用。接下来,我们介绍三种专业化数据类型。

• 多语言文本。除了目标语言的文本之外,整合多语言语料库可以增强语言理解和生成的多语言能力。例如,BLOOM [69] 和 PaLM [56] 在其预训练语料库中精选了涵盖46种和122种语言的多语言数据。这些模型在多语言任务,如翻译、多语言摘要和多语言问答等方面表现出色,并且在目标语言(们)的语料库上微调的最新模型相媲美甚至优于性能。

• 科学文本。人类对科学的探索可以从科学出版物的不断增长中得以见证。为了增强LLMs对科学知识的理解[35, 163],将科学语料库纳入模型的预训练中非常有用[35, 163]。通过在大量科学文本上进行预训练,LLMs可以在科学和推理任务方面表现出色[164]。构建科学语料库时,现有的努力主要收集arXiv论文、科学教材、数学网页和其他相关科学资源。由于科学领域数据的复杂性,例如数学符号和蛋白质序列,通常需要特定的标记化和预处理技术,将这些不同格式的数据转化为可以被语言模型处理的统一形式。

• 代码。程序合成在研究社区中得到广泛研究[92, 165–168],尤其是使用在代码上训练的PLMs[150, 169]。然而,对于这些PLMs(例如GPT-J [150]),生成高质量和准确的程序仍然具有挑战性。最近的研究[92, 168]发现,将LLMs在大规模代码语料库上进行训练可以显著提高生成的程序的质量。生成的程序可以成功通过专家设计的单元测试案例[92]或解决竞技性编程问题[101]。通常,用于预训练LLMs的代码语料库有两种常见来源。第一个来源是来自编程问答社区,如Stack Exchange [170]。第二个来源是来自公共软件存储库,如GitHub [77, 92, 168],在这里收集了代码数据(包括注释和文档字符串)以供使用。与自然语言文本相比,代码采用编程语言的格式,对应于长期依赖性和准确的执行逻辑[171]。最近的研究[47]还推测,对代码的培训可能是复杂推理能力的来源(例如,思维链能力[33])。此外,已经显示,将推理任务格式化为代码可以帮助LLMs生成更准确的结果[171]。

4.1.2 数据预处理

在收集了大量文本数据之后,对数据进行预处理以构建预训练语料库非常重要,特别是要移除嘈杂、冗余、无关和潜在有害的数据[56, 59, 172],这些因素可能会极大地影响LLMs的容量和性能。为了简化数据处理,最近的一项研究[173]提出了一个名为Data-Juicer的LLMs数据处理系统,提供了50多个处理操作符和工具。在这部分中,我们将回顾改善收集数据质量的详细数据预处理策略[59, 69, 99]。预处理LLMs的预训练数据的典型流程已在图6中说明。

image-20231024193415070

图6:典型的用于预训练大型语言模型的数据预处理流程示意图。

质量过滤

为了从收集的语料库中去除低质量数据,现有工作通常采用两种方法:(1)基于分类器,和(2)基于启发式方法。前一种方法基于高质量文本训练一个选择分类器,并利用它来识别和过滤低质量数据。通常,这些方法[55, 56, 99]使用精心策划的数据(例如维基百科页面)作为正例,将候选数据作为负例来训练二元分类器,并预测衡量每个数据示例质量的分数。然而,一些研究[59, 99]发现,基于分类器的方法可能会意外删除方言、口语和社会语言中的高质量文本,这可能导致预训练语料库中的偏见并减少语料库的多样性。作为第二种方法,一些研究,如BLOOM [69] 和Gopher [59],采用基于启发式的方法通过一组精心设计的规则来消除低质量文本,这些规则可以总结如下:

• 基于语言的过滤。如果LLM主要用于某些语言的任务,可以过滤掉其他语言的文本。

• 基于度量的过滤。可以使用生成文本的评估度量,例如困惑度(perplexity),来检测并去除不自然的句子。

• 基于统计的过滤。可以利用语料库的统计特征,例如标点分布、符号与词的比率和句子长度,来衡量文本质量并过滤低质量数据。

• 基于关键词的过滤。基于特定关键词集,可以识别和删除文本中的噪音或无用元素,例如HTML标签、超链接、模板文本和冒犯性词汇。

去重

现有研究[174]发现,语料库中的重复数据会降低语言模型的多样性,可能导致训练过程不稳定,从而影响模型性能。因此,有必要对预训练语料库进行去重。具体来说,可以在不同的粒度上执行去重,包括句子级、文档级和数据集级的去重。首先,应删除包含重复单词和短语的低质量句子,因为它们可能引入语言建模中的重复模式[175]。在文档级别上,现有研究主要依赖于文档之间表面特征(例如,词汇和n-gram的重叠)的重叠比率来检测和删除包含相似内容的重复文档[57, 59, 69, 176]。此外,为了避免数据集污染问题,还需要防止训练集和评估集之间的重叠[56],通过从训练集中删除可能的重复文本。已经显示,这三个级别的去重对于改进LLMs的训练是有用的[56, 177],在实践中应该共同使用。

隐私保护

大多数预训练文本数据来自网络来源,包括涉及敏感或个人信息的用户生成内容,这可能增加隐私泄露的风险[178]。因此,有必要从预训练语料库中删除个人可识别信息(PII)。一种直接有效的方法是采用基于规则的方法,如关键词识别,来检测和删除姓名、地址和电话号码等PII[147]。此外,研究人员还发现,LLMs在隐私攻击下的脆弱性可以归因于预训练语料库中存在重复的PII数据[179]。因此,去重也可以在一定程度上降低隐私风险。

分词

分词也是数据预处理的关键步骤。它的目标是将原始文本分割成一系列独立的标记,随后这些标记被用作LLMs的输入。在传统的自然语言处理研究中(例如,使用条件随机场进行序列标注[180]),基于单词的分词是主要的方法,这种方法更符合人类的语言认知。然而,在一些语言中,基于单词的分词可能会对相同的输入产生不同的分割结果(例如,中文分词),生成包含许多低频词汇的大词汇表,并且还会遇到“词汇外”问题。因此,一些神经网络模型使用字符作为最小单位来生成单词表示(例如,ELMo中的CNN单词编码器)。最近,在基于Transformer的语言模型中,子词标记器广泛使用,通常包括字节对编码分词、WordPiece分词和Unigram分词。HuggingFace维护了一个出色的在线自然语言处理课程,其中包含运行示例,我们建议初学者参考这个课程。接下来,我们简要描述三种代表性的分词方法。

• 字节对编码(Byte-Pair Encoding,BPE)分词。BPE最初于1994年提出作为一种通用的数据压缩算法[181],后来被改编用于自然语言处理的分词[182]。它从一组基本符号(例如,字母和边界字符)开始,然后迭代地将语料库中两个连续标记的频繁出现的对合并为新的标记(称为合并)。对于每个合并,选择标准基于两个相邻标记的共现频率:选择最频繁的对合并。合并过程持续进行,直到达到预定义的大小。此外,字节级别的BPE已经被用于通过将字节视为合并的基本符号来提高多语言语料库(例如,包含非ASCII字符的文本)的分词质量。采用这种分词方法的代表性语言模型包括GPT-2、BART和LLaMA。

• WordPiece分词。WordPiece是Google内部的子词分词算法。它最初是由Google在开发语音搜索系统时提出的[183]。随后,它在2016年用于神经机器翻译系统[184],并在2018年被采用为BERT的单词分词器[23]。WordPiece与BPE具有非常相似的思想,都通过迭代合并连续标记来实现分词,但在合并的选择标准上略有不同。为了进行合并,**它首先训练一个语言模型,并使用它来对所有可能的对进行评分。然后,在每次合并时,它选择导致训练数据似然性最大增加的对。**由于Google没有发布WordPiece算法的官方实现,HuggingFace在其在线NLP课程中提供了一个更直观的选择度量:通过将共现计数除以两个标记在训练语料库中的出现计数的乘积来评分一对标记。

• Unigram分词。与BPE和WordPiece不同,**Unigram分词[185]首先从一个足够大的可能的子串或子标记集合开始,然后迭代地从当前词汇表中移除标记,直到达到预期的词汇表大小为止。**作为选择标准,它通过假设从当前词汇表中删除某个标记来计算训练语料库似然性的增加。这一步骤是基于训练过的单一语言模型进行的。为了估计单一语言模型,它采用了期望最大化(EM)算法:在每次迭代中,首先基于旧语言模型找到单词的当前最佳分词方式,然后重新估计单词的单一概率以更新语言模型。在这个过程中,采用了动态规划算法(即维特比算法)来高效地找到基于语言模型的单词的最佳分解方式。采用这种分词方法的代表性模型包括T5和mBART。

尽管利用现有的分词器(例如,OPT [81] 和GPT-3 [55] 利用了GPT2的分词器[26]),但使用专门为预训练语料库设计的分词器可能会非常有益[69],特别是对于包含多种领域、语言和格式的语料库。因此,最近的LLMs经常使用SentencePiece库[186]专门为预训练语料库训练自定义分词器,该库包括字节级BPE和Unigram分词。需要注意的是,BPE中的标准化技术,例如NFKC [187],可能会降低分词性能[34, 59, 69]。当扩展现有的LLMs(即,持续预训练或指导微调)时,我们还应该注意使用自定义分词器可能带来的潜在副作用。例如,LLaMA基于主要包含英文文本的预训练语料库训练了BPE分词器,而由此得到的词汇表可能在处理非英文数据时能力较弱,例如生成中文文本时可能需要更长的推理延迟。

4.1.3 预训练数据对LLM的影响

与小规模PLMs不同,由于对计算资源的巨大需求,通常不可行对LLMs进行多次预训练迭代。因此,在训练LLMs之前,构建一个准备充分的预训练语料库尤为重要。在这部分中,我们将讨论预训练语料库的质量和分布如何潜在地影响LLMs的性能。

多样化的数据源

如前所讨论,来自不同领域或情景的预训练数据具有不同的语言特性或语义知识。通过在多种来源的文本数据上进行预训练,LLMs可以获得广泛的知识范围,可能表现出强大的泛化能力。因此,在混合不同来源时,建议包括尽可能多的高质量数据源,并仔细设置预训练数据的分布,因为这也可能影响LLMs在下游任务上的性能[59]。Gopher [59]进行了有关数据分布的消融实验,以研究混合来源对下游任务的影响。在LAMBADA数据集[188]上的实验结果表明,增加书籍数据的比例可以提高模型在捕捉文本中的长期依赖关系方面的能力,增加C4数据集[73]的比例会导致在C4验证数据集上性能的提高[59]。然而,作为一个副作用,过多关于某个领域的数据训练可能会影响LLMs在其他领域的泛化能力[35, 59]。因此,建议研究人员应仔细确定预训练语料库中来自不同领域的数据比例,以开发更符合其特定需求的LLMs。读者可以参考图5,了解不同LLMs的数据来源的比较。

预训练数据的数量

要预训练一个有效的LLM,重要的是收集足够数量的高质量数据,以满足LLM对数据数量的需求。现有研究发现,随着LLM中参数规模的增加,也需要更多的数据来训练模型[34, 57]:与模型规模相似的缩放规律也在数据大小方面与模型性能有关。最近的研究表明,许多现有的LLM由于预训练数据不足而受到训练效果不佳的影响[34]。通过进行大量实验,它进一步证明,在相同的计算预算下,将模型规模和数据大小等比例增加可以导致更高效的计算模型(即Chinchilla模型)。更近期,LLaMA [57]表明,通过更多的数据和更长的训练,较小的模型也可以实现良好的性能。总之,建议研究人员在足够训练模型时应更加关注高质量数据的数量,特别是在扩展模型参数时。

预训练数据的质量

现有研究已经表明,对低质量语料库进行预训练,例如嘈杂、有毒和重复的数据,可能会损害模型的性能[59, 174, 176, 179]。为了开发性能良好的LLM,关键是要考虑所收集的训练数据的数量和质量。最近的研究,如T5 [73]、GLaM [99] 和Gopher [59],已经调查了数据质量对下游任务性能的影响。通过比较在经过筛选和未经筛选的语料库上训练的模型性能,它们得出了相同的结论,即在清理的数据上进行LLM的预训练可以提高性能。更具体地说,数据的重复可能导致“双下降”(指性能首先恶化,然后逐渐改善的现象)[174, 189],甚至可能压倒训练过程[174]。此外,已经显示,重复的数据会降低LLM从上下文中复制的能力,这可能会进一步影响使用上下文学习的LLM的泛化能力[174]。因此,如[56, 59, 69]中建议的那样,有必要仔细考虑对预训练语料库进行预处理方法(如在第4.1.2节中所示),以提高训练过程的稳定性并避免影响模型性能。

4.2 模型架构

在本节中,我们将回顾LLMs的架构设计,即主流架构、预训练目标和详细配置。表3展示了几个具有公开详细信息的代表性LLMs的模型卡。

image-20231024200101176

表3:几个选定的具有公开配置详细信息的LLMs的模型卡。在这里,PE表示位置嵌入,#L表示层数,#H表示注意力头的数量,dmodel表示隐藏状态的大小,MCL表示训练期间的最大上下文长度。

4.2.1 典型架构

由于Transformer架构的出色可并行性和容量,它已成为开发各种LLMs的事实标配,使得将语言模型扩展到数千亿或数万亿参数成为可能。总的来说,现有LLMs的主流架构可以大致分为三种主要类型,即编码器-解码器、因果解码器和前缀解码器,如图7所示。

image-20231024223813967

图 7:三种主流架构中注意力模式的比较。这里,蓝色、绿色、黄色和灰色圆角矩形分别表示前缀标记之间的注意力、前缀和目标标记之间的注意力、目标标记之间的注意力和屏蔽注意力。

编码器-解码器架构

传统的Transformer模型是建立在编码器-解码器架构[22]上的,它由两个Transformer块堆叠而成,分别作为编码器和解码器。编码器采用堆叠的多头自注意力层来编码输入序列以生成其潜在表示,而解码器对这些表示进行交叉注意力操作,并自回归地生成目标序列。编码器-解码器PLMs(例如T5 [73]和BART [24])在各种NLP任务上显示出有效性。到目前为止,只有少数LLMs是基于编码器-解码器架构构建的,例如Flan-T5 [64]。我们将在第4.2.5节中详细讨论架构选择。

因果解码器架构

因果解码器架构包含单向注意力掩码,以确保每个输入标记只能与过去的标记和自身进行关注。输入和输出标记通过解码器以相同的方式进行处理。作为这种架构的代表性语言模型,GPT系列模型[26, 55, 109]是基于因果解码器架构开发的。特别是,GPT-3 [55]成功展示了这种架构的有效性,还展示了LLMs的惊人上下文学习能力。有趣的是,GPT-1 [109] 和GPT2 [26] 并没有展示出像GPT-3中那样的卓越能力,似乎规模在增加这种模型架构的模型容量方面起着重要作用。到目前为止,因果解码器已经被各种现有的LLMs广泛采用作为架构,例如OPT [81]、BLOOM [69] 和Gopher [59]。需要注意的是,接下来讨论的因果解码器和前缀解码器都属于仅解码器架构。当提到“仅解码器架构”时,通常指的是现有文献中的因果解码器架构,除非另有说明。

前缀解码器架构(也称为非因果解码器[190])

修改了因果解码器的掩码机制,使其能够在前缀标记上执行双向注意力[191],并且只在生成的标记上进行单向注意力。通过这种方式,就像编码器-解码器架构一样,前缀解码器可以双向编码前缀序列,并自回归地逐个预测输出标记,编码和解码期间共享相同的参数。与从头开始进行预训练不同,一个实际的建议是持续训练因果解码器,然后将它们转换为前缀解码器以加速收敛[29],例如U-PaLM [105] 是从PaLM [56] 派生出来的。基于前缀解码器的现有代表性LLMs包括GLM130B [84] 和U-PaLM [105]。

对于这三种类型的架构,我们还可以考虑通过专家混合(MoE)扩展它们,其中为每个输入稀疏激活了神经网络权重的子集,例如Switch Transformer [25] 和GLaM [99]。已经证明,通过增加专家数量或总参数大小,可以观察到显著的性能改进[192]。

新兴架构

传统的Transformer架构通常受到二次计算复杂性的限制。因此,在训练和处理长输入时,效率已经成为一个重要问题。为了提高效率,一些研究致力于设计用于语言建模的新架构,包括参数化状态空间模型(例如S4 [193]、GSS [194] 和H3 [195])、长卷积(例如Hyena [196])以及融合递归更新机制的Transformer样架构(例如RWKV [197] 和RetNet [198])。这些新架构的关键优点有两个。首先,这些模型可以像RNN一样递归生成输出,意味着它们在解码过程中只需要参考前一个状态。这使得解码过程更加高效,因为它消除了与传统Transformer中需要重新访问所有先前状态的需要。其次,这些模型具有像Transformer一样并行编码整个句子的能力。这与传统的RNN不同,后者必须逐标记地对句子进行编码。因此,它们可以利用GPU的并行性,使用诸如Parallel Scan [199, 200]、FFT [196, 197] 和Chunkwise Recurrent [198]等技术进行训练,以高度并行和高效的方式进行训练。

4.2.2 详细配置

自Transformer [22]推出以来,已经提出了各种改进措施,以增强其训练稳定性、性能和计算效率。在这一部分,我们将讨论Transformer的四个主要部分的相应配置,包括归一化、位置嵌入、激活函数和注意力和偏差。为了使这个调查更加自成一体,我们在表4中提供了这些配置的详细公式。

image-20231024224445307

表4:网络配置的详细公式。这里,Sublayer表示Transformer层中的一个FFN或一个自注意力模块, d d d表示隐藏状态的大小, p i p_i pi表示位置 i i i的位置嵌入, A i j A_{ij} Aij表示查询和键之间的注意力分数, r i − j r_{i−j} rij表示基于查询和键之间的偏移的可学习标量, R θ , t R_{θ,t} Rθ,t表示旋转角度为 t ⋅ θ t · θ tθ的旋转矩阵。

规范化方法

训练不稳定性是预训练LLMs的一个挑战性问题。为了缓解这个问题,规范化是稳定神经网络训练的一种广泛采用的策略。在传统的Transformer [22]中,采用了LayerNorm [202]。最近,一些先进的规范化技术已被提出作为LayerNorm的替代品,例如RMSNorm和DeepNorm。

• LayerNorm(层归一化)。在早期的研究中,BatchNorm [211] 是一种常用的规范化方法。然而,它难以处理可变长度的序列数据和小批量数据。因此,引入了LayerNorm [202] 来进行逐层规范化。具体来说,对每一层的所有激活值计算均值和方差,然后用这些均值和方差来重新调整和重新缩放激活值。

• RMSNorm(均方根归一化)。为了提高LayerNorm(LN)的训练速度,RMSNorm [203] 提出了一种方法,只使用汇总激活值的均方根(RMS)来重新缩放激活值,而不是使用均值和方差。相关研究已经证明了它在Transformer [212]上的训练速度和性能方面的优越性。采用RMSNorm的代表性模型包括Gopher [59] 和Chinchilla [34]。

• DeepNorm(深度规范化)。DeepNorm是由Microsoft提出的,旨在稳定深度Transformer的训练。使用DeepNorm作为残差连接,Transformer可以扩展到1,000层 [204],显示出了稳定性和良好性能的优势。它已被GLM-130B [84]采用。

规范化位置

除了规范化方法,规范化位置在LLMs中也起着关键作用。通常有三种规范化位置的选择,即后LN、前LN和夹层LN。

• Post-LN。后LN在传统的Transformer [22]中使用,位于残差块之间。然而,现有研究发现,使用后LN的Transformer训练容易不稳定,因为在输出层附近存在大的梯度 [213]。因此,在现有的LLMs中很少使用后LN,除非与其他策略结合使用(例如,在GLM130B [84]中将后LN与前LN结合使用)。

• Pre-LN。与后LN不同,前LN [214] 是在每个子层之前应用的,并且在最终预测之前放置了一个额外的LN。与后LN相比,带有前LN的Transformers在训练中更加稳定。然而,与带有后LN的变种相比,它的性能较差 [215]。尽管性能下降,大多数LLMs仍然采用前LN以确保训练的稳定性。但是,有一个例外情况是,当训练超过100B参数的模型时,前LN在GLM中被发现不稳定 [84]。

• Sandwich-LN。基于前LN,夹层LN [201] 在残差连接之前添加了额外的LN,以避免Transformer层输出中的数值爆炸问题。然而,已经发现夹层LN有时无法稳定LLMs的训练,可能导致训练崩溃 [84]。

激活函数

为了获得良好的性能,在前馈网络中激活函数也需要适当设置。在现有的LLMs中,GeLU激活函数 [216] 被广泛使用。特别是在最新的LLMs(例如,PaLM和LaMDA)中,GLU激活的变种 [208, 217] 也被广泛采用,特别是SwiGLU和GeGLU变种,在实践中通常可以取得更好的性能 [212]。然而,与GeLU相比,它们在前馈网络中需要额外的参数(约50%)[218]。

位置嵌入

由于Transformer中的自注意力模块是排列等变的,因此使用位置嵌入(PE)来注入序列的绝对或相对位置信息以进行建模。

• 绝对位置嵌入。在标准的Transformer [22]中,采用绝对位置嵌入。在编码器和解码器的底部,将绝对位置嵌入添加到输入嵌入中。在标准的Transformer [22]中,提出了两种绝对位置嵌入的变种,即正弦和学习的位置嵌入,后者在现有的预训练语言模型中常用。

• 相对位置嵌入。与绝对位置嵌入不同,相对位置嵌入是根据键和查询之间的偏移量生成的[219]。相对PE的一个流行变种首次出现在Transformer-XL [220, 221]中。注意力分数的计算已被修改,以引入与相对位置对应的可学习嵌入。T5 [73]进一步简化了相对位置嵌入,后来被Gopher [59]采用。具体来说,它在注意力分数中添加了可学习的标量,其中这些标量是基于查询和键的位置之间的距离计算的。与绝对PE相比,具有相对位置嵌入的Transformers可以推广到比训练时的序列更长的序列,即外推[210]。

• 旋转位置嵌入。旋转位置嵌入(RoPE)[209]基于每个令牌的绝对位置设置特定的旋转矩阵。可以使用相对位置信息计算键和查询之间的分数。由于出色的性能和长期衰减特性,RoPE被广泛采用在最新的LLMs中,例如PaLM [56]和LLaMA [57]。基于RoPE,xPos [222]进一步改善了Transformer的平移不变性和长度外推性能。在旋转度矢量的每个维度上,xPos添加了一个特殊的指数衰减,当旋转度较大时,衰减较小。它可以减轻训练过程中距离增加时的不稳定现象。

• ALiBi。 ALiBi [210]旨在改善Transformer的外推能力。与相对位置嵌入类似,它根据键和查询之间的距离对注意力得分进行惩罚。不同于T5 [73]等相对位置嵌入方法,ALiBi中的惩罚得分是预定义的,没有可训练的参数。[210]中的实证结果表明,ALiBi在比训练更长的序列上具有比几种常用的位置嵌入方法,如正弦PE [22]、RoPE [209]和T5偏置[73]更好的外推性能。此外,已经证明ALiBi还可以改善BLOOM [69]的训练稳定性。

注意力机制

注意机制是Transformer的关键组成部分。它允许序列中的Token相互交互,并计算输入和输出序列的表示。

• 全注意力。在标准的Transformer [22]中,注意机制以成对的方式进行,考虑序列中所有令牌对之间的关系。它采用了缩放的点积注意力,其中隐藏状态被映射为查询、键和值。此外,Transformer使用多头注意力而不是单一注意力,在不同头部中使用不同的投影来投影查询、键和值。每个头部输出的连接被视为最终输出。

• 稀疏注意力。全注意力的一个关键挑战是二次计算复杂度,当处理长序列时,这成为一个负担。因此,提出了各种高效的Transformer变体来减少注意机制的计算复杂度 [223, 224]。例如,在GPT3 [55] 中采用了局部带状稀疏注意力(即,因式分解注意力)。每个查询不是针对整个序列,而是基于位置只能关注一部分令牌。

• 多查询/分组查询注意力。多查询注意力是指不同头部共享相同的线性变换矩阵在键和值上的注意力变体 [226]。它可以显著节省计算成本,只在模型质量上做出轻微的牺牲。具有多查询注意力的代表性模型包括PaLM [56]和StarCoder [89]。为了在多查询注意力和多头注意力之间进行权衡,研究了分组查询注意力(GQA)[227]。在GQA中,头部被分配到不同的组中,属于同一组的头部将共享相同的变换矩阵。特别地,GQA已经被采用并在最近发布的LLaMA 2模型 [90]中进行了经验测试。

• FlashAttention。与大多数现有的近似注意方法不同,这些方法通过权衡模型质量来提高计算效率,FlashAttention [228] 提出了一种从IO感知的角度优化GPU上的注意力模块的速度和内存消耗的方法。现代GPU上存在不同级别的内存,例如,具有快速IO的SRAM和相对较慢IO的HBM。FlashAttention将输入组织成块,并引入必要的重新计算,以更好地利用快速内存SRAM。作为CUDA中的融合内核实现,FlashAttention已经集成到PyTorch [157]、DeepSpeed [65]和Megatron-LM [66]中。更新版本FlashAttention-2 [229] 进一步优化了GPU线程块和warp的工作划分,与原始FlashAttention相比,速度提高了大约2倍。

• PagedAttention。观察到当LLM部署在服务器上时,GPU内存通常被缓存的注意力键和值张量(称为KV缓存)所占用。主要原因是输入长度经常变化,导致了碎片化和过度预留的问题。受操作系统中经典分页技术的启发,提出了PagedAttention以改善部署的LLM的内存效率和吞吐量 [230]。具体而言,PagedAttention将每个序列分成子序列,并将这些子序列的相应KV缓存分配到非连续的物理块中。分页技术增加了GPU利用率,并在并行采样中实现了有效的内存共享。

为了总结所有这些讨论,我们总结了现有文献中的详细配置建议。为了获得更强的泛化能力和训练稳定性,建议选择预先的RMSNorm用于层归一化,以及SwiGLU或GeGLU作为激活函数。此外,可能不建议在嵌入层之后立即使用LN,因为这可能会导致性能下降。至于位置嵌入,RoPE或ALiBi是更好的选择,因为它在长序列上表现更好。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1129355.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Banana Pi 开源社区发布BPI-M6开源硬件开发板,支持6.75TOPs算力

香蕉派BPI-M6 采用深蕾半导体Vs680芯片设计,板载4G LPDDR4和16G eMMC存储 香蕉派BPI-M6是香蕉派社区在2022年推出的新一代单板计算机,它采用深蕾半导体(Synaptics) VS680四核Cortex-A73 (2.1GHz)和一个Cortex-M3处理器,Imagination GE9920 G…

【C++面向对象】6. 指向类的指针

文章目录 【 1. 基本原理 】【 2. 实例 】 【 1. 基本原理 】 一个指向 C 类的指针与指向结构体的指针类似,访问指向类的指针的成员,需要使用 成员访问运算符 ->,就像访问指向结构的指针一样。 【 2. 实例 】 // 使用指向类的指针&…

2.8.C++项目:网络版五子棋对战之对战玩家匹配管理模块的设计

文章目录 一、意义二、功能三、设计四、阻塞队列(一)功能(二)框架(三)代码 五、匹配管理(一)功能(二)设计(三)框架(四&…

GoLand设置Go Modules的Environment信息

在golang中,如果没有设置环境信息,就不会自动下载go.mod中设置的包,这时候,我们就需要设置一下环境信息 GOPROXYhttps://goproxy.cn,direct 图片如下:

【机器学习】集成学习Boosting

文章目录 集成学习BoostingAdaBoost梯度提升树GBDTXGBoostxgboost库sklearn APIxgboost库xgboost应用 集成学习 集成学习(ensemble learning)的算法主要包括三大类:装袋法(Bagging),提升法(Boo…

Python基础入门例程10-NP10 牛牛最好的朋友们

目录 描述 输入描述: 输出描述: 示例1 解答: 说明: 描述 牛牛有两个最好的朋友,他们的名字分别用input读入记录在两个字符串中,请使用字符串连接()帮助牛牛将两个朋友的名字依…

大灰狼远程管理[SVIP3会员版]易语言源码

大灰狼远程管理[SVIP3会员版]易语言源码 下载地址:https://user.qzone.qq.com/512526231/main https://user.qzone.qq.com/3503787372/main

实验六:DHCP、DNS、Apache、FTP服务器的安装和配置

1. (其它) 掌握Linux下DHCP、DNS、Apache、FTP服务器的安装和配置,在Linux服务器上部署JavaWeb应用 完成单元八的实训内容。 1、安装 JDK 2、安装 MySQL 3、部署JavaWeb应用 安装jdk 教程连接:linux安装jdk8详细步骤-CSDN博客 Jdk来源:linu…

自动驾驶之—2D到3D升维

前言: 最近在学习自动驾驶方向的东西,简单整理一些学习笔记,学习过程中发现宝藏up 手写AI 3D卷积 3D卷积的作用:对于2DCNN,我们知道可以很好的处理单张图片中的信息,但是其对于视频这种由多帧图像组成的图…

分类预测 | MATLAB实现SSA-CNN-GRU-Attention数据分类预测(SE注意力机制)

分类预测 | MATLAB实现SSA-CNN-GRU-Attention数据分类预测(SE注意力机制) 目录 分类预测 | MATLAB实现SSA-CNN-GRU-Attention数据分类预测(SE注意力机制)分类效果基本描述模型描述程序设计参考资料 分类效果 基本描述 1.MATLAB实现…

【软考系统架构设计师】2021年系统架构师综合知识真题及解析

本文主要分享2021年下半年系统架构师综合知识历年真题以及本人在做题时的所思所想。题目序号有点混乱,可忽略 【01】.某计算机系统页面大小为4K,进程P1的页面变换表如下图所示,看P1要访问数据的逻辑地址为十六进制1B1AH,那么该逻辑地址经过变…

2023CPSE安博会倒计时1天!英码科技参展5大亮点抢先看~

第十九届中国国际社会公共安全博览会 暨全球数字城市产业博览会 距离开幕仅剩1天 英码科技将精彩亮相1号馆 展位号为:1A06 展会期间重点展示 创新性的国产AI智能硬件 AI技术服务以及热门的行业解决方案 2023CPSE安博会基本信息 展会时间:10月25-27日&am…

深度学习第四课

第九章 卷积神经网络解读 9.1 计算机视觉 目标分类 目标识别 64x64x312288 1000x1000x33000000 使用传统神经网络处理机器视觉面临的一个挑战是:数据的输入会非常大 一般的神经网络很难处理海量图像数据。解决这一问题的方法就是卷积神经网络 9.2 卷积运算 …

分代ZGC详解

ZGC(Z Garbage Collector)是Java平台上的一种垃圾收集器,它是由Oracle开发的,旨在解决大堆的低延迟垃圾收集问题。ZGC是一种并发的分代垃圾收集器,它主要针对具有大内存需求和低停顿时间要求的应用程序 分代ZGC收集器…

Vue的MVVM实现原理

目录 前言 用法 代码和效果图 效果图 理解 高质量的使用 前言 MVVM是Model-View-ViewModel的缩写,是一种软件架构设计模式。Vue.js实现了这种设计模式,通过双向数据绑定和虚拟DOM技术,使得数据和视图能够快速响应彼此的变化。了解Vue的…

标准库STM32F1_USART2_DMA接收发送数据源码分享直接复制能用

标准库STM32F1_USART2_DMA接收发送数据源码分享直接复制能用 STM32的DMA通道表: 现有一个小需求,使用STM32F1系列单片机做串口2的收发数据的功能,通过PC上的串口调试助手给单片机发一串数据,单片机收到数据后再给PC的串口调试助手…

selenium安装和python中基本使用

selenium安装和python中基本使用 背景下载和安装浏览器驱动115.xx版本之前驱动下载115.xx及之后的高版本驱动 配置浏览器驱动安装selenium使用selenium点击按钮搜索内容 背景 selenium 出现的初衷就是一个自动化测试工具,她可以打开浏览器,然后像用户一…

软件测试进阶篇----自动化测试脚本开发

自动化测试脚本开发 一、自动化测试用例开发 1、用例设计需要注意的点 2、设计一条测试用例 二、脚本开发过程中的技术 1、线性脚本开发 2、模块化脚本开发(封装线性代码到方法或者类中。在需要的地方进行调用) 3、关键字驱动开发:selen…

php 数组基础/练习

数组 练习在最后 数组概述 概述与定义 数组中存储键值对 数组实际上是一个有序映射 key-value,可将其当成真正的数组、列表(向量)、散列表、字典、集合、栈、队列等 数组中的元素可以是任意类型的数据对象(可以嵌套数组&#…

AI作画使用指南

AI作画API使用文档请前往:https://blog.csdn.net/qq_48896417/article/details/132520804 一、定义 AI作画使用指南 二、形式 「公式」 图片主体,细节词,修饰词 细节词可以任意组合,修饰词可以限定一种风格,也可以…