万字面试题大模型面试,最全八股和答案

news2024/9/28 15:01:19

自ChatGPT开启大模型时代以来,大模型正迎来飞速发展,现在从事大模型开发相关工作可谓是处在时代的风口。那么大模型面试需要哪些技能和技巧呢,本文详细整理了全套的面试问题及答案,希望对大家有所帮助!

目录

  • 大模型(LLMs)基础面
  • 1. 目前 主流的开源模型体系 有哪些?
  • 2. prefix LM 和 causal LM 区别是什么?
  • 3. 涌现能力是啥原因?
  • 4. 大模型LLM的架构介绍?
  • 大模型(LLMs)进阶面
  • 1. llama 输入句子长度理论上可以无限长吗?
  • 1. 什么是 LLMs 复读机问题?
  • 2. 为什么会出现 LLMs 复读机问题?
  • 3. 如何缓解 LLMs 复读机问题?
  • 1. LLMs 复读机问题
  • 2. llama 系列问题
  • 3. 什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
  • 4. 各个专业领域是否需要各自的大模型来服务?
  • 5. 如何让大模型处理更长的文本?
  • 大模型(LLMs)微调面
  • 1. 如果想要在某个模型基础上做全参数微调,究竟需要多少显存?
  • 2. 为什么SFT之后感觉LLM傻了?
  • 3. SFT 指令微调数据 如何构建?
  • 4. 领域模型Continue PreTrain 数据选取?
  • 5. 领域数据训练后,通用能力往往会有所下降,如何缓解模型遗忘通用能力?
  • 6. 领域模型Continue PreTrain ,如何 让模型在预训练过程中就学习到更多的知识?
  • 7. 进行SFT操作的时候,基座模型选用Chat还是Base?
  • 8. 领域模型微调 指令&数据输入格式 要求?
  • 9. 领域模型微调 领域评测集 构建?
  • 10. 领域模型词表扩增是不是有必要的?
  • 11. 如何训练自己的大模型?
  • 12. 训练中文大模型有啥经验?
  • 13. 指令微调的好处?
  • 14. 预训练和微调哪个阶段注入知识的?
  • 15. 想让模型学习某个领域或行业的知识,是应该预训练还是应该微调?
  • 16. 多轮对话任务如何微调模型?
  • 17. 微调后的模型出现能力劣化,灾难性遗忘是怎么回事?
  • 18. 微调模型需要多大显存?
  • 19. 大模型LLM进行SFT操作的时候在学习什么?
  • 20. 预训练和SFT操作有什么不同
  • 21. 样本量规模增大,训练出现OOM错
  • 22. 大模型LLM进行SFT 如何对样本进行优化?
  • 23. 模型参数迭代实验
  • 大模型(LLMs)langchain面
  • 1. 基于LLM+向量库的文档对话 基础面
  • 2. 基于LLM+向量库的文档对话 优化面
  • 3. 基于LLM+向量库的文档对话 工程示例面
  • 1. LLMs 存在模型幻觉问题,请问如何处理?
  • 2. 基于LLM+向量库的文档对话 思路是怎么样?
  • 3. 基于LLM+向量库的文档对话 核心技术是什么?
  • 4. 基于LLM+向量库的文档对话 prompt 模板 如何构建?
  • 1. 痛点1:文档切分粒度不好把控,既担心噪声太多又担心语义信息丢失
  • 2. 痛点2:在基于垂直领域 表现不佳
  • 3. 痛点3:langchain 内置 问答分句效果不佳问题
  • 4. 痛点4:如何 尽可能召回与query相关的Document 问题
  • 5. 痛点5:如何让LLM基于query和context得到高质量的response
  • 1. 避坑记录
  • 2. 本地知识库问答系统(Langchain-chatGLM)
  • 1. 什么是 LangChain?
  • 2. LangChain 包含哪些 核心概念?
  • 3. 什么是 LangChain Agent?
  • 4. 如何使用 LangChain ?
  • 5. LangChain 支持哪些功能?
  • 6. 什么是 LangChain model?
  • 7. LangChain 包含哪些特点?
  • 8. LangChain 如何使用?
  • 9. LangChain 存在哪些问题及方法方案?
  • 10. LangChain 替代方案?
  • 1. LangChain 中 Components and Chains 是什么?
  • 2. LangChain 中 Prompt Templates and Values 是什么?
  • 3. LangChain 中 Example Selectors 是什么?
  • 4. LangChain 中 Output Parsers 是什么?
  • 5. LangChain 中 Indexes and Retrievers 是什么?
  • 6. LangChain 中 Chat Message History 是什么?
  • 7. LangChain 中 Agents and Toolkits 是什么?
  • 1. LangChain 如何调用 LLMs 生成回复?
  • 2. LangChain 如何修改 提示模板?
  • 3. LangChain 如何链接多个组件处理一个特定的下游任务?
  • 4. LangChain 如何Embedding & vector store?
  • 1. LangChain 低效的令牌使用问题
  • 2. LangChain 文档的问题
  • 3. LangChain 太多概念容易混淆,过多的“辅助”函数问题
  • 4. LangChain 行为不一致并且隐藏细节问题
  • 5. LangChain 缺乏标准的可互操作数据类型问题
  • 大模型(LLMs)langchain 面
  • 基于LLM+向量库的文档对话 经验面
  • 大模型(LLMs)参数高效微调(PEFT) 面
  • 一、LoRA篇
  • 二、QLoRA篇
  • 三、AdaLoRA篇
  • 四、LoRA权重是否可以合入原模型?
  • 五、ChatGLM-6B LoRA后的权重多大?
  • 六、LoRA 微调优点是什么?
  • 七、LoRA微调方法为啥能加速训练?
  • 八、如何在已有LoRA模型上继续训练?
  • 1.1 什么是 LoRA?
  • 1.2 LoRA 的思路是什么?
  • 1.3 LoRA 的特点是什么?
  • 2.1 QLoRA 的思路是怎么样的?
  • 2.2 QLoRA 的特点是什么?
  • 3.1 AdaLoRA 的思路是怎么样的?
  • 一、为什么需要 提示学习(Prompting)?
  • 二、什么是 提示学习(Prompting)?
  • 三、提示学习(Prompting) 有什么优点?
  • 四、提示学习(Prompting)有哪些方法,能不能稍微介绍一下它们间?
  • 4.4.1 为什么需要 P-tuning v2?
  • 4.4.2 P-tuning v2 思路是什么?
  • 4.4.3 P-tuning v2 优点是什么?
  • 4.4.4 P-tuning v2 缺点是什么?
  • 4.3.1 为什么需要 P-tuning?
  • 4.3.2 P-tuning 思路是什么?
  • 4.3.3 P-tuning 优点是什么?
  • 4.3.4 P-tuning 缺点是什么?
  • 4.2.1 为什么需要 指示微调(Prompt-tuning)?
  • 4.2.2 指示微调(Prompt-tuning)思路是什么?
  • 4.2.3 指示微调(Prompt-tuning)优点是什么?
  • 4.2.4 指示微调(Prompt-tuning)缺点是什么?
  • 4.2.5 指示微调(Prompt-tuning)与 Prefix-tuning 区别 是什么?
  • 4.2.6 指示微调(Prompt-tuning)与 fine-tuning 区别 是什么?
  • 4.1.1 为什么需要 前缀微调(Prefix-tuning)?
  • 4.1.2 前缀微调(Prefix-tuning)思路是什么?
  • 4.1.3 前缀微调(Prefix-tuning)的优点是什么?
  • 4.1.4 前缀微调(Prefix-tuning)的缺点是什么?
  • 4.1 前缀微调(Prefix-tuning)篇
  • 4.2 指示微调(Prompt-tuning)篇
  • 4.3 P-tuning 篇
  • 4.4 P-tuning v2 篇
  • 一、为什么 需要 适配器微调(Adapter-tuning)?
  • 二、适配器微调(Adapter-tuning)思路?
  • 三、 适配器微调(Adapter-tuning)特点是什么?
  • 四、AdapterFusion 思路 是什么?
  • 五、AdapterDrop 思路 是什么?
  • 六、AdapterDrop 特点 是什么?
  • 七、MAM Adapter 思路 是什么?
  • 八、MAM Adapter 特点 是什么?
  • 微调方法是啥?如何微调?
  • 为什么需要 PEFT?
  • 介绍一下 PEFT?
  • PEFT 有什么优点?
  • 微调方法批处理大小模式GPU显存速度?
  • Peft 和 全量微调区别?
  • 多种不同的高效微调方法对比
  • 当前高效微调技术存在的一些问题
  • 高效微调技术最佳实践
  • PEFT 存在问题?
  • 能不能总结一下各种参数高效微调方法?
  • 大模型(LLMs)参数高效微调(PEFT) 面
  • 适配器微调(Adapter-tuning)篇
  • 提示学习(Prompting)
  • LoRA 系列篇
  • 大模型(LLMs)推理面
  • 1. 为什么大模型推理时显存涨的那么多还一直占着?
  • 2. 大模型在gpu和cpu上推理速度如何?
  • 3. 推理速度上,int8和fp16比起来怎么样?
  • 4. 大模型有推理能力吗?
  • 5. 大模型生成时的参数怎么设置?
  • 6. 有哪些省内存的大语言模型训练/微调/推理方法?
  • 7. 如何让大模型输出合规化
  • 8. 应用模式变更
  • 大模型(LLMs)评测面
  • 大模型怎么评测?
  • 大模型的honest原则是如何实现的?
  • 模型如何判断回答的知识是训练过的已知的知识,怎么训练这种能力?
  • 大模型(LLMs)强化学习面
  • 奖励模型需要和基础模型一致吗?
  • RLHF 在实践过程中存在哪些不足?
  • 如何解决 人工产生的偏好数据集成本较高,很难量产问题?
  • 如何解决三个阶段的训练(SFT->RM->PPO)过程较长,更新迭代较慢问题?
  • 如何解决 PPO 的训练过程同时存在4个模型(2训练,2推理),对计算资源的要求较高 问题?
  • 大模型(LLMs)软硬件配置面
  • 大模型(LLMs)训练集面
  • SFT(有监督微调)的数据集格式?
  • RM(奖励模型)的数据格式?
  • PPO(强化学习)的数据格式?
  • 找数据集哪里找?
  • 微调需要多少条数据?
  • 有哪些大模型的训练集?
  • 进行领域大模型预训练应用哪些数据集比较好?
  • 大模型(LLMs)显存问题面
  • 大模型(LLMs)分布式训练面
  • 大模型(LLMs)agent 面
  • 如何给LLM注入领域知识?
  • 如果想要快速体验各种模型,该怎么办?
  • Token及模型参数准备篇
  • 预训练数据 Token 重复 是否影响 模型性能?
  • SFT需要训练Token数?
  • LLMs 位置编码篇
  • 6.1 ALiBi (Attention with Linear Biases) 思路是什么?
  • 6.2 ALiBi (Attention with Linear Biases) 的偏置矩阵是什么?有什么作用?
  • 6.3 ALiBi (Attention with Linear Biases) 有什么优点?
  • 6.4 ALiBi (Attention with Linear Biases) 被哪些 LLMs 应用?
  • 5.1 什么是 长度外推问题?
  • 5.2 长度外推问题 的 解决方法 有哪些?
  • 4.1 旋转位置编码 RoPE 思路是什么?
  • 4.2 推导一下 旋转位置编码 RoPE ?
  • 4.3 旋转位置编码 RoPE 有什么优点?
  • 4.4 旋转位置编码 RoPE 被哪些 LLMs 应用?
  • 1 什么是位置编码?
  • 2 什么是绝对位置编码?
  • 3 什么是相对位置编码?
  • 4 旋转位置编码 RoPE篇
  • 5 长度外推问题篇
  • 6 ALiBi (Attention with Linear Biases)篇
  • LLMs Tokenizer 篇
  • Byte-Pair Encoding(BPE)篇
  • WordPiece 篇
  • SentencePiece 篇
  • 对比篇
  • 1 Byte-Pair Encoding(BPE) 如何构建词典?
  • 1 WordPiece 与 BPE 异同点是什么?
  • 简单介绍一下 SentencePiece 思路?
  • 1 举例 介绍一下 不同 大模型LLMs 的分词方式?
  • 2 介绍一下 不同 大模型LLMs 的分词方式 的区别?
  • LLMs Tokenizer 篇
  • Layer Normalization 篇
  • LLMs 各模型分别用了 哪种 Layer normalization?
  • 1 LN 在 LLMs 中的不同位置 有什么区别么?如果有,能介绍一下区别么?
  • Layer Norm 篇
  • RMS Norm 篇 (均方根 Norm)
  • Deep Norm 篇
  • Deep Norm 有什么优点?
  • Layer Norm 的计算公式写一下?
  • RMS Norm 的计算公式写一下?
  • RMS Norm 相比于 Layer Norm 有什么特点?
  • Deep Norm 思路?
  • 写一下 Deep Norm 代码实现?
  • Layer normalization-方法篇
  • Layer normalization-位置篇
  • Layer normalization 对比篇

答案

前部分传送门:大模型最全八股和答案(上)大模型最全八股和答案(中)

LLMs Tokenizer 篇
  • Byte-Pair Encoding(BPE)篇

  • 1 Byte-Pair Encoding(BPE) 如何构建词典?

    💡

    Byte-Pair Encoding(BPE)是一种常用的无监督分词方法,用于将文本分解为子词或字符级别的单位。BPE的词典构建过程如下:

    最终得到的词典即为BPE的词典。通过BPE算法,可以将文本分解为多个子词,其中一些子词可能是常见的词汇,而其他子词则是根据输入文本的特点生成的。这种方式可以更好地处理未登录词和稀有词,并提高模型对复杂词汇和短语的处理能力。

  1. 初始化词典:将每个字符视为一个初始的词。例如,对于输入文本"hello world",初始词典可以包含{‘h’, ‘e’, ‘l’, ‘o’, ‘w’, ‘r’, ‘d’}。
  2. 统计词频:对于每个词,统计其在文本中的频率。例如,在"hello world"中,'h’出现1次,'e’出现1次,'l’出现3次,'o’出现2次,'w’出现1次,'r’出现1次,'d’出现1次。
  3. 合并频率最高的词对:在每次迭代中,选择频率最高的词对进行合并。合并的方式是将两个词连接起来,并用一个特殊的符号(如"_“)分隔。例如,在初始词典中,选择频率最高的词对"l"和"l”,将它们合并为"ll",更新词典为{‘h’, ‘e’, ‘ll’, ‘o’, ‘w’, ‘r’, ‘d’}。
  4. 更新词频:更新合并后的词频。对于合并的词,统计其在文本中的频率。例如,在"hello world"中,'h’出现1次,'e’出现1次,'ll’出现3次,'o’出现2次,'w’出现1次,'r’出现1次,'d’出现1次。
  5. 重复步骤3和4:重复步骤3和4,直到达到预设的词典大小或者满足其他停止条件。每次迭代都会合并频率最高的词对,并更新词频。
  • WordPiece 篇

  • 1 WordPiece 与 BPE 异同点是什么?

    💡

    WordPiece和BPE(Byte-Pair Encoding)都是常用的无监督分词方法,它们有一些相似之处,但也存在一些差异。

  • 总体而言,WordPiece和BPE都是有效的分词方法,选择使用哪种方法取决于具体的任务需求和语料特点。

  1. 分词目标:WordPiece和BPE都旨在将文本分解为子词或字符级别的单位,以便更好地处理未登录词和稀有词,提高模型对复杂词汇和短语的处理能力。
  2. 无监督学习:WordPiece和BPE都是无监督学习方法,不需要依赖外部的标注数据,而是通过分析输入文本自动构建词典。
  3. 拆分策略:WordPiece采用贪婪的自顶向下的拆分策略,将词汇表中的词分解为更小的子词。它使用最大似然估计来确定最佳的分割点,并通过词频来更新词典。BPE则采用自底向上的拆分策略,通过合并频率最高的词对来构建词典。它使用词频来选择合并的词对,并通过更新词频来更新词典。
  4. 分割粒度:WordPiece通常将词分解为更小的子词,例如将"running"分解为"run"和"##ning"。这些子词通常以"##"前缀表示它们是一个词的一部分。BPE则将词分解为更小的子词或字符级别的单位。它不使用特殊的前缀或后缀来表示子词。
  5. 处理未登录词:WordPiece和BPE在处理未登录词时有所不同。WordPiece通常将未登录词分解为更小的子词,以便模型可以更好地处理它们。而BPE则将未登录词作为单独的词处理,不进行进一步的拆分。
  • SentencePiece 篇

  • 简单介绍一下 SentencePiece 思路?

    💡

    SentencePiece是一种基于BPE算法的分词工具,旨在将文本分解为子词或字符级别的单位。与传统的BPE算法不同,SentencePiece引入了一种更灵活的训练方式,可以根据不同任务和语料库的需求进行自定义。

    SentencePiece的思路如下:

    通过SentencePiece,可以根据不同任务和语料库的需求,自定义分词模型。它可以更好地处理未登录词和稀有词,提高模型对复杂词汇和短语的处理能力。同时,SentencePiece还支持多种语言和编码方式,可以广泛应用于自然语言处理任务中。

  1. 初始化词典:将每个字符视为一个初始的词。例如,对于输入文本"hello world",初始词典可以包含{‘h’, ‘e’, ‘l’, ‘o’, ‘w’, ‘r’, ‘d’}。
  2. 统计词频:对于每个词,统计其在文本中的频率。例如,在"hello world"中,'h’出现1次,'e’出现1次,'l’出现3次,'o’出现2次,'w’出现1次,'r’出现1次,'d’出现1次。
  3. 合并频率最高的词对:在每次迭代中,选择频率最高的词对进行合并。合并的方式是将两个词连接起来,并用一个特殊的符号(如"_“)分隔。例如,在初始词典中,选择频率最高的词对"l"和"l”,将它们合并为"ll",更新词典为{‘h’, ‘e’, ‘ll’, ‘o’, ‘w’, ‘r’, ‘d’}。
  4. 更新词频:更新合并后的词频。对于合并的词,统计其在文本中的频率。例如,在"hello world"中,'h’出现1次,'e’出现1次,'ll’出现3次,'o’出现2次,'w’出现1次,'r’出现1次,'d’出现1次。
  5. 重复步骤3和4:重复步骤3和4,直到达到预设的词典大小或者满足其他停止条件。每次迭代都会合并频率最高的词对,并更新词频。
  6. 训练模型:根据得到的词典,训练一个分词模型。模型可以根据需求选择将文本分解为子词或字符级别的单位。
  • 对比篇

    LayerNormalization
  • 1 举例 介绍一下 不同 大模型LLMs 的分词方式?

    💡

    大模型语言模型(Large Language Models,LLMs)通常采用不同的分词方式,这些方式可以根据任务和语料库的不同进行调整。以下是一些常见的大模型LLMs的分词方式的举例:

    需要注意的是,不同的大模型LLMs可能采用不同的分词方式,甚至在同一个模型中,可以根据任务和语料库的需求进行调整。这些分词方式的选择会对模型的性能和效果产生影响,因此需要根据具体情况进行选择和调整。

  • 2 介绍一下 不同 大模型LLMs 的分词方式 的区别?

    💡

    不同的大模型LLMs(Language Models)在分词方式上可能存在一些区别。以下是一些常见的分词方式及其区别:

    需要注意的是,不同的大模型LLMs可能在分词方式上有所差异,具体的实现和效果可能因模型的结构、训练数据和任务设置而有所不同。选择适合特定任务和语言的分词方式是很重要的。

  1. 基于规则的分词:这种分词方式使用预定义的规则和模式来切分文本。例如,可以使用空格、标点符号或特定的字符来确定词语的边界。这种方法简单直接,但对于复杂的语言和文本结构可能不够准确。
  2. 基于统计的分词:这种分词方式使用统计模型来确定词语的边界。通常会使用大量的标注数据来训练模型,并根据词语的频率和上下文来进行切分。这种方法相对准确,但对于未见过的词语或特定领域的术语可能不够准确。
  3. 基于深度学习的分词:这种分词方式使用深度学习模型,如循环神经网络(RNN)或Transformer模型,来进行分词。这些模型可以学习文本的上下文信息,并根据语义和语法规则来进行切分。这种方法可以处理复杂的语言结构和未见过的词语,但需要大量的训练数据和计算资源。
  4. 基于预训练模型的分词:最近的研究表明,使用预训练的语言模型,如BERT、GPT等,可以在分词任务上取得很好的效果。这些模型在大规模的文本数据上进行预训练,并能够学习到丰富的语言表示。在具体的分词任务中,可以通过在预训练模型上进行微调来进行分词。这种方法具有较高的准确性和泛化能力。
  5. 基于词典的分词:这是最常见的分词方式之一,使用一个预先构建好的词典来将文本分解为单词。例如,BERT模型使用WordPiece分词器,将文本分解为词片段(subword units),并在词典中查找匹配的词片段。
  6. 基于字符的分词:这种方式将文本分解为单个字符或者字符级别的单位。例如,GPT模型使用字节对编码(Byte Pair Encoding,BPE)算法,将文本分解为字符或字符片段。
  7. 基于音节的分词:对于一些语言,特别是拼音文字系统,基于音节的分词方式更为常见。这种方式将文本分解为音节或音节级别的单位。例如,对于中文,可以使用基于音节的分词器将文本分解为音节。
  8. 基于规则的分词:有些语言具有明确的分词规则,可以根据这些规则将文本分解为单词。例如,日语中的分词可以基于汉字辞书或者语法规则进行。
  9. 基于统计的分词:这种方式使用统计模型来判断文本中的分词边界。例如,隐马尔可夫模型(Hidden Markov Model,HMM)可以通过训练来预测最可能的分词边界。
  • [[#Layer normalization-方法篇|Layer normalization-方法篇]]
  • [[#Deep Norm 篇#Deep Norm 思路?|Deep Norm 思路?]]
  • [[#Deep Norm 篇#写一下 Deep Norm 代码实现?|写一下 Deep Norm 代码实现?]]
  • [[#RMS Norm 篇 (均方根 Norm)#RMS Norm 的计算公式写一下?|RMS Norm 的计算公式写一下?]]
  • [[#RMS Norm 篇 (均方根 Norm)#RMS Norm 相比于 Layer Norm 有什么特点?|RMS Norm 相比于 Layer Norm 有什么特点?]]
  • [[#Layer Norm 篇#Layer Norm 的计算公式写一下?|Layer Norm 的计算公式写一下?]]
  • [[#Layer normalization-方法篇#Layer Norm 篇|Layer Norm 篇]]
  • [[#Layer normalization-方法篇#RMS Norm 篇 (均方根 Norm)|RMS Norm 篇 (均方根 Norm)]]
  • [[#Layer normalization-方法篇#Deep Norm 篇|Deep Norm 篇]]
  • [[#Layer normalization-方法篇#Deep Norm 有什么优点?|Deep Norm 有什么优点?]]
  • [[#Layer normalization-位置篇|Layer normalization-位置篇]]
  • [[#Layer normalization-位置篇#1 LN 在 LLMs 中的不同位置 有什么区别么?如果有,能介绍一下区别么?|1 LN 在 LLMs 中的不同位置 有什么区别么?如果有,能介绍一下区别么?]]
  • [[#Layer normalization 对比篇|Layer normalization 对比篇]]
  • [[#Layer normalization 对比篇#LLMs 各模型分别用了 哪种 Layer normalization?|LLMs 各模型分别用了 哪种 Layer normalization?]]
Layer normalization-方法篇
Layer Norm 篇
Layer Norm 的计算公式写一下?

Layer Norm(层归一化)是一种用于神经网络中的归一化技术,用于提高模型的训练效果和泛化能力。其计算公式如下:

给定输入 ,其维度为 ,Layer Norm 的计算公式为:

img

其中, 是 沿最后一个维度的均值, 是 沿最后一个维度的标准差, 和 是可学习的缩放因子和偏置项。 表示逐元素相乘。

具体计算过程如下:

  1. 计算均值 : img
  2. 计算标准差 : img
  3. 计算归一化的 :
  4. 计算缩放因子和偏置项:

其中, 和 是可学习的参数,可以通过反向传播进行训练。

Layer Norm 的作用是将每个样本的特征进行归一化,使得特征在不同样本之间具有相似的分布,有助于提高模型的训练效果和泛化能力。

RMS Norm 篇 (均方根 Norm)
RMS Norm 的计算公式写一下?

RMS Norm(均方根归一化)是一种用于神经网络中的归一化技术,用于提高模型的训练效果和泛化能力。其计算公式如下:

给定输入 ,其维度为 ,RMS Norm 的计算公式为:

img

其中, 是一个小的常数,用于避免分母为零。

具体计算过程如下:

  1. 计算 的平方:
  2. 计算平方的均值: img
  3. 计算归一化的 :

RMS Norm 的作用是通过计算输入 的均方根,将每个样本的特征进行归一化,使得特征在不同样本之间具有相似的尺度,有助于提高模型的训练效果和泛化能力。

RMS Norm 相比于 Layer Norm 有什么特点?

RMS Norm(Root Mean Square Norm)和 Layer Norm 是两种常用的归一化方法,它们在实现上有一些不同之处。

  1. 计算方式:RMS Norm 是通过计算输入数据的平方均值的平方根来进行归一化,而 Layer Norm 是通过计算输入数据在每个样本中的平均值和方差来进行归一化。
  2. 归一化范围:RMS Norm 是对整个输入数据进行归一化,而 Layer Norm 是对每个样本进行归一化。
  3. 归一化位置:RMS Norm 通常应用于循环神经网络(RNN)中的隐藏状态,而 Layer Norm 通常应用于卷积神经网络(CNN)或全连接层中。
  4. 归一化效果:RMS Norm 在处理长序列数据时可能会出现梯度消失或梯度爆炸的问题,而 Layer Norm 能够更好地处理这些问题。

综上所述,RMS Norm 和 Layer Norm 在计算方式、归一化范围、归一化位置和归一化效果等方面存在一些差异,适用于不同的神经网络结构和任务。选择哪种归一化方法应根据具体情况进行评估和选择。

Deep Norm 篇
Deep Norm 思路?

Deep Norm 是一种基于归一化的深度学习模型优化方法,其思路是通过在深度神经网络中引入多层归一化操作,以改善模型的训练和泛化性能。

Deep Norm 的主要思想是在网络的每一层之间插入归一化层,以减小输入数据的分布差异,从而加速收敛并提高模型的泛化能力。与传统的批归一化(Batch Normalization)不同,Deep Norm 在每一层都进行归一化,而不是仅在特定层进行。

Deep Norm 的具体步骤如下:

  1. 输入数据:将输入数据传递给网络的第一层。
  2. 归一化层:在网络的每一层之间插入归一化层。归一化层的作用是将每层的输入数据进行归一化,使其均值为0,方差为1。这可以减小数据的分布差异,有助于提高模型的稳定性和泛化性能。
  3. 激活函数:在归一化层之后应用激活函数,以引入非线性变换。
  4. 下一层:将经过归一化和激活函数处理的数据传递给网络的下一层。

通过在每一层引入归一化操作,Deep Norm 可以有效地解决深度神经网络中的梯度消失和梯度爆炸问题,并提高模型的收敛速度和泛化性能。此外,Deep Norm 还可以减少对学习率的敏感性,使得模型更容易优化。

需要注意的是,Deep Norm 需要在训练过程中对每一层的均值和方差进行估计,可以使用滑动平均等方法来更新归一化层的参数。在测试阶段,可以使用训练阶段估计的均值和方差进行归一化。

总而言之,Deep Norm 是一种通过在深度神经网络中引入多层归一化操作来优化模型的方法,可以改善模型的训练和泛化性能。

写一下 Deep Norm 代码实现?

Deep Norm 的代码实现可以基于 PyTorch 框架来完成。以下是一个简单的 Deep Norm 的代码示例:

import torch  
import torch.nn as nn  
  
class DeepNorm(nn.Module):  
   def \_\_init\_\_(self, input\_dim, hidden\_dims, output\_dim):  
    super(DeepNorm, self).\_\_init\_\_()  
   
    self.layers = nn.ModuleList()  
    self.norm\_layers = nn.ModuleList()  
    
    # 添加隐藏层和归一化层  
  for i, hidden\_dim in enumerate(hidden\_dims):  
   self.layers.append(nn.Linear(input\_dim, hidden\_dim))  
   self.norm\_layers.append(nn.LayerNorm(hidden\_dim))  
   input\_dim = hidden\_dim  
  
  # 添加输出层  
  self.output\_layer = nn.Linear(input\_dim, output\_dim)  
              
    def forward(self, x):  
  for layer, norm\_layer in zip(self.layers, self.norm\_layers):  
   x = layer(x)  
   x = norm\_layer(x)  
   x = torch.relu(x)  
  
  x = self.output\_layer(x)  
  return x  
              
# 创建一个 DeepNorm 模型实例  
input\_dim = 100  
hidden\_dims = \[64, 32\]  
output\_dim = 10  
model = DeepNorm(input\_dim, hidden\_dims, output\_dim)  
  
# 使用模型进行训练和预测  
input\_data = torch.randn(32, input\_dim)  
output = model(input\_data)  



123456789101112131415161718192021222324252627282930313233343536373839404142

在这个示例中,我们定义了一个 DeepNorm 类,其中包含了多个隐藏层和归一化层。在 forward 方法中,我们依次对输入数据进行线性变换、归一化和激活函数处理,并通过输出层得到最终的预测结果。

需要注意的是,在实际使用中,可以根据具体任务的需求来调整模型的结构和参数设置。此外,还可以使用其他归一化方法,如 Layer Norm 或 Batch Norm,根据实际情况进行选择和实现。

Deep Norm 有什么优点?

Deep Norm 有以下几个优点:

  1. 改善梯度传播:Deep Norm 在每一层都引入了归一化操作,可以有效地解决深度神经网络中的梯度消失和梯度爆炸问题。通过减小输入数据的分布差异,Deep Norm 可以使得梯度更加稳定,并加速模型的收敛速度。
  2. 提高泛化能力:Deep Norm 的归一化操作有助于提高模型的泛化能力。归一化可以减小数据的分布差异,使得模型更容易学习到数据的共性特征,从而提高模型对未见数据的预测能力。
  3. 减少对学习率的敏感性:Deep Norm 的归一化操作可以减少对学习率的敏感性。通过将输入数据归一化到相同的尺度,Deep Norm 可以使得模型的训练更加稳定,减少了对学习率的调整需求。
  4. 网络结构更简洁:Deep Norm 可以将归一化操作嵌入到网络的每一层中,而不需要额外的归一化层。这使得网络结构更加简洁,减少了模型参数的数量,降低了计算和存储成本。
  5. 提高模型的可解释性:Deep Norm 的归一化操作可以使得模型的输出具有更好的可解释性。通过将输入数据归一化到均值为0,方差为1的范围内,Deep Norm 可以使得模型输出的数值更易于理解和解释。

综上所述,Deep Norm 通过引入多层归一化操作,可以改善梯度传播、提高泛化能力、减少对学习率的敏感性,同时还能简化网络结构和提高模型的可解释性。这些优点使得 Deep Norm 成为一种有效的深度学习模型优化方法。

Layer normalization-位置篇
1 LN 在 LLMs 中的不同位置 有什么区别么?如果有,能介绍一下区别么?

层归一化 Layer Norm 在 大语言模型 LLMs 中的不同位置 有什么区别么?如果有,能介绍一下区别么?

在大语言模型(Large Language Models)中,Layer Norm(层归一化)可以应用在不同位置,包括输入层、输出层和中间隐藏层。这些位置的归一化有一些区别:

  1. 输入层归一化:在输入层应用 Layer Norm 可以将输入的特征进行归一化,使得输入数据的分布更加稳定。这有助于减少不同样本之间的分布差异,提高模型的泛化能力。
  2. 输出层归一化:在输出层应用 Layer Norm 可以将输出结果进行归一化,使得输出结果的分布更加稳定。这有助于减小输出结果的方差,提高模型的稳定性和预测准确性。
  3. 中间隐藏层归一化:在中间隐藏层应用 Layer Norm 可以在每个隐藏层之间进行归一化操作,有助于解决深度神经网络中的梯度消失和梯度爆炸问题。通过减小输入数据的分布差异,Layer Norm 可以使得梯度更加稳定,并加速模型的收敛速度。

总的来说,Layer Norm 在大语言模型中的不同位置应用可以解决不同的问题。输入层归一化可以提高模型的泛化能力,输出层归一化可以提高模型的稳定性和预测准确性,而中间隐藏层归一化可以改善梯度传播,加速模型的收敛速度。具体应用 Layer Norm 的位置需要根据具体任务和模型的需求进行选择。

Layer normalization 对比篇
LLMs 各模型分别用了 哪种 Layer normalization?

不同的大语言模型(LLMs)可能会使用不同的层归一化方法,以下是一些常见的层归一化方法在大语言模型中的应用:

  1. BERT(Bidirectional Encoder Representations from Transformers):BERT使用的是Transformer中的层归一化方法,即在每个Transformer编码层中应用Layer Normalization。
  2. GPT(Generative Pre-trained Transformer):GPT系列模型通常使用的是GPT-Norm,它是一种变种的层归一化方法。GPT-Norm在每个Transformer解码层的每个子层(自注意力、前馈神经网络)之后应用Layer Normalization。
  3. XLNet:XLNet使用的是两种不同的层归一化方法,即Token-wise层归一化和Segment-wise层归一化。Token-wise层归一化是在每个Transformer编码层中应用Layer Normalization,而Segment-wise层归一化是在每个Transformer解码层的自注意力机制之后应用Layer Normalization。
  4. RoBERTa:RoBERTa是对BERT模型的改进,它也使用的是Transformer中的层归一化方法,即在每个Transformer编码层中应用Layer Normalization。

需要注意的是,虽然这些大语言模型使用了不同的层归一化方法,但它们的目的都是为了提高模型的训练效果和泛化能力。具体选择哪种层归一化方法取决于模型的设计和任务的需求。

LLM 激活函数
  • [[#1 介绍一下 FFN 块 计算公式?]]
  • [[#2 介绍一下 GeLU 计算公式?]]
  • [[#3 介绍一下 Swish 计算公式?]]
  • [[#4 介绍一下 使用 GLU 线性门控单元的 FFN 块 计算公式?]]
  • [[#5 介绍一下 使用 GeLU 的 GLU 块 计算公式?]]
  • [[#6 介绍一下 使用 Swish 的 GLU 块 计算公式?]]
  • [[#各LLMs 都使用哪种激活函数?]]
1 介绍一下 FFN 块 计算公式?

FFN(Feed-Forward Network)块是Transformer模型中的一个重要组成部分,用于对输入数据进行非线性变换。它由两个全连接层(即前馈神经网络)和一个激活函数组成。下面是FFN块的计算公式:

假设输入是一个向量 x,FFN块的计算过程如下:

  1. 第一层全连接层(线性变换): 其中,W1 是第一层全连接层的权重矩阵,b1 是偏置向量。
  2. 激活函数: 其中,g() 是激活函数,常用的激活函数有ReLU(Rectified Linear Unit)等。
  3. 第二层全连接层(线性变换): 其中,W2 是第二层全连接层的权重矩阵,b2 是偏置向量。

在Transformer模型中,FFN块通常被应用在每个Transformer编码层的每个位置上,用于对位置编码的向量进行非线性变换。这样可以增加模型的表达能力,提高对输入数据的建模能力。

需要注意的是,上述公式中的 W1、b1、W2、b2 是FFN块的可学习参数,它们会通过训练过程进行学习和更新。

2 介绍一下 GeLU 计算公式?

GeLU(Gaussian Error Linear Unit)是一种激活函数,常用于神经网络中的非线性变换。它在Transformer模型中广泛应用于FFN(Feed-Forward Network)块。下面是GeLU的计算公式:

假设输入是一个标量 x,GeLU的计算公式如下:

img

其中,tanh() 是双曲正切函数,sqrt() 是平方根函数,pi 是圆周率。

GeLU函数的特点是在接近零的区域表现得类似于线性函数,而在远离零的区域则表现出非线性的特性。相比于其他常用的激活函数(如ReLU),GeLU函数在某些情况下能够提供更好的性能和更快的收敛速度。

需要注意的是,GeLU函数的计算复杂度较高,可能会增加模型的计算开销。因此,在实际应用中,也可以根据具体情况选择其他的激活函数来代替GeLU函数。

3 介绍一下 Swish 计算公式?

Swish是一种激活函数,它在深度学习中常用于神经网络的非线性变换。Swish函数的计算公式如下:

img

其中,sigmoid() 是Sigmoid函数,x 是输入,beta 是一个可调节的超参数。

Swish函数的特点是在接近零的区域表现得类似于线性函数,而在远离零的区域则表现出非线性的特性。相比于其他常用的激活函数(如ReLU、tanh等),Swish函数在某些情况下能够提供更好的性能和更快的收敛速度。

Swish函数的设计灵感来自于自动搜索算法,它通过引入一个可调节的超参数来增加非线性程度。当beta为0时,Swish函数退化为线性函数;当beta趋近于无穷大时,Swish函数趋近于ReLU函数。

需要注意的是,Swish函数相对于其他激活函数来说计算开销较大,因为它需要进行Sigmoid运算。因此,在实际应用中,也可以根据具体情况选择其他的激活函数来代替Swish函数。

4 介绍一下 使用 GLU 线性门控单元的 FFN 块 计算公式?

使用GLU(Gated Linear Unit)线性门控单元的FFN(Feed-Forward Network)块是Transformer模型中常用的结构之一。它通过引入门控机制来增强模型的非线性能力。下面是使用GLU线性门控单元的FFN块的计算公式:

假设输入是一个向量 x,GLU线性门控单元的计算公式如下:

img (1)

其中,sigmoid() 是Sigmoid函数, 是一个可学习的权重矩阵。

在公式(1)中,首先将输入向量 x 通过一个全连接层(线性变换)得到一个与 x 维度相同的向量,然后将该向量通过Sigmoid函数进行激活。这个Sigmoid函数的输出称为门控向量,用来控制输入向量 x 的元素是否被激活。最后,将门控向量与输入向量 x 逐元素相乘,得到最终的输出向量。

GLU线性门控单元的特点是能够对输入向量进行选择性地激活,从而增强模型的表达能力。它在Transformer模型的编码器和解码器中广泛应用,用于对输入向量进行非线性变换和特征提取。

需要注意的是,GLU线性门控单元的计算复杂度较高,可能会增加模型的计算开销。因此,在实际应用中,也可以根据具体情况选择其他的非线性变换方式来代替GLU线性门控单元。

5 介绍一下 使用 GeLU 的 GLU 块 计算公式?

介绍一下 使用 GeLU 作为激活函数的 GLU 块 计算公式?

使用GeLU作为激活函数的GLU块的计算公式如下:

img

其中,GeLU() 是Gaussian Error Linear Unit的激活函数,W_1 是一个可学习的权重矩阵。

在公式(1)中,首先将输入向量 x 通过一个全连接层(线性变换)得到一个与 x 维度相同的向量,然后将该向量作为输入传递给GeLU激活函数进行非线性变换。最后,将GeLU激活函数的输出与输入向量 x 逐元素相乘,得到最终的输出向量。

GeLU激活函数的计算公式如下:

img

其中,tanh() 是双曲正切函数,sqrt() 是平方根函数,pi 是圆周率。

在公式(2)中,GeLU函数首先对输入向量 x 进行一个非线性变换,然后通过一系列的数学运算得到最终的输出值。

使用GeLU作为GLU块的激活函数可以增强模型的非线性能力,并在某些情况下提供更好的性能和更快的收敛速度。这种结构常用于Transformer模型中的编码器和解码器,用于对输入向量进行非线性变换和特征提取。

需要注意的是,GLU块和GeLU激活函数是两个不同的概念,它们在计算公式和应用场景上有所区别。在实际应用中,可以根据具体情况选择合适的激活函数来代替GeLU或GLU。

6 介绍一下 使用 Swish 的 GLU 块 计算公式?

介绍一下 使用 Swish 作为激活函数的 GLU 块 计算公式?

使用Swish作为激活函数的GLU块的计算公式如下:

img

其中,sigmoid() 是Sigmoid函数,W_1 是一个可学习的权重矩阵。

在公式(1)中,首先将输入向量 x 通过一个全连接层(线性变换)得到一个与 x 维度相同的向量,然后将该向量通过Sigmoid函数进行激活。这个Sigmoid函数的输出称为门控向量,用来控制输入向量 x 的元素是否被激活。最后,将门控向量与输入向量 x 逐元素相乘,得到最终的输出向量。

Swish激活函数的计算公式如下:

img

其中,sigmoid() 是Sigmoid函数,beta 是一个可学习的参数。

在公式(2)中,Swish函数首先对输入向量 x 进行一个非线性变换,然后通过Sigmoid函数进行激活,并将该激活结果与输入向量 x 逐元素相乘,得到最终的输出值。

使用Swish作为GLU块的激活函数可以增强模型的非线性能力,并在某些情况下提供更好的性能和更快的收敛速度。GLU块常用于Transformer模型中的编码器和解码器,用于对输入向量进行非线性变换和特征提取。

需要注意的是,GLU块和Swish激活函数是两个不同的概念,它们在计算公式和应用场景上有所区别。在实际应用中,可以根据具体情况选择合适的激活函数来代替Swish或GLU。

img

以下文章来源于知乎:包包算法笔记

作者:jackaduma

链接:https://mp.weixin.qq.com/s/ktZEDVytrhulry5sRTpN9A

本文仅用于学术分享,如有侵权,请联系后台作删文处理

img

导读

自ChatGPT开启大模型时代以来,大模型正迎来飞速发展,现在从事大模型开发相关工作可谓是处在时代的风口。那么大模型面试需要哪些技能和技巧呢,本文详细整理了全套的面试问题及答案,希望对大家有所帮助!

前面部分传送门:

大模型最全八股和答案(上):点击查看

大模型最全八股和答案(中):点击查看

目录

  • 大模型(LLMs)基础面
  • 1. 目前 主流的开源模型体系 有哪些?
  • 2. prefix LM 和 causal LM 区别是什么?
  • 3. 涌现能力是啥原因?
  • 4. 大模型LLM的架构介绍?
  • 大模型(LLMs)进阶面
  • 1. llama 输入句子长度理论上可以无限长吗?
  • 1. 什么是 LLMs 复读机问题?
  • 2. 为什么会出现 LLMs 复读机问题?
  • 3. 如何缓解 LLMs 复读机问题?
  • 1. LLMs 复读机问题
  • 2. llama 系列问题
  • 3. 什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
  • 4. 各个专业领域是否需要各自的大模型来服务?
  • 5. 如何让大模型处理更长的文本?
  • 大模型(LLMs)微调面
  • 1. 如果想要在某个模型基础上做全参数微调,究竟需要多少显存?
  • 2. 为什么SFT之后感觉LLM傻了?
  • 3. SFT 指令微调数据 如何构建?
  • 4. 领域模型Continue PreTrain 数据选取?
  • 5. 领域数据训练后,通用能力往往会有所下降,如何缓解模型遗忘通用能力?
  • 6. 领域模型Continue PreTrain ,如何 让模型在预训练过程中就学习到更多的知识?
  • 7. 进行SFT操作的时候,基座模型选用Chat还是Base?
  • 8. 领域模型微调 指令&数据输入格式 要求?
  • 9. 领域模型微调 领域评测集 构建?
  • 10. 领域模型词表扩增是不是有必要的?
  • 11. 如何训练自己的大模型?
  • 12. 训练中文大模型有啥经验?
  • 13. 指令微调的好处?
  • 14. 预训练和微调哪个阶段注入知识的?
  • 15. 想让模型学习某个领域或行业的知识,是应该预训练还是应该微调?
  • 16. 多轮对话任务如何微调模型?
  • 17. 微调后的模型出现能力劣化,灾难性遗忘是怎么回事?
  • 18. 微调模型需要多大显存?
  • 19. 大模型LLM进行SFT操作的时候在学习什么?
  • 20. 预训练和SFT操作有什么不同
  • 21. 样本量规模增大,训练出现OOM错
  • 22. 大模型LLM进行SFT 如何对样本进行优化?
  • 23. 模型参数迭代实验
  • 大模型(LLMs)langchain面
  • 1. 基于LLM+向量库的文档对话 基础面
  • 2. 基于LLM+向量库的文档对话 优化面
  • 3. 基于LLM+向量库的文档对话 工程示例面
  • 1. LLMs 存在模型幻觉问题,请问如何处理?
  • 2. 基于LLM+向量库的文档对话 思路是怎么样?
  • 3. 基于LLM+向量库的文档对话 核心技术是什么?
  • 4. 基于LLM+向量库的文档对话 prompt 模板 如何构建?
  • 1. 痛点1:文档切分粒度不好把控,既担心噪声太多又担心语义信息丢失
  • 2. 痛点2:在基于垂直领域 表现不佳
  • 3. 痛点3:langchain 内置 问答分句效果不佳问题
  • 4. 痛点4:如何 尽可能召回与query相关的Document 问题
  • 5. 痛点5:如何让LLM基于query和context得到高质量的response
  • 1. 避坑记录
  • 2. 本地知识库问答系统(Langchain-chatGLM)
  • 1. 什么是 LangChain?
  • 2. LangChain 包含哪些 核心概念?
  • 3. 什么是 LangChain Agent?
  • 4. 如何使用 LangChain ?
  • 5. LangChain 支持哪些功能?
  • 6. 什么是 LangChain model?
  • 7. LangChain 包含哪些特点?
  • 8. LangChain 如何使用?
  • 9. LangChain 存在哪些问题及方法方案?
  • 10. LangChain 替代方案?
  • 1. LangChain 中 Components and Chains 是什么?
  • 2. LangChain 中 Prompt Templates and Values 是什么?
  • 3. LangChain 中 Example Selectors 是什么?
  • 4. LangChain 中 Output Parsers 是什么?
  • 5. LangChain 中 Indexes and Retrievers 是什么?
  • 6. LangChain 中 Chat Message History 是什么?
  • 7. LangChain 中 Agents and Toolkits 是什么?
  • 1. LangChain 如何调用 LLMs 生成回复?
  • 2. LangChain 如何修改 提示模板?
  • 3. LangChain 如何链接多个组件处理一个特定的下游任务?
  • 4. LangChain 如何Embedding & vector store?
  • 1. LangChain 低效的令牌使用问题
  • 2. LangChain 文档的问题
  • 3. LangChain 太多概念容易混淆,过多的“辅助”函数问题
  • 4. LangChain 行为不一致并且隐藏细节问题
  • 5. LangChain 缺乏标准的可互操作数据类型问题
  • 大模型(LLMs)langchain 面
  • 基于LLM+向量库的文档对话 经验面
  • 大模型(LLMs)参数高效微调(PEFT) 面
  • 一、LoRA篇
  • 二、QLoRA篇
  • 三、AdaLoRA篇
  • 四、LoRA权重是否可以合入原模型?
  • 五、ChatGLM-6B LoRA后的权重多大?
  • 六、LoRA 微调优点是什么?
  • 七、LoRA微调方法为啥能加速训练?
  • 八、如何在已有LoRA模型上继续训练?
  • 1.1 什么是 LoRA?
  • 1.2 LoRA 的思路是什么?
  • 1.3 LoRA 的特点是什么?
  • 2.1 QLoRA 的思路是怎么样的?
  • 2.2 QLoRA 的特点是什么?
  • 3.1 AdaLoRA 的思路是怎么样的?
  • 一、为什么需要 提示学习(Prompting)?
  • 二、什么是 提示学习(Prompting)?
  • 三、提示学习(Prompting) 有什么优点?
  • 四、提示学习(Prompting)有哪些方法,能不能稍微介绍一下它们间?
  • 4.4.1 为什么需要 P-tuning v2?
  • 4.4.2 P-tuning v2 思路是什么?
  • 4.4.3 P-tuning v2 优点是什么?
  • 4.4.4 P-tuning v2 缺点是什么?
  • 4.3.1 为什么需要 P-tuning?
  • 4.3.2 P-tuning 思路是什么?
  • 4.3.3 P-tuning 优点是什么?
  • 4.3.4 P-tuning 缺点是什么?
  • 4.2.1 为什么需要 指示微调(Prompt-tuning)?
  • 4.2.2 指示微调(Prompt-tuning)思路是什么?
  • 4.2.3 指示微调(Prompt-tuning)优点是什么?
  • 4.2.4 指示微调(Prompt-tuning)缺点是什么?
  • 4.2.5 指示微调(Prompt-tuning)与 Prefix-tuning 区别 是什么?
  • 4.2.6 指示微调(Prompt-tuning)与 fine-tuning 区别 是什么?
  • 4.1.1 为什么需要 前缀微调(Prefix-tuning)?
  • 4.1.2 前缀微调(Prefix-tuning)思路是什么?
  • 4.1.3 前缀微调(Prefix-tuning)的优点是什么?
  • 4.1.4 前缀微调(Prefix-tuning)的缺点是什么?
  • 4.1 前缀微调(Prefix-tuning)篇
  • 4.2 指示微调(Prompt-tuning)篇
  • 4.3 P-tuning 篇
  • 4.4 P-tuning v2 篇
  • 一、为什么 需要 适配器微调(Adapter-tuning)?
  • 二、适配器微调(Adapter-tuning)思路?
  • 三、 适配器微调(Adapter-tuning)特点是什么?
  • 四、AdapterFusion 思路 是什么?
  • 五、AdapterDrop 思路 是什么?
  • 六、AdapterDrop 特点 是什么?
  • 七、MAM Adapter 思路 是什么?
  • 八、MAM Adapter 特点 是什么?
  • 微调方法是啥?如何微调?
  • 为什么需要 PEFT?
  • 介绍一下 PEFT?
  • PEFT 有什么优点?
  • 微调方法批处理大小模式GPU显存速度?
  • Peft 和 全量微调区别?
  • 多种不同的高效微调方法对比
  • 当前高效微调技术存在的一些问题
  • 高效微调技术最佳实践
  • PEFT 存在问题?
  • 能不能总结一下各种参数高效微调方法?
  • 大模型(LLMs)参数高效微调(PEFT) 面
  • 适配器微调(Adapter-tuning)篇
  • 提示学习(Prompting)
  • LoRA 系列篇
  • 大模型(LLMs)推理面
  • 1. 为什么大模型推理时显存涨的那么多还一直占着?
  • 2. 大模型在gpu和cpu上推理速度如何?
  • 3. 推理速度上,int8和fp16比起来怎么样?
  • 4. 大模型有推理能力吗?
  • 5. 大模型生成时的参数怎么设置?
  • 6. 有哪些省内存的大语言模型训练/微调/推理方法?
  • 7. 如何让大模型输出合规化
  • 8. 应用模式变更
  • 大模型(LLMs)评测面
  • 大模型怎么评测?
  • 大模型的honest原则是如何实现的?
  • 模型如何判断回答的知识是训练过的已知的知识,怎么训练这种能力?
  • 大模型(LLMs)强化学习面
  • 奖励模型需要和基础模型一致吗?
  • RLHF 在实践过程中存在哪些不足?
  • 如何解决 人工产生的偏好数据集成本较高,很难量产问题?
  • 如何解决三个阶段的训练(SFT->RM->PPO)过程较长,更新迭代较慢问题?
  • 如何解决 PPO 的训练过程同时存在4个模型(2训练,2推理),对计算资源的要求较高 问题?
  • 大模型(LLMs)软硬件配置面
  • 大模型(LLMs)训练集面
  • SFT(有监督微调)的数据集格式?
  • RM(奖励模型)的数据格式?
  • PPO(强化学习)的数据格式?
  • 找数据集哪里找?
  • 微调需要多少条数据?
  • 有哪些大模型的训练集?
  • 进行领域大模型预训练应用哪些数据集比较好?
  • 大模型(LLMs)显存问题面
  • 大模型(LLMs)分布式训练面
  • 大模型(LLMs)agent 面
  • 如何给LLM注入领域知识?
  • 如果想要快速体验各种模型,该怎么办?
  • Token及模型参数准备篇
  • 预训练数据 Token 重复 是否影响 模型性能?
  • SFT需要训练Token数?
  • LLMs 位置编码篇
  • 6.1 ALiBi (Attention with Linear Biases) 思路是什么?
  • 6.2 ALiBi (Attention with Linear Biases) 的偏置矩阵是什么?有什么作用?
  • 6.3 ALiBi (Attention with Linear Biases) 有什么优点?
  • 6.4 ALiBi (Attention with Linear Biases) 被哪些 LLMs 应用?
  • 5.1 什么是 长度外推问题?
  • 5.2 长度外推问题 的 解决方法 有哪些?
  • 4.1 旋转位置编码 RoPE 思路是什么?
  • 4.2 推导一下 旋转位置编码 RoPE ?
  • 4.3 旋转位置编码 RoPE 有什么优点?
  • 4.4 旋转位置编码 RoPE 被哪些 LLMs 应用?
  • 1 什么是位置编码?
  • 2 什么是绝对位置编码?
  • 3 什么是相对位置编码?
  • 4 旋转位置编码 RoPE篇
  • 5 长度外推问题篇
  • 6 ALiBi (Attention with Linear Biases)篇
  • LLMs Tokenizer 篇
  • Byte-Pair Encoding(BPE)篇
  • WordPiece 篇
  • SentencePiece 篇
  • 对比篇
  • 1 Byte-Pair Encoding(BPE) 如何构建词典?
  • 1 WordPiece 与 BPE 异同点是什么?
  • 简单介绍一下 SentencePiece 思路?
  • 1 举例 介绍一下 不同 大模型LLMs 的分词方式?
  • 2 介绍一下 不同 大模型LLMs 的分词方式 的区别?
  • LLMs Tokenizer 篇
  • Layer Normalization 篇
  • LLMs 各模型分别用了 哪种 Layer normalization?
  • 1 LN 在 LLMs 中的不同位置 有什么区别么?如果有,能介绍一下区别么?
  • Layer Norm 篇
  • RMS Norm 篇 (均方根 Norm)
  • Deep Norm 篇
  • Deep Norm 有什么优点?
  • Layer Norm 的计算公式写一下?
  • RMS Norm 的计算公式写一下?
  • RMS Norm 相比于 Layer Norm 有什么特点?
  • Deep Norm 思路?
  • 写一下 Deep Norm 代码实现?
  • Layer normalization-方法篇
  • Layer normalization-位置篇
  • Layer normalization 对比篇

答案

前部分传送门:大模型最全八股和答案(上)大模型最全八股和答案(中)

LLMs Tokenizer 篇
  • Byte-Pair Encoding(BPE)篇

  • 1 Byte-Pair Encoding(BPE) 如何构建词典?

    💡

    Byte-Pair Encoding(BPE)是一种常用的无监督分词方法,用于将文本分解为子词或字符级别的单位。BPE的词典构建过程如下:

    最终得到的词典即为BPE的词典。通过BPE算法,可以将文本分解为多个子词,其中一些子词可能是常见的词汇,而其他子词则是根据输入文本的特点生成的。这种方式可以更好地处理未登录词和稀有词,并提高模型对复杂词汇和短语的处理能力。

  1. 初始化词典:将每个字符视为一个初始的词。例如,对于输入文本"hello world",初始词典可以包含{‘h’, ‘e’, ‘l’, ‘o’, ‘w’, ‘r’, ‘d’}。
  2. 统计词频:对于每个词,统计其在文本中的频率。例如,在"hello world"中,'h’出现1次,'e’出现1次,'l’出现3次,'o’出现2次,'w’出现1次,'r’出现1次,'d’出现1次。
  3. 合并频率最高的词对:在每次迭代中,选择频率最高的词对进行合并。合并的方式是将两个词连接起来,并用一个特殊的符号(如"_“)分隔。例如,在初始词典中,选择频率最高的词对"l"和"l”,将它们合并为"ll",更新词典为{‘h’, ‘e’, ‘ll’, ‘o’, ‘w’, ‘r’, ‘d’}。
  4. 更新词频:更新合并后的词频。对于合并的词,统计其在文本中的频率。例如,在"hello world"中,'h’出现1次,'e’出现1次,'ll’出现3次,'o’出现2次,'w’出现1次,'r’出现1次,'d’出现1次。
  5. 重复步骤3和4:重复步骤3和4,直到达到预设的词典大小或者满足其他停止条件。每次迭代都会合并频率最高的词对,并更新词频。
  • WordPiece 篇

  • 1 WordPiece 与 BPE 异同点是什么?

    💡

    WordPiece和BPE(Byte-Pair Encoding)都是常用的无监督分词方法,它们有一些相似之处,但也存在一些差异。

  • 总体而言,WordPiece和BPE都是有效的分词方法,选择使用哪种方法取决于具体的任务需求和语料特点。

  1. 分词目标:WordPiece和BPE都旨在将文本分解为子词或字符级别的单位,以便更好地处理未登录词和稀有词,提高模型对复杂词汇和短语的处理能力。
  2. 无监督学习:WordPiece和BPE都是无监督学习方法,不需要依赖外部的标注数据,而是通过分析输入文本自动构建词典。
  3. 拆分策略:WordPiece采用贪婪的自顶向下的拆分策略,将词汇表中的词分解为更小的子词。它使用最大似然估计来确定最佳的分割点,并通过词频来更新词典。BPE则采用自底向上的拆分策略,通过合并频率最高的词对来构建词典。它使用词频来选择合并的词对,并通过更新词频来更新词典。
  4. 分割粒度:WordPiece通常将词分解为更小的子词,例如将"running"分解为"run"和"##ning"。这些子词通常以"##"前缀表示它们是一个词的一部分。BPE则将词分解为更小的子词或字符级别的单位。它不使用特殊的前缀或后缀来表示子词。
  5. 处理未登录词:WordPiece和BPE在处理未登录词时有所不同。WordPiece通常将未登录词分解为更小的子词,以便模型可以更好地处理它们。而BPE则将未登录词作为单独的词处理,不进行进一步的拆分。
  • SentencePiece 篇

  • 简单介绍一下 SentencePiece 思路?

    💡

    SentencePiece是一种基于BPE算法的分词工具,旨在将文本分解为子词或字符级别的单位。与传统的BPE算法不同,SentencePiece引入了一种更灵活的训练方式,可以根据不同任务和语料库的需求进行自定义。

    SentencePiece的思路如下:

    通过SentencePiece,可以根据不同任务和语料库的需求,自定义分词模型。它可以更好地处理未登录词和稀有词,提高模型对复杂词汇和短语的处理能力。同时,SentencePiece还支持多种语言和编码方式,可以广泛应用于自然语言处理任务中。

  1. 初始化词典:将每个字符视为一个初始的词。例如,对于输入文本"hello world",初始词典可以包含{‘h’, ‘e’, ‘l’, ‘o’, ‘w’, ‘r’, ‘d’}。
  2. 统计词频:对于每个词,统计其在文本中的频率。例如,在"hello world"中,'h’出现1次,'e’出现1次,'l’出现3次,'o’出现2次,'w’出现1次,'r’出现1次,'d’出现1次。
  3. 合并频率最高的词对:在每次迭代中,选择频率最高的词对进行合并。合并的方式是将两个词连接起来,并用一个特殊的符号(如"_“)分隔。例如,在初始词典中,选择频率最高的词对"l"和"l”,将它们合并为"ll",更新词典为{‘h’, ‘e’, ‘ll’, ‘o’, ‘w’, ‘r’, ‘d’}。
  4. 更新词频:更新合并后的词频。对于合并的词,统计其在文本中的频率。例如,在"hello world"中,'h’出现1次,'e’出现1次,'ll’出现3次,'o’出现2次,'w’出现1次,'r’出现1次,'d’出现1次。
  5. 重复步骤3和4:重复步骤3和4,直到达到预设的词典大小或者满足其他停止条件。每次迭代都会合并频率最高的词对,并更新词频。
  6. 训练模型:根据得到的词典,训练一个分词模型。模型可以根据需求选择将文本分解为子词或字符级别的单位。
  • 对比篇

    LayerNormalization
  • 1 举例 介绍一下 不同 大模型LLMs 的分词方式?

    💡

    大模型语言模型(Large Language Models,LLMs)通常采用不同的分词方式,这些方式可以根据任务和语料库的不同进行调整。以下是一些常见的大模型LLMs的分词方式的举例:

    需要注意的是,不同的大模型LLMs可能采用不同的分词方式,甚至在同一个模型中,可以根据任务和语料库的需求进行调整。这些分词方式的选择会对模型的性能和效果产生影响,因此需要根据具体情况进行选择和调整。

  • 2 介绍一下 不同 大模型LLMs 的分词方式 的区别?

    💡

    不同的大模型LLMs(Language Models)在分词方式上可能存在一些区别。以下是一些常见的分词方式及其区别:

    需要注意的是,不同的大模型LLMs可能在分词方式上有所差异,具体的实现和效果可能因模型的结构、训练数据和任务设置而有所不同。选择适合特定任务和语言的分词方式是很重要的。

  1. 基于规则的分词:这种分词方式使用预定义的规则和模式来切分文本。例如,可以使用空格、标点符号或特定的字符来确定词语的边界。这种方法简单直接,但对于复杂的语言和文本结构可能不够准确。
  2. 基于统计的分词:这种分词方式使用统计模型来确定词语的边界。通常会使用大量的标注数据来训练模型,并根据词语的频率和上下文来进行切分。这种方法相对准确,但对于未见过的词语或特定领域的术语可能不够准确。
  3. 基于深度学习的分词:这种分词方式使用深度学习模型,如循环神经网络(RNN)或Transformer模型,来进行分词。这些模型可以学习文本的上下文信息,并根据语义和语法规则来进行切分。这种方法可以处理复杂的语言结构和未见过的词语,但需要大量的训练数据和计算资源。
  4. 基于预训练模型的分词:最近的研究表明,使用预训练的语言模型,如BERT、GPT等,可以在分词任务上取得很好的效果。这些模型在大规模的文本数据上进行预训练,并能够学习到丰富的语言表示。在具体的分词任务中,可以通过在预训练模型上进行微调来进行分词。这种方法具有较高的准确性和泛化能力。
  5. 基于词典的分词:这是最常见的分词方式之一,使用一个预先构建好的词典来将文本分解为单词。例如,BERT模型使用WordPiece分词器,将文本分解为词片段(subword units),并在词典中查找匹配的词片段。
  6. 基于字符的分词:这种方式将文本分解为单个字符或者字符级别的单位。例如,GPT模型使用字节对编码(Byte Pair Encoding,BPE)算法,将文本分解为字符或字符片段。
  7. 基于音节的分词:对于一些语言,特别是拼音文字系统,基于音节的分词方式更为常见。这种方式将文本分解为音节或音节级别的单位。例如,对于中文,可以使用基于音节的分词器将文本分解为音节。
  8. 基于规则的分词:有些语言具有明确的分词规则,可以根据这些规则将文本分解为单词。例如,日语中的分词可以基于汉字辞书或者语法规则进行。
  9. 基于统计的分词:这种方式使用统计模型来判断文本中的分词边界。例如,隐马尔可夫模型(Hidden Markov Model,HMM)可以通过训练来预测最可能的分词边界。
  • [[#Layer normalization-方法篇|Layer normalization-方法篇]]
  • [[#Deep Norm 篇#Deep Norm 思路?|Deep Norm 思路?]]
  • [[#Deep Norm 篇#写一下 Deep Norm 代码实现?|写一下 Deep Norm 代码实现?]]
  • [[#RMS Norm 篇 (均方根 Norm)#RMS Norm 的计算公式写一下?|RMS Norm 的计算公式写一下?]]
  • [[#RMS Norm 篇 (均方根 Norm)#RMS Norm 相比于 Layer Norm 有什么特点?|RMS Norm 相比于 Layer Norm 有什么特点?]]
  • [[#Layer Norm 篇#Layer Norm 的计算公式写一下?|Layer Norm 的计算公式写一下?]]
  • [[#Layer normalization-方法篇#Layer Norm 篇|Layer Norm 篇]]
  • [[#Layer normalization-方法篇#RMS Norm 篇 (均方根 Norm)|RMS Norm 篇 (均方根 Norm)]]
  • [[#Layer normalization-方法篇#Deep Norm 篇|Deep Norm 篇]]
  • [[#Layer normalization-方法篇#Deep Norm 有什么优点?|Deep Norm 有什么优点?]]
  • [[#Layer normalization-位置篇|Layer normalization-位置篇]]
  • [[#Layer normalization-位置篇#1 LN 在 LLMs 中的不同位置 有什么区别么?如果有,能介绍一下区别么?|1 LN 在 LLMs 中的不同位置 有什么区别么?如果有,能介绍一下区别么?]]
  • [[#Layer normalization 对比篇|Layer normalization 对比篇]]
  • [[#Layer normalization 对比篇#LLMs 各模型分别用了 哪种 Layer normalization?|LLMs 各模型分别用了 哪种 Layer normalization?]]
Layer normalization-方法篇
Layer Norm 篇
Layer Norm 的计算公式写一下?

Layer Norm(层归一化)是一种用于神经网络中的归一化技术,用于提高模型的训练效果和泛化能力。其计算公式如下:

给定输入 ,其维度为 ,Layer Norm 的计算公式为:

img

其中, 是 沿最后一个维度的均值, 是 沿最后一个维度的标准差, 和 是可学习的缩放因子和偏置项。 表示逐元素相乘。

具体计算过程如下:

  1. 计算均值 : img
  2. 计算标准差 : img
  3. 计算归一化的 :
  4. 计算缩放因子和偏置项:

其中, 和 是可学习的参数,可以通过反向传播进行训练。

Layer Norm 的作用是将每个样本的特征进行归一化,使得特征在不同样本之间具有相似的分布,有助于提高模型的训练效果和泛化能力。

RMS Norm 篇 (均方根 Norm)
RMS Norm 的计算公式写一下?

RMS Norm(均方根归一化)是一种用于神经网络中的归一化技术,用于提高模型的训练效果和泛化能力。其计算公式如下:

给定输入 ,其维度为 ,RMS Norm 的计算公式为:

img

其中, 是一个小的常数,用于避免分母为零。

具体计算过程如下:

  1. 计算 的平方:
  2. 计算平方的均值: img
  3. 计算归一化的 :

RMS Norm 的作用是通过计算输入 的均方根,将每个样本的特征进行归一化,使得特征在不同样本之间具有相似的尺度,有助于提高模型的训练效果和泛化能力。

RMS Norm 相比于 Layer Norm 有什么特点?

RMS Norm(Root Mean Square Norm)和 Layer Norm 是两种常用的归一化方法,它们在实现上有一些不同之处。

  1. 计算方式:RMS Norm 是通过计算输入数据的平方均值的平方根来进行归一化,而 Layer Norm 是通过计算输入数据在每个样本中的平均值和方差来进行归一化。
  2. 归一化范围:RMS Norm 是对整个输入数据进行归一化,而 Layer Norm 是对每个样本进行归一化。
  3. 归一化位置:RMS Norm 通常应用于循环神经网络(RNN)中的隐藏状态,而 Layer Norm 通常应用于卷积神经网络(CNN)或全连接层中。
  4. 归一化效果:RMS Norm 在处理长序列数据时可能会出现梯度消失或梯度爆炸的问题,而 Layer Norm 能够更好地处理这些问题。

综上所述,RMS Norm 和 Layer Norm 在计算方式、归一化范围、归一化位置和归一化效果等方面存在一些差异,适用于不同的神经网络结构和任务。选择哪种归一化方法应根据具体情况进行评估和选择。

Deep Norm 篇
Deep Norm 思路?

Deep Norm 是一种基于归一化的深度学习模型优化方法,其思路是通过在深度神经网络中引入多层归一化操作,以改善模型的训练和泛化性能。

Deep Norm 的主要思想是在网络的每一层之间插入归一化层,以减小输入数据的分布差异,从而加速收敛并提高模型的泛化能力。与传统的批归一化(Batch Normalization)不同,Deep Norm 在每一层都进行归一化,而不是仅在特定层进行。

Deep Norm 的具体步骤如下:

  1. 输入数据:将输入数据传递给网络的第一层。
  2. 归一化层:在网络的每一层之间插入归一化层。归一化层的作用是将每层的输入数据进行归一化,使其均值为0,方差为1。这可以减小数据的分布差异,有助于提高模型的稳定性和泛化性能。
  3. 激活函数:在归一化层之后应用激活函数,以引入非线性变换。
  4. 下一层:将经过归一化和激活函数处理的数据传递给网络的下一层。

通过在每一层引入归一化操作,Deep Norm 可以有效地解决深度神经网络中的梯度消失和梯度爆炸问题,并提高模型的收敛速度和泛化性能。此外,Deep Norm 还可以减少对学习率的敏感性,使得模型更容易优化。

需要注意的是,Deep Norm 需要在训练过程中对每一层的均值和方差进行估计,可以使用滑动平均等方法来更新归一化层的参数。在测试阶段,可以使用训练阶段估计的均值和方差进行归一化。

总而言之,Deep Norm 是一种通过在深度神经网络中引入多层归一化操作来优化模型的方法,可以改善模型的训练和泛化性能。

写一下 Deep Norm 代码实现?

Deep Norm 的代码实现可以基于 PyTorch 框架来完成。以下是一个简单的 Deep Norm 的代码示例:

import torch  
import torch.nn as nn  
  
class DeepNorm(nn.Module):  
   def \_\_init\_\_(self, input\_dim, hidden\_dims, output\_dim):  
    super(DeepNorm, self).\_\_init\_\_()  
   
    self.layers = nn.ModuleList()  
    self.norm\_layers = nn.ModuleList()  
    
    # 添加隐藏层和归一化层  
  for i, hidden\_dim in enumerate(hidden\_dims):  
   self.layers.append(nn.Linear(input\_dim, hidden\_dim))  
   self.norm\_layers.append(nn.LayerNorm(hidden\_dim))  
   input\_dim = hidden\_dim  
  
  # 添加输出层  
  self.output\_layer = nn.Linear(input\_dim, output\_dim)  
              
    def forward(self, x):  
  for layer, norm\_layer in zip(self.layers, self.norm\_layers):  
   x = layer(x)  
   x = norm\_layer(x)  
   x = torch.relu(x)  
  
  x = self.output\_layer(x)  
  return x  
              
# 创建一个 DeepNorm 模型实例  
input\_dim = 100  
hidden\_dims = \[64, 32\]  
output\_dim = 10  
model = DeepNorm(input\_dim, hidden\_dims, output\_dim)  
  
# 使用模型进行训练和预测  
input\_data = torch.randn(32, input\_dim)  
output = model(input\_data)  



123456789101112131415161718192021222324252627282930313233343536373839404142

在这个示例中,我们定义了一个 DeepNorm 类,其中包含了多个隐藏层和归一化层。在 forward 方法中,我们依次对输入数据进行线性变换、归一化和激活函数处理,并通过输出层得到最终的预测结果。

需要注意的是,在实际使用中,可以根据具体任务的需求来调整模型的结构和参数设置。此外,还可以使用其他归一化方法,如 Layer Norm 或 Batch Norm,根据实际情况进行选择和实现。

Deep Norm 有什么优点?

Deep Norm 有以下几个优点:

  1. 改善梯度传播:Deep Norm 在每一层都引入了归一化操作,可以有效地解决深度神经网络中的梯度消失和梯度爆炸问题。通过减小输入数据的分布差异,Deep Norm 可以使得梯度更加稳定,并加速模型的收敛速度。
  2. 提高泛化能力:Deep Norm 的归一化操作有助于提高模型的泛化能力。归一化可以减小数据的分布差异,使得模型更容易学习到数据的共性特征,从而提高模型对未见数据的预测能力。
  3. 减少对学习率的敏感性:Deep Norm 的归一化操作可以减少对学习率的敏感性。通过将输入数据归一化到相同的尺度,Deep Norm 可以使得模型的训练更加稳定,减少了对学习率的调整需求。
  4. 网络结构更简洁:Deep Norm 可以将归一化操作嵌入到网络的每一层中,而不需要额外的归一化层。这使得网络结构更加简洁,减少了模型参数的数量,降低了计算和存储成本。
  5. 提高模型的可解释性:Deep Norm 的归一化操作可以使得模型的输出具有更好的可解释性。通过将输入数据归一化到均值为0,方差为1的范围内,Deep Norm 可以使得模型输出的数值更易于理解和解释。

综上所述,Deep Norm 通过引入多层归一化操作,可以改善梯度传播、提高泛化能力、减少对学习率的敏感性,同时还能简化网络结构和提高模型的可解释性。这些优点使得 Deep Norm 成为一种有效的深度学习模型优化方法。

Layer normalization-位置篇
1 LN 在 LLMs 中的不同位置 有什么区别么?如果有,能介绍一下区别么?

层归一化 Layer Norm 在 大语言模型 LLMs 中的不同位置 有什么区别么?如果有,能介绍一下区别么?

在大语言模型(Large Language Models)中,Layer Norm(层归一化)可以应用在不同位置,包括输入层、输出层和中间隐藏层。这些位置的归一化有一些区别:

  1. 输入层归一化:在输入层应用 Layer Norm 可以将输入的特征进行归一化,使得输入数据的分布更加稳定。这有助于减少不同样本之间的分布差异,提高模型的泛化能力。
  2. 输出层归一化:在输出层应用 Layer Norm 可以将输出结果进行归一化,使得输出结果的分布更加稳定。这有助于减小输出结果的方差,提高模型的稳定性和预测准确性。
  3. 中间隐藏层归一化:在中间隐藏层应用 Layer Norm 可以在每个隐藏层之间进行归一化操作,有助于解决深度神经网络中的梯度消失和梯度爆炸问题。通过减小输入数据的分布差异,Layer Norm 可以使得梯度更加稳定,并加速模型的收敛速度。

总的来说,Layer Norm 在大语言模型中的不同位置应用可以解决不同的问题。输入层归一化可以提高模型的泛化能力,输出层归一化可以提高模型的稳定性和预测准确性,而中间隐藏层归一化可以改善梯度传播,加速模型的收敛速度。具体应用 Layer Norm 的位置需要根据具体任务和模型的需求进行选择。

Layer normalization 对比篇
LLMs 各模型分别用了 哪种 Layer normalization?

不同的大语言模型(LLMs)可能会使用不同的层归一化方法,以下是一些常见的层归一化方法在大语言模型中的应用:

  1. BERT(Bidirectional Encoder Representations from Transformers):BERT使用的是Transformer中的层归一化方法,即在每个Transformer编码层中应用Layer Normalization。
  2. GPT(Generative Pre-trained Transformer):GPT系列模型通常使用的是GPT-Norm,它是一种变种的层归一化方法。GPT-Norm在每个Transformer解码层的每个子层(自注意力、前馈神经网络)之后应用Layer Normalization。
  3. XLNet:XLNet使用的是两种不同的层归一化方法,即Token-wise层归一化和Segment-wise层归一化。Token-wise层归一化是在每个Transformer编码层中应用Layer Normalization,而Segment-wise层归一化是在每个Transformer解码层的自注意力机制之后应用Layer Normalization。
  4. RoBERTa:RoBERTa是对BERT模型的改进,它也使用的是Transformer中的层归一化方法,即在每个Transformer编码层中应用Layer Normalization。

需要注意的是,虽然这些大语言模型使用了不同的层归一化方法,但它们的目的都是为了提高模型的训练效果和泛化能力。具体选择哪种层归一化方法取决于模型的设计和任务的需求。

LLM 激活函数
  • [[#1 介绍一下 FFN 块 计算公式?]]
  • [[#2 介绍一下 GeLU 计算公式?]]
  • [[#3 介绍一下 Swish 计算公式?]]
  • [[#4 介绍一下 使用 GLU 线性门控单元的 FFN 块 计算公式?]]
  • [[#5 介绍一下 使用 GeLU 的 GLU 块 计算公式?]]
  • [[#6 介绍一下 使用 Swish 的 GLU 块 计算公式?]]
  • [[#各LLMs 都使用哪种激活函数?]]
1 介绍一下 FFN 块 计算公式?

FFN(Feed-Forward Network)块是Transformer模型中的一个重要组成部分,用于对输入数据进行非线性变换。它由两个全连接层(即前馈神经网络)和一个激活函数组成。下面是FFN块的计算公式:

假设输入是一个向量 x,FFN块的计算过程如下:

  1. 第一层全连接层(线性变换): 其中,W1 是第一层全连接层的权重矩阵,b1 是偏置向量。
  2. 激活函数: 其中,g() 是激活函数,常用的激活函数有ReLU(Rectified Linear Unit)等。
  3. 第二层全连接层(线性变换): 其中,W2 是第二层全连接层的权重矩阵,b2 是偏置向量。

在Transformer模型中,FFN块通常被应用在每个Transformer编码层的每个位置上,用于对位置编码的向量进行非线性变换。这样可以增加模型的表达能力,提高对输入数据的建模能力。

需要注意的是,上述公式中的 W1、b1、W2、b2 是FFN块的可学习参数,它们会通过训练过程进行学习和更新。

2 介绍一下 GeLU 计算公式?

GeLU(Gaussian Error Linear Unit)是一种激活函数,常用于神经网络中的非线性变换。它在Transformer模型中广泛应用于FFN(Feed-Forward Network)块。下面是GeLU的计算公式:

假设输入是一个标量 x,GeLU的计算公式如下:

img

其中,tanh() 是双曲正切函数,sqrt() 是平方根函数,pi 是圆周率。

GeLU函数的特点是在接近零的区域表现得类似于线性函数,而在远离零的区域则表现出非线性的特性。相比于其他常用的激活函数(如ReLU),GeLU函数在某些情况下能够提供更好的性能和更快的收敛速度。

需要注意的是,GeLU函数的计算复杂度较高,可能会增加模型的计算开销。因此,在实际应用中,也可以根据具体情况选择其他的激活函数来代替GeLU函数。

3 介绍一下 Swish 计算公式?

Swish是一种激活函数,它在深度学习中常用于神经网络的非线性变换。Swish函数的计算公式如下:

img

其中,sigmoid() 是Sigmoid函数,x 是输入,beta 是一个可调节的超参数。

Swish函数的特点是在接近零的区域表现得类似于线性函数,而在远离零的区域则表现出非线性的特性。相比于其他常用的激活函数(如ReLU、tanh等),Swish函数在某些情况下能够提供更好的性能和更快的收敛速度。

Swish函数的设计灵感来自于自动搜索算法,它通过引入一个可调节的超参数来增加非线性程度。当beta为0时,Swish函数退化为线性函数;当beta趋近于无穷大时,Swish函数趋近于ReLU函数。

需要注意的是,Swish函数相对于其他激活函数来说计算开销较大,因为它需要进行Sigmoid运算。因此,在实际应用中,也可以根据具体情况选择其他的激活函数来代替Swish函数。

4 介绍一下 使用 GLU 线性门控单元的 FFN 块 计算公式?

使用GLU(Gated Linear Unit)线性门控单元的FFN(Feed-Forward Network)块是Transformer模型中常用的结构之一。它通过引入门控机制来增强模型的非线性能力。下面是使用GLU线性门控单元的FFN块的计算公式:

假设输入是一个向量 x,GLU线性门控单元的计算公式如下:

img (1)

其中,sigmoid() 是Sigmoid函数, 是一个可学习的权重矩阵。

在公式(1)中,首先将输入向量 x 通过一个全连接层(线性变换)得到一个与 x 维度相同的向量,然后将该向量通过Sigmoid函数进行激活。这个Sigmoid函数的输出称为门控向量,用来控制输入向量 x 的元素是否被激活。最后,将门控向量与输入向量 x 逐元素相乘,得到最终的输出向量。

GLU线性门控单元的特点是能够对输入向量进行选择性地激活,从而增强模型的表达能力。它在Transformer模型的编码器和解码器中广泛应用,用于对输入向量进行非线性变换和特征提取。

需要注意的是,GLU线性门控单元的计算复杂度较高,可能会增加模型的计算开销。因此,在实际应用中,也可以根据具体情况选择其他的非线性变换方式来代替GLU线性门控单元。

5 介绍一下 使用 GeLU 的 GLU 块 计算公式?

介绍一下 使用 GeLU 作为激活函数的 GLU 块 计算公式?

使用GeLU作为激活函数的GLU块的计算公式如下:

img

其中,GeLU() 是Gaussian Error Linear Unit的激活函数,W_1 是一个可学习的权重矩阵。

在公式(1)中,首先将输入向量 x 通过一个全连接层(线性变换)得到一个与 x 维度相同的向量,然后将该向量作为输入传递给GeLU激活函数进行非线性变换。最后,将GeLU激活函数的输出与输入向量 x 逐元素相乘,得到最终的输出向量。

GeLU激活函数的计算公式如下:

img

其中,tanh() 是双曲正切函数,sqrt() 是平方根函数,pi 是圆周率。

在公式(2)中,GeLU函数首先对输入向量 x 进行一个非线性变换,然后通过一系列的数学运算得到最终的输出值。

使用GeLU作为GLU块的激活函数可以增强模型的非线性能力,并在某些情况下提供更好的性能和更快的收敛速度。这种结构常用于Transformer模型中的编码器和解码器,用于对输入向量进行非线性变换和特征提取。

需要注意的是,GLU块和GeLU激活函数是两个不同的概念,它们在计算公式和应用场景上有所区别。在实际应用中,可以根据具体情况选择合适的激活函数来代替GeLU或GLU。

6 介绍一下 使用 Swish 的 GLU 块 计算公式?

介绍一下 使用 Swish 作为激活函数的 GLU 块 计算公式?

使用Swish作为激活函数的GLU块的计算公式如下:

img

其中,sigmoid() 是Sigmoid函数,W_1 是一个可学习的权重矩阵。

在公式(1)中,首先将输入向量 x 通过一个全连接层(线性变换)得到一个与 x 维度相同的向量,然后将该向量通过Sigmoid函数进行激活。这个Sigmoid函数的输出称为门控向量,用来控制输入向量 x 的元素是否被激活。最后,将门控向量与输入向量 x 逐元素相乘,得到最终的输出向量。

Swish激活函数的计算公式如下:

img

其中,sigmoid() 是Sigmoid函数,beta 是一个可学习的参数。

在公式(2)中,Swish函数首先对输入向量 x 进行一个非线性变换,然后通过Sigmoid函数进行激活,并将该激活结果与输入向量 x 逐元素相乘,得到最终的输出值。

使用Swish作为GLU块的激活函数可以增强模型的非线性能力,并在某些情况下提供更好的性能和更快的收敛速度。GLU块常用于Transformer模型中的编码器和解码器,用于对输入向量进行非线性变换和特征提取。

需要注意的是,GLU块和Swish激活函数是两个不同的概念,它们在计算公式和应用场景上有所区别。在实际应用中,可以根据具体情况选择合适的激活函数来代替Swish或GLU。

文章知识点与官方知识档案匹配,可进一步学习相关知识

如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

事实上,抢你饭碗的不是AI,而是会利用AI的人。

科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

在这里插入图片描述

一、LLM大模型经典书籍

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

在这里插入图片描述

二、640套LLM大模型报告合集

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)

在这里插入图片描述

三、LLM大模型系列视频教程

在这里插入图片描述

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

在这里插入图片描述

LLM大模型学习路线

阶段1:AI大模型时代的基础理解
  • 目标:了解AI大模型的基本概念、发展历程和核心原理。
  • 内容
    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例
阶段2:AI大模型API应用开发工程
  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
  • 内容
    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.3 流水线工程
    • L2.4 总结与展望
阶段3:AI大模型应用架构实践
  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
  • 内容
    • L3.1 Agent模型框架
    • L3.2 MetaGPT
    • L3.3 ChatGLM
    • L3.4 LLAMA
    • L3.5 其他大模型介绍
阶段4:AI大模型私有化部署
  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
  • 内容
    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

这份 LLM大模型资料 包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2173864.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

如何让 Android 的前端页面像 iOS 一样“优雅”?

作者:方英杰(崇之) 最近在调研前端页面适配 Android 端异形屏的方案,调研过程中发现了一些比较有意思的点,本文主要是做一个总结。 一、提出问题 首先,我们需要知道 Android 上的前端适配面临着什么问题。 问题其实很…

视频怎么加字幕?视频加字幕的5种方法,小白进阶高手!

视频怎么加字幕?视频加字幕不仅可以添加内容的可读性,也避免很多语言错误,可以更-好地帮助观看者理解创作者的制作理念。对于视频创作的初学者而言,掌握几种简单易用的加字幕方法尤为重要。本文将详细介绍五种视频加字幕的方法&am…

一文速读 LLaMA3.2-Vision 模型的结构

随着 Meta 放出了 LLaMA3.2 系列模型,LLaMA 系列也是正式迎来了官方版本的多模态大模型 LLaMA3.2-Vision [1]。那我们就在本期内容中聊一聊 LLaMA3.2-Vision 模型的结构,希望对大家有所帮助。 相关代码位于 [2] 结论 先说结论,LLaMA3.2 的…

6.Javaweb-过滤器与监听器

Javaweb-过滤器与监听器 文章目录 Javaweb-过滤器与监听器一、过滤器**Filter接口API:** 过滤器生命周期1.创建(Creation):2.初始化(Initialization):3.执行(Execution)&…

【设计模式-状态模式】

定义 状态模式(State Pattern)是一种行为型设计模式,允许对象在其内部状态改变时改变其行为。该模式将状态的变化封装在状态对象中,从而使得对象的行为随着状态的变化而变化。 UML图 角色 Context(上下文&#xff0…

使用scroll-behavior属性实现页面平滑滚动的几个问题

在较长的页面中,为了便于用户浏览,开发人员经常会使用锚点链接,锚点链接默认的效果是瞬间跳转,为了让用户体验更好,往往会添加滚动效果。我记得要实现滚动效果,以前一般是结合一段JavaScript代码来实现。 后…

CSS04-Chrome调试工具

Chrome 浏览器提供了一个非常好用的调试工具,可以用来调试我们的 HTML结构和 CSS 样式。

万户OA-ezOFFICE fileUpload.controller 任意文件上传漏洞复现

0x01 产品描述: 万户OA(Office Automation)是一款企业级协同办公管理软件,旨在为企业提供全面的办公自动化解决方案。万户ezOFFICE存在任意文件上传漏洞。攻击者可以通过该远程下载任意文件到目标服务器,导致攻击者可获…

生信初学者教程(十四):差异结果的火山图

文章目录 介绍加载R包导入数据画图函数火山图输出结果总结介绍 火山图(Volcano Plot)是一种用于展示基因差异表达分析结果的二维散点图。它通过同时展示统计显著性和变化幅度,帮助研究者识别出在不同条件下显著差异表达的基因。火山图的横轴通常表示基因表达变化的倍数对数(…

第 18 章 从猫爷借钱说起——事务简介

18.1 事务的起源 CREATE TABLE account ( id INT NOT NULL AUTO_INCREMENT COMMENT 自增id, name VARCHAR(100) COMMENT 客户名称, balance INT COMMENT 余额, PRIMARY KEY (id) ) EngineInnoDB CHARSETutf8;insert into account (name, balance) values (狗哥, 11), (猫爷, 2…

VS开发C++项目常用基础属性配置

这篇文件简单讨论一下visual studio中项目属性的常用基础配置。 1.输出目录:项目目标文件生成位置。 2.中间目录:项目生成的中间文件所在的位置。 3.目标文件名:项目生成目标文件名称。 4.附加包含目录:三方库等头文件所在的位…

图新说 注册机使用 功能介绍

图新说简介 1. 什么是图新说? 图新说是一款技术自主可控的国产三维BIMGIS数字化方案汇报、成果交付平台。主要解决汇报方案的精准还原、方案展示、方案汇报及成果交付问题。 将影像、实景三维等周边现状数据与设计成果完美融合将设计方案二三维一体化表达流畅讲解设…

用Promise实现前端并发请求

/** * 构造假请求 */ async function request(url) {return new Promise((resolve) > {setTimeout(() > {resolve(url);},// Math.random() * 500 800,1000,);}); }请求一次,查看耗时,预计应该是1s: async function requestOnce() {c…

vue 项目打包更新后,界面未刷新时js与css资源加载404,监听资源文件404后自动重新加载页面。

问题 vue 项目打包更新(生成环境)后,界面未刷新时js与css资源加载404,如图: 期望 希望可以监听到资源文件加载404时,刷新界面,解决打包后由于文件名的变化导致点击旧页面时 JS 和 CSS 文件出…

Spring MVC常用注解(绝对经典)

文章目录 一、元注解1.1 Target:1.2 Retention: 二、常见注解2.1 Controller:2.2 SpringBootApplication:2.3 RequestMapping:2.4 RequestParam:2.5 PathVariable:2.6 RequestPart:2…

OpenCV 形态学相关函数详解及用法示例

OpenCV形态学相关的运算包含腐蚀(MORPH_ERODE),膨胀(MORPH_DILATE),开运算(MORPH_OPEN),闭运算(MORPH_CLOSE),梯度运算(MORPH_GRADIENT),顶帽运算(MORPH_TOPHAT),黑帽运算(MORPH_BLACKHAT),击中…

『网络游戏』GoLand服务器框架【01】

打开GoLand创建项目 编写Go程序:main.go package mainimport ("fmt""newgame/game/gate""os""os/signal""syscall""time" )var (SinChan make(chan os.Signal, 1)closeChan chan struct{} )func ma…

【JavaEE】——线程池大总结

阿华代码,不是逆风,就是我疯, 你们的点赞收藏是我前进最大的动力!!希望本文内容能够帮助到你! 目录 引入:问题引入 一:解决方案 1:方案一——协程/纤程 (1…

SwiftUI简明概念(3):Path.addArc的clockwise方向问题

一、画个下半圆 SwiftUI中绘制下半圆的一个方法是使用Path.addArc,示例代码如下: var body: some View {Path { path inpath.addArc(center: CGPoint(x: 200, y: 370), radius: 50, startAngle: Angle(degrees: 0), endAngle: Angle(degrees: 180.0), …

谷歌发布Imagen 3,超过SD3、DALL・E-3,谷歌发布新RL方法,性能提升巨大,o1模型已证明

谷歌发布Imagen 3,超过SD3、DALL・E-3,谷歌发布新RL方法,性能提升巨大,o1模型已证明。 谷歌DeepMind发布了全新文生图模型Imagen 3,在文本语义还原、色彩搭配、文本嵌入、图像细节、光影效果等方面相比第二代大幅度提升…