2022 年 11 月,Chat GPT 的问世展示了大语言模型的强大潜能,并迅速引起了广泛关注。Chat GPT 能够有效理解用户需求,并根据上下文提供恰当的回答。它不仅可以进行日常对话,还能够完成复杂任务,如撰写文章、回答问题等。
令人惊讶的是,所有这些任务都由一个模型完成。在许多任务上,ChatGPT 的性能甚至超过了针对单一任务进行训练的有监督算法。这对于人工智能领域具有重大意义,并对自然语言处理研究产生了深远影响。
今天给小伙伴们分享的这份手册有点高端,整体围绕大语言模型构建的四个主要阶段:预训练、有监督微调、奖励建模和强化学习,详细介绍各阶段使用的算法、数据、难点以及实践经验。
限于文章篇幅原因,只能以截图的形式展示出来,有需要的小伙伴可以文末获取↓↓↓
目录
内容
第1章 绪论
本章主要介绍大规模语言模型基本概念、发展历程和构建流程。
第2章 大语言模型基础
本章将首先介绍 Transformer 结构,并在此基础上介绍生成式预训练语言模型 GPT、大语言模型网络结构和注意力机制优化以及相关实践。
第3章 语言模型训练数据
本章将介绍当前常见的大语言模型训练数据的来源、处理方法、预训练数据对大语言模型影响的分析以及常见开源数据集合等。
第4章 分布式训练
本章将介绍分布式机器学习系统的基础概念、分布式训练集群架构、分布式训练并行策略,并以 DeepSpeed 为例介绍如何在集群上训练大语言模型。
第5章 有监督微调
本章将首先介绍大模型的提示学习与语境学习能力,在此基础上介绍高效模型微调以及大语言模型上下文窗口扩展方法,最后介绍指令数据的一般格式与构建方式和有监督微调的代码实践。
第6章 强化学习
本章将介绍基于类人反馈的强化学习基础概念、奖励模型以及近端策略优化方法,并在此基础上介绍面向大语言模型强化学习的 PPO-Max 框架实践。
第7章 大语言模型应用
本章将重点介绍大语言模型在推理规划、智能代理、综合应用框架以及多模态大模型等方面的研究和应用情况,最后介绍大语言模型推理优化方法。
第8章 大语言模型评估
本章将首先介绍大语言模型评估的基本概念和难点,并在此基础上从大语言模型评估体系、大语言模型评估方法以及大语言模型评估实践三个方面分别开展介绍。
限于文章篇幅原因,就展示到这里了,有需要的小伙伴可以查看下方名片↓↓↓