从ChatGLM2-6B来看大模型扩展上下文和加速推理相关技术

news2024/10/7 20:28:06

       ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性:

  1. 更强大的性能:基于 ChatGLM 初代模型的开发经验,全面升级了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 GLM 的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等数据集上的性能取得了大幅度的提升,在同尺寸开源模型中具有较强的竞争力。

  2. 更长的上下文:基于 FlashAttention 技术,将基座模型的上下文长度(Context Length)由 ChatGLM-6B 的 2K 扩展到了 32K,并在对话阶段使用 8K 的上下文长度训练。对于更长的上下文,发布了 ChatGLM2-6B-32K 模型。LongBench 的测评结果表明,在等量级的开源模型中,ChatGLM2-6B-32K 有着较为明显的竞争优势。

  3. 更高效的推理:基于 Multi-Query Attention 技术,ChatGLM2-6B 有更高效的推理速度和更低的显存占用:在官方的模型实现下,推理速度相比初代提升了 42%,INT4 量化下,6G 显存支持的对话长度由 1K 提升到了 8K。

  4. 更开放的协议:ChatGLM2-6B 权重对学术研究完全开放,在填写问卷进行登记后亦允许免费商业使用。

一、ChatGLM2-6B评测结果

       下面是ChatGLM2-6B 模型在 MMLU (英文)、C-Eval(中文)、GSM8K(数学)、BBH(英文) 上的测评结果。在 evaluation 中提供了在 C-Eval 上进行测评的脚本。

MMLU

ModelAverageSTEMSocial SciencesHumanitiesOthers
ChatGLM-6B40.6333.8944.8439.0245.71
ChatGLM2-6B (base)47.8641.2054.4443.6654.46
ChatGLM2-6B45.4640.0651.6141.2351.24
ChatGLM2-12B (base)56.1848.1865.1352.5860.93
ChatGLM2-12B52.1347.0061.0046.1056.05

Chat 模型使用 zero-shot CoT (Chain-of-Thought) 的方法测试,Base 模型使用 few-shot answer-only 的方法测试

C-Eval

ModelAverageSTEMSocial SciencesHumanitiesOthers
ChatGLM-6B38.933.348.341.338.0
ChatGLM2-6B (base)51.748.660.551.349.8
ChatGLM2-6B50.146.460.450.646.9
ChatGLM2-12B (base)61.655.473.764.259.4
ChatGLM2-12B57.052.169.358.553.2

Chat 模型使用 zero-shot CoT 的方法测试,Base 模型使用 few-shot answer only 的方法测试

GSM8K

ModelAccuracyAccuracy (Chinese)*
ChatGLM-6B4.825.85
ChatGLM2-6B (base)32.3728.95
ChatGLM2-6B28.0520.45
ChatGLM2-12B (base)40.9442.71
ChatGLM2-12B38.1323.43

所有模型均使用 few-shot CoT 的方法测试,CoT prompt 来自 http://arxiv.org/abs/2201.11903

使用翻译 API 翻译了 GSM8K 中的 500 道题目和 CoT prompt 并进行了人工校对

BBH

ModelAccuracy
ChatGLM-6B18.73
ChatGLM2-6B (base)33.68
ChatGLM2-6B30.00
ChatGLM2-12B (base)36.02
ChatGLM2-12B39.98

所有模型均使用 few-shot CoT 的方法测试,CoT prompt 来自 https://github.com/suzgunmirac/BIG-Bench-Hard/tree/main/cot-prompts

二、推理性能

       ChatGLM2-6B 使用了 Multi-Query Attention,提高了生成速度。生成 2000 个字符的平均速度对比如下

Model推理速度 (字符/秒)
ChatGLM-6B31.49
ChatGLM2-6B44.62

使用官方实现,batch size = 1,max length = 2048,bf16 精度,测试硬件为 A100-SXM4-80G,软件环境为 PyTorch 2.0.1

        Multi-Query Attention 同时也降低了生成过程中 KV Cache 的显存占用,此外,ChatGLM2-6B 采用 Causal Mask 进行对话训练,连续对话时可复用前面轮次的 KV Cache,进一步优化了显存占用。因此,使用 6GB 显存的显卡进行 INT4 量化的推理时,初代的 ChatGLM-6B 模型最多能够生成 1119 个字符就会提示显存耗尽,而 ChatGLM2-6B 能够生成至少 8192 个字符。

量化等级编码 2048 长度的最小显存生成 8192 长度的最小显存
FP16 / BF1613.1 GB12.8 GB
INT88.2 GB8.1 GB
INT45.5 GB5.1 GB

ChatGLM2-6B 利用了 PyTorch 2.0 引入的 torch.nn.functional.scaled_dot_product_attention 实现高效的 Attention 计算,如果 PyTorch 版本较低则会 fallback 到朴素的 Attention 实现,出现显存占用高于上表的情况。

        量化对模型性能的影响如下,基本在可接受范围内。

量化等级Accuracy (MMLU)Accuracy (C-Eval dev)
BF1645.4753.57
INT443.1350.30

三、Multi-Query-Attention(MQA)

论文地址:https://arxiv.org/pdf/1911.02150.pdf

       MQA 是 19 年提出的一种新的 Attention 机制,其能够在保证模型效果的同时加快 decoder 生成 token 的速度,因此在目前大模型时代被广泛应用。下面看一下论文的实验效果:

        从上图表中可以看到,MQA 在 encoder 上的提速没有非常明显,但在 decoder 上的提速是很显著的。

      传统的Transformer是Multi Head Attention(MHA)结构,每个 head 又是由: query(Q),key(K),value(V) 3 个矩阵共同实现的,这三个矩阵的参数都是独立的,而MQA 让所有的头之间 共享 同一份 Key 和 Value 矩阵,每个头只单独保留了一份 Query 参数,从而大大减少 Key 和 Value 矩阵的参数量

       他们的关键区别在于Wqkv的实现上,下面展示一下代码示例:

# Multi Head Attentionself.Wqkv = nn.Linear(                        # 【关键】Multi-Head Attention 的创建方法    self.d_model,     3 * self.d_model,                         # 有 query, key, value 3 个矩阵, 所以是 3 * d_model    device=device)query, key, value = qkv.chunk(                # 【关键】每个 tensor 都是 (1, 512, 768)    3,     dim=2)# Multi Query Attentionself.Wqkv = nn.Linear(                                # 【关键】Multi-Query Attention 的创建方法    d_model,    d_model + 2 * self.head_dim,                      # 只创建 query 的 head 向量,所以只有 1 个 d_model    device=device,                                    # 而 key 和 value 不再具备单独的头向量)query, key, value = qkv.split(                        # query -> (1, 512, 768)    [self.d_model, self.head_dim, self.head_dim],     # key   -> (1, 512, 96)    dim=2                                             # value -> (1, 512, 96))

        在 MHA 中,query, key, value 每个向量均有 768 维度;而在 MQA 中,只有 query 是 768 维,而 key 和 value 只有 96 维,恰好是 1 个 head_dim 的维度。除了 query 向量还保存着 8 个头,key 和 value 向量都只剩 1 个「公共头」了

下面来测试一下MHA和MQA维度的变化:

import mathimport warningsimport torchimport torch.nn as nnfrom einops import rearrangefrom typing import Optionaldef scaled_multihead_dot_product_attention(        query,        key,        value,        n_heads,        past_key_value=None,        softmax_scale=None,        attn_bias=None,        key_padding_mask=None,        is_causal=False,        dropout_p=0.0,        training=False,        needs_weights=False,        multiquery=False,    ):    q = rearrange(query, 'b s (h d) -> b h s d', h=n_heads)         # (1, 512, 768) -> (1, 8, 512, 96)    kv_n_heads = 1 if multiquery else n_heads    k = rearrange(key, 'b s (h d) -> b h d s', h=kv_n_heads)        # (1, 512, 768) -> (1, 8, 96, 512) if not multiquery                                                                     # (1, 512, 96) -> (1, 1, 96, 512)  if multiquery    v = rearrange(value, 'b s (h d) -> b h s d', h=kv_n_heads)      # (1, 512, 768) -> (1, 8, 512, 96) if not multiquery                                                                     # (1, 512, 96) -> (1, 1, 512, 96)  if multiquery        attn_weight = q.matmul(k) * softmax_scale                       # (1, 8, 512, 512)    attn_weight = torch.softmax(attn_weight, dim=-1)                # (1, 8, 512, 512)    out = attn_weight.matmul(v)                                     # (1, 8, 512, 512) * (1, 1, 512, 96) = (1, 8, 512, 96)    out = rearrange(out, 'b h s d -> b s (h d)')                    # (1, 512, 768)    return out, attn_weight, past_key_valueclass MultiheadAttention(nn.Module):    """Multi-head self attention.    Using torch or triton attention implemetation enables user to also use    additive bias.    """    def __init__(        self,        d_model: int,        n_heads: int,        attn_impl: str = 'triton',        clip_qkv: Optional[float] = None,        qk_ln: bool = False,        softmax_scale: Optional[float] = None,        attn_pdrop: float = 0.0,        low_precision_layernorm: bool = False,        verbose: int = 0,        device: Optional[str] = None,    ):        super().__init__()        self.attn_impl = attn_impl        self.clip_qkv = clip_qkv        self.qk_ln = qk_ln        self.d_model = d_model        self.n_heads = n_heads        self.softmax_scale = softmax_scale        if self.softmax_scale is None:            self.softmax_scale = 1 / math.sqrt(self.d_model / self.n_heads)        self.attn_dropout_p = attn_pdrop        self.Wqkv = nn.Linear(self.d_model, 3 * self.d_model, device=device)        fuse_splits = (d_model, 2 * d_model)        self.Wqkv._fused = (0, fuse_splits)  # type: ignore        self.attn_fn = scaled_multihead_dot_product_attention        self.out_proj = nn.Linear(self.d_model, self.d_model, device=device)        self.out_proj._is_residual = True  # type: ignore    def forward(        self,        x,        past_key_value=None,        attn_bias=None,        attention_mask=None,        is_causal=True,        needs_weights=False,    ):        qkv = self.Wqkv(x)                                              # (1, 512, 2304)        if self.clip_qkv:            qkv.clamp_(min=-self.clip_qkv, max=self.clip_qkv)        query, key, value = qkv.chunk(3, dim=2)                         # both q, k, v: (1, 512, 768)        key_padding_mask = attention_mask        context, attn_weights, past_key_value = self.attn_fn(            query,            key,            value,            self.n_heads,            past_key_value=past_key_value,            softmax_scale=self.softmax_scale,            attn_bias=attn_bias,            key_padding_mask=key_padding_mask,            is_causal=is_causal,            dropout_p=self.attn_dropout_p,            training=self.training,            needs_weights=needs_weights,        )        return self.out_proj(context), attn_weights, past_key_valueclass MultiQueryAttention(nn.Module):    """Multi-Query self attention.    Using torch or triton attention implemetation enables user to also use    additive bias.    """    def __init__(        self,        d_model: int,        n_heads: int,        attn_impl: str = 'triton',        clip_qkv: Optional[float] = None,        qk_ln: bool = False,        softmax_scale: Optional[float] = None,        attn_pdrop: float = 0.0,        low_precision_layernorm: bool = False,        verbose: int = 0,        device: Optional[str] = None,    ):        super().__init__()        self.attn_impl = attn_impl        self.clip_qkv = clip_qkv        self.qk_ln = qk_ln        self.d_model = d_model        self.n_heads = n_heads        self.head_dim = d_model // n_heads        self.softmax_scale = softmax_scale        if self.softmax_scale is None:            self.softmax_scale = 1 / math.sqrt(self.head_dim)        self.attn_dropout_p = attn_pdrop        self.Wqkv = nn.Linear(            d_model,            d_model + 2 * self.head_dim,            device=device,        )        fuse_splits = (d_model, d_model + self.head_dim)        self.Wqkv._fused = (0, fuse_splits)  # type: ignore        self.attn_fn = scaled_multihead_dot_product_attention        self.out_proj = nn.Linear(self.d_model, self.d_model, device=device)        self.out_proj._is_residual = True  # type: ignore    def forward(        self,        x,        past_key_value=None,        attn_bias=None,        attention_mask=None,        is_causal=True,        needs_weights=False,    ):        qkv = self.Wqkv(x)                                      # (1, 512, 960)        if self.clip_qkv:            qkv.clamp_(min=-self.clip_qkv, max=self.clip_qkv)        query, key, value = qkv.split(                                  # query -> (1, 512, 768)            [self.d_model, self.head_dim, self.head_dim],               # key   -> (1, 512, 96)            dim=2                                                       # value -> (1, 512, 96)        )        key_padding_mask = attention_mask        if self.qk_ln:            # Applying layernorm to qk            dtype = query.dtype            query = self.q_ln(query).to(dtype)            key = self.k_ln(key).to(dtype)        context, attn_weights, past_key_value = self.attn_fn(            query,            key,            value,            self.n_heads,            past_key_value=past_key_value,            softmax_scale=self.softmax_scale,            attn_bias=attn_bias,            key_padding_mask=key_padding_mask,            is_causal=is_causal,            dropout_p=self.attn_dropout_p,            training=self.training,            needs_weights=needs_weights,            multiquery=True,        )        return self.out_proj(context), attn_weights, past_key_value    if __name__ == '__main__':    # attn = MultiQueryAttention(    #     768,    #     8,    #     'torch'    # )    attn = MultiheadAttention(        768,        8,        'torch'    )    attn(        torch.ones(size=(1, 512, 768))    )

四、FlashAttention

论文地址:https://arxiv.org/abs/2205.14135

代码地址:https://github.com/HazyResearch/flash-attention

       Transformer的自注意力机制(self-attention)的计算的时间复杂度和空间复杂度都与序列长度有关,时间复杂度是O(n^2),所以在处理长序列的时候会变的更慢,同时内存会增长更多。通常的优化是针对计算复杂度(通过F L O P s FLOPsFLOPs 数衡量), 优化会权衡模型质量和计算速度。

       在FlashAttention中考虑到attention算法也是IO敏感的,通过对GPU显存访问的改进来对attention算法的实现进行优化。如下图,在GPU中片上存储SRAM访问速度最快,对应的HBM(high bandwidth memory)访问速度较慢,为了加速要尽量减少HBM的访问次数。

4.1 标准Transformer简述

标准的attention算法实现中的QKV都是与HBM交互的,具体如下:

4.2 FlashAttention算法实现的关键三点:

  1. softmax的tiling展开,可以支持softmax的拆分并行计算,从而提升计算效率

  2. 反向过程中的重计算,减少大量的显存占用,节省显存开销。

  3. ​通过CUDA编程实现fusion kernel

4.2.1 softmax展开(tiling)

  •  基本softmax:在计算x_i的值的时候需要用到所有的X=\{x_1,...x_N\}值,计算公式如下:

  • 安全(safe) softmax:由于e^{x_i} 很容易溢出, 比如FP16支持范围是2^-24\sim65504,当x_i>11 的时候,  e^{x_i}会超过float16的有效位。为解决这个问题提出 safe softmax, 对每个x_i  都减去一个m=max^N_{j=1}(x_j)  , 使得x_i-m\ll0  , 这时幂操作符对负数输入的计算是准确且安全的。

  • Safe softmax tiling:对于 X 分为两组情况进行说明,其中X=[X^{(1)},X^{(2)}]  

  • safe softmax基本计算示例

  • safe softmax tiling计算示例(结果跟基本计算示例一致)

      有了softmax tiling的基础以后,在执行的时候可以对Q、K、V 三个矩阵进行分块操作并行计算了,如下图所示:

4.2.2 反向过程中的重计算

        类似于gradient checkpoint方法,在前向的时候把输出结果O=softmax(QK^T)V  、 l 、 m 存入HBM中, 在反向时候重新计算需要的数据,最终完整的算法说明如下:

4.3 实验效果

BERT

GPT-2

 Long-range Arena

参考文献

[1] https://github.com/THUDM/ChatGLM2-6B

[2] https://link.zhihu.com/?target=https%3A//github.com/mosaicml/llm-foundry/blob/9c89ab263e72fb9610f28c8ab9cde5d2205b6bff/llmfoundry/models/layers/attention.py

[3]https://paperswithcode.com/paper/flashattention-fast-and-memory-efficient

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/870584.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【深入探索Docker】:开启容器化时代的技术奇迹

深入探索Docker 深入探索Docker:开启容器化时代的技术奇迹前言1. 容器化:实现快速部署和可移植性2. 虚拟化:提高安全性和可靠性3. 映像:打包应用及依赖项的模板4. 网络管理:连接容器和主机5. 持久化数据:保…

Linux 终端命令之文件浏览(3) less

Linux 文件浏览命令 cat, more, less, head, tail,此五个文件浏览类的命令皆为外部命令。 hannHannYang:~$ which cat /usr/bin/cat hannHannYang:~$ which more /usr/bin/more hannHannYang:~$ which less /usr/bin/less hannHannYang:~$ which head /usr/bin/he…

多个 el-select 下拉框调用同一个数组时,下拉框的值不能重复

实现的效果 多个下拉框,每个下拉框选中的值不能重复,选过的下拉值会被过滤 共用一个接口 realUserList , 里面是部门的人 四个下拉框必选,数据结构如下 我使用的方法是计算属性完成, 我是从vuex 里面的获取的数据( alreaySelectUser ), …

Linux MQTT智能家居(温度,湿度,环境监测,摄像头等界面布局设置)

文章目录 前言一、温度湿度曲线布局二、环境监测界面布局三、摄像头界面布局总结 前言 本篇文章来完成另外三个界面的布局设置。 这里会使用到 feiyangqingyun的一些控件库。 一、温度湿度曲线布局 TempHumtiy.h: #ifndef TEMPHUMTIY_H #define TEMPHUMTIY_H#include <…

Maven 基础学习及使用

Maven1 Maven简介1.1 Maven模型1.2 仓库 2 Maven安装配置3 Maven基本使用3.1 Maven 常用命令3.2 Maven 生命周期 4 IDEA使用Maven4.1 IDEA配置Maven环境4.2 Maven 坐标详解4.3 IDEA 创建 Maven项目4.4 IDEA 导入 Maven项目 5 依赖管理5.1 使用坐标引入jar包5.2 依赖范围 Maven …

UVA-1601 万圣节后的早晨 题解答案代码 算法竞赛入门经典第二版

GitHub - jzplp/aoapc-UVA-Answer: 算法竞赛入门经典 例题和习题答案 刘汝佳 第二版 以三个点的当前位置作为状态&#xff0c;广度优先遍历&#xff0c;找到终点即为最短次数。 注意&#xff1a; 一次可以移动多个点&#xff0c;但是每个点只能移动一步。在同一次中&#xf…

人工智能监听——研究人员发现新的安全威胁

大学的一项新研究表明&#xff0c;人工智能 (AI) 可以通过按键声音识别密码&#xff0c;准确率超过 90%。 在通过 Zoom 等视频通话聊天时输入计算机密码可能会打开网络攻击的大门&#xff0c;一项新的研究表明&#xff0c;人工智能可以通过窃听打字声音来找出正在按下的按键。…

索引堆及其优化(Java 实例代码)

目录 索引堆及其优化 一、概念及其介绍 二、适用说明 三、结构图示 四、Java 实例代码 src/runoob/heap/IndexMaxHeap.java 文件代码&#xff1a; 索引堆及其优化 一、概念及其介绍 索引堆是对堆这个数据结构的优化。 索引堆使用了一个新的 int 类型的数组&#xff0c;…

JavaScript【BOM】

【BOM】 原创内容&#xff0c;转载请注明出处&#xff01; 一、BOM是什么 BOM&#xff08;Browser Object Model&#xff0c;浏览器对象模型&#xff09;是 JS 与 浏览器窗口交互的接口。 一些与浏览器改变尺寸、滚动条滚动相关的特效&#xff0c;都要借助 BOM 技术。 二、w…

Arduino+esp32学习笔记

学习目标&#xff1a; 使用Arduino配置好蓝牙或者wifi模块 学习使用python配置好蓝牙或者wifi模块 学习内容&#xff08;笔记&#xff09;&#xff1a; 一、 Arduino语法基础 Arduino语法是基于C的语法,C又是c基础上增加了面向对象思想等进阶语言。那就只记录没见过的。 单多…

【分布式】Viewstamped Replication Revisited

篇前感悟&#xff1a; 阅读分布式系统文章的意义其实并不在于你个人真正地去开发这样一个基于这种协议的系统&#xff0c;因为真正去开发一个高可用的分布式系统实在是太难了&#xff08;对我来说…&#xff09;更多的还是汲取其中的思想&#xff0c;包括设计思路&#xff0c;优…

高性能跨平台网络通信框架 HP-Socket v5.9.3

项目主页 : http://www.oschina.net/p/hp-socket开发文档 : https://www.docin.com/p-4478351216.html下载地址 : https://github.com/ldcsaa/HP-SocketQQ Group: 44636872, 663903943 v5.9.3 更新 一、主要更新 问题修复&#xff1a;通过 POST/PUT 等带有请求内容的 HTTP 方…

Vue主面板组件模板(简洁版)

文章目录 &#x1f412;个人主页&#x1f3c5;JavaEE系列专栏&#x1f4d6;前言&#xff1a;&#x1f380;源码如下&#xff1a; &#x1f412;个人主页 &#x1f3c5;JavaEE系列专栏 &#x1f4d6;前言&#xff1a; 本篇博客主要以介绍【&#x1f380;主面板组件模板&#xf…

怎么才能突破认知?别灌鸡汤行吗

怎么才能突破认知&#xff1f;别灌鸡汤行吗&#xff1f; 趣讲大白话&#xff1a;大部分人得一步一步来 【趣讲信息科技254期】 **************************** 孔子说有三种情况&#xff1a; 1生而知之&#xff1a;就是天生就会 2学而知之&#xff1a;需要后天学习 3困而学之&am…

【计算机网络】——数据链路层

二、组帧 1、字符计数法 帧头部使用一个字符来表示帧的大小(包括第一个计数字符) &#xff08;此处一字符一个字节&#xff09; 2、字符填充收尾定界法 特定字符来定界帧的首和尾。若帧中数据段出现等同于特定字符的字符内容&#xff0c;前置一个转义字符。(类似于正则表达…

读发布!设计与部署稳定的分布式系统(第2版)笔记30_为部署而设计

1. 部署行为是系统生命的重要组成部分 1.1. 只编写代码是不够的&#xff0c;只要没有在生产环境中运行&#xff0c;一切都不算完成 1.2. 要想取得成功&#xff0c;需要早早地频繁部署软件 1.3. 设计易于部署的软件非常有必要 1.4. 零停机部署就是目标 2. 机器与服务 2.1.…

HTML详解连载(4)

HTML详解连载&#xff08;4&#xff09; 专栏链接 [link](http://t.csdn.cn/xF0H3)下面进行专栏介绍 开始喽CSS定义书写位置示例注意 CSS引入方式内部样式表&#xff1a;学习使用 外部演示表&#xff1a;开发使用代码示例行内样式代码示例 选择器作用基础选择器标签选择器举例特…

Linux MQTT智能家居项目(LED界面的布局设置)

文章目录 前言一、LED界面布局准备工作二、LED界面布局三、逻辑实现总结 前言 上篇文章我们完成了主界面的布局设置那么这篇文章我们就来完成各个界面的布局设置吧。 一、LED界面布局准备工作 首先添加LED灯光控制的图标。 将选择好的LED图标添加进来&#xff1a; 图标可以…

gcc及其相关知识

目录 gcc工作流程 静态库的生成和使用&#xff08;该部分使用g进行代码的编译。 若使用gcc&#xff0c;也类似&#xff09; 动态库的制作和使用&#xff08;此处用gcc&#xff0c;g类似&#xff09; 动态库的命名规则 动态库的制作 动态库的使用 动态库和静态库的优缺点 静…

搭建Synopsis 数字IC IDE开发化境

安装平台信息&#xff1a; VMware15.5和centos7 至于为何要选择如上版本和为何不能直接在物理机上安装还不得而知&#xff0c;只是参考网上的文章是这样做的&#xff0c;先照搬过来&#xff0c;在安装操作中慢慢体会。 安装包内容如下&#xff1a; 使用默认配置&#xff0c;一…