手写 Attention 迷你LLaMa2——LLM实战

news2024/10/1 19:27:25

https://github.com/Yuezhengrong/Implement-Attention-TinyLLaMa-from-scratch

1. Attention

1.1 Attention 灵魂10问
  1. 你怎么理解Attention?

Scaled Dot-Product Attention中的Scaled 1 d k \frac{1}{\sqrt{d_k}} dk 1 的目的是调节内积,使其结果不至于太大(太大的话softmax后就非0即1了,不够“soft”了)。

Attention ⁡ ( Q , K , V ) = softmax ⁡ ( Q K T d k ) V \operatorname{Attention}(Q, K, V)=\operatorname{softmax}\left(\frac{Q K^T}{\sqrt{d_k}}\right) V Attention(Q,K,V)=softmax(dk QKT)V

Multi-Head可以理解为多个注意力模块,期望不同注意力模块“注意”到不一样的地方,类似于CNN的Kernel。(注意:concat多头输出后需要再经过 W O W^O WO)
MultiHead ⁡ ( Q , K , V ) = Concat ⁡ ( head ⁡ 1 , … ,  head  h ) W O u t  where head  i = Attention ⁡ ( Q W i Q , K W i K , V W i V ) \begin{aligned} \operatorname{MultiHead}(Q, K, V) & =\operatorname{Concat}\left(\operatorname{head}_1, \ldots, \text { head }_{\mathrm{h}}\right) W^{Out} \\ \text { where head }_{\mathrm{i}} & =\operatorname{Attention}\left(Q W_i^Q, K W_i^K, V W_i^V\right) \end{aligned} MultiHead(Q,K,V) where head i=Concat(head1,, head h)WOut=Attention(QWiQ,KWiK,VWiV)

  1. 乘性Attention和加性Attention有什么不同?
  • 乘性Attention使用点积(dot product)来计算attention_score。具体而言,给定查询(query)Q、键(key)K和值(value)V,乘性Attention通过计算内积来度量查询和键之间的相似性,并使用softmax函数将得分归一化为概率分布。计算公式如下:

A t t e n t i o n ( Q , K , V ) = s o f t m a x ( Q ∗ K T ) ∗ V Attention(Q, K, V) = softmax(Q * K^T) * V Attention(Q,K,V)=softmax(QKT)V

乘性注意力的计算复杂度较低,因为它不需要引入额外的参数或矩阵运算。然而,由于点积的缩放问题,当查询和键的维度较大时,乘性Attention可能会导致注意力权重过小或过大。

  • 加性Attention使用额外的矩阵权重 和 非线性激活函数来计算attention_score。具体而言,给定查询Q、键K和值V,加性Attention首先将Q和K通过一个矩阵W进行线性变换,然后应用激活函数(如tanh或ReLU),最后通过另一个矩阵U进行线性变换并使用softmax函数进行归一化。计算公式如下:

A t t e n t i o n ( Q , K , V ) = s o f t m a x ( U ∗ t a n h ( W Q ∗ Q + W K ∗ K ) ) ∗ V Attention(Q, K, V) = softmax(U * tanh(W_Q * Q + W_K * K)) * V Attention(Q,K,V)=softmax(Utanh(WQQ+WKK))V

加性Attention引入了额外的线性变换和非线性激活函数,因此计算复杂度较高。但它能够更好地处理维度较大的查询和键,并且具有更强的表示能力。

  1. Self-Attention中的Scaled因子有什么作用?必须是 d k \sqrt{d_k} dk 吗?

在Self-Attention机制中,为了缓解点积计算可能导致的数值不稳定性梯度消失或爆炸的问题,通常会引入一个缩放因子(scaling factor)。这个缩放因子通常是根号下key向量的维度(即 d k \sqrt{d_k} dk )。

但并不是绝对必须使用 d k \sqrt{d_k} dk 。在实践中,也可以根据具体情况调整缩放因子,例如使用1/d_k或其他系数来代替 d k \sqrt{d_k} dk 。这取决于模型的架构设计、数据集特征以及训练过程中的表现情况,可以根据实验结果选择合适的缩放因子。

  1. Multi-Head Self-Attention,Multi越多越好吗,为什么?

多头注意力的优势

  • 增加表示能力: 每个注意头可以关注输入序列中不同位置的信息,学习到不同的特征表示。通过多个注意头并行计算,模型能够综合利用多个子空间的信息,提高模型的表示能力。

  • 提高泛化能力: 多头注意力有助于模型学习更丰富和复杂的特征表示,从而提高模型在各种任务上的泛化能力,减少过拟合的风险。

多头注意力的限制

  • 计算复杂度增加: 随着注意头数量的增加,计算复杂度会线性增加。更多的头数意味着更多的参数和计算量,可能导致训练和推理过程变得更加耗时。

  • 过拟合风险: 过多的注意头可能导致模型过度拟合训练数据,特别是在数据集较小或任务较简单的情况下。过多的参数会增加模型的复杂度,增加过拟合的风险。

因此,并非多头注意力中头数越多越好,需要在表示能力和计算效率之间进行权衡。通常在实践中,头数的选择是一种超参数,需要通过实验和验证集的性能来确定最佳的头数。

  1. Multi-Head Self-Attention,固定hidden_dim(即token_dim)时,你认为增加 head_dim (需要缩小 num_heads)和减少 head_dim 会对结果有什么影响?

在Multi-Head Self-Attention中,固定hidden_dim(隐藏层维度, 即token_dim)时,增加head_dim(每个注意头的维度)和减少head_dim会对模型的表示能力和计算效率产生影响。这两种调整会影响每个注意头学习到的特征表示的维度,进而对模型整体的性能产生影响。

增加 head_dim(需要缩小 num_heads):

  • 增强每个注意头的表达能力: 增加head_dim会增加每个注意头学习到的特征表示的维度,使得每个注意头能够捕获更丰富和复杂的特征信息,从而提高模型的表示能力。

  • 减少注意头的数量可能减少计算复杂度: 随着head_dim的增加,为了保持总体隐藏层维度hidden_dim不变,可能需要减少注意头的数量num_heads。减少注意头的数量可以降低计算复杂度,因为每个注意头的计算量随着维度的增加而增加。

  • 可能增加模型训练的稳定性: 增加head_dim可以提高每个注意头学习到的特征表示的丰富度,可能使得模型更容易学习到复杂的关系和模式,从而提高训练的稳定性。

减少 head_dim

  • 降低每个注意头的表达能力: 减少head_dim会降低每个注意头学习到的特征表示的维度,可能限制每个注意头捕获和表示输入序列的能力,导致模型的表示能力下降。

  • 增加注意头的数量可能提高模型的多样性: 为了保持总体隐藏层维度hidden_dim不变,减少head_dim可能需要增加注意头的数量num_heads。增加注意头的数量可以增加模型学习不同方面信息的多样性,有助于提高模型的泛化能力。

  • 可能降低模型训练的稳定性: 减少head_dim可能限制模型学习复杂关系的能力,使得模型更容易受到梯度消失或爆炸的影响,降低训练的稳定性。

总体来说,增加head_dim可以提高每个注意头的表达能力,而减少head_dim可能降低每个注意头的表达能力。在选择head_dim时,需要权衡模型的表示能力、计算效率以及训练的稳定性,通常需要通过实验来确定最佳的超参数设置。

  1. 为什么我们一般需要对 Attention weights 应用Dropout?哪些地方一般需要Dropout?Dropout在推理时是怎么执行的?你怎么理解Dropout?

在深度学习训练中,对 Attention weights 应用 Dropout 的主要原因是为了减少过拟合。Attention机制通常用于提取输入序列中的相关信息,但如果模型过度依赖某些输入信息,就容易导致过拟合。通过引入 Dropout,可以随机地将一部分 Attention weights 设置为零,从而减少模型依赖于特定输入的情况,有助于提高模型的泛化能力。

一般来说,除了在 Attention weights 中使用 Dropout 外,还有一些情况下需要使用 Dropout,包括在全连接层卷积层循环神经网络(RNN)等网络结构中,都可以考虑使用 Dropout 来减少过拟合。

推理时,Dropout 通常不会执行,因为在推理阶段我们希望获得稳定的预测结果,不需要随机丢弃神经元。因此,在推理时,Dropout 层通常会被关闭,或者将每个神经元的输出值按照训练时的概率进行缩放。

  1. Self-Attention的qkv初始化时,bias怎么设置,为什么?

在初始化 q、k、v 时,一般不会设置 bias (0)

这是因为在 Self-Attention 中,Query、Key 和 Value 的计算通常是通过矩阵乘法来实现的,而不像全连接层那样需要使用偏置项(bias)。对于 Self-Attention 的计算过程来说,没有必要引入额外的偏置项,因为 Self-Attention 是通过计算 Query 和 Key 的点积得到 Attention weights,然后再将这些权重应用到 Value 上,不需要额外的偏置项来影响这个计算过程。

  1. 你认为Attention的缺点和不足是什么?
  • 计算复杂度高: Attention 机制需要计算 Query 和 Key 之间的相似度,这通常需要进行矩阵乘法操作,导致计算复杂度较高,特别是在处理长序列时,计算量会进一步增加。

  • 内存占用大: 对于较长的序列,Attention 机制需要存储大量的注意力权重,会占用大量内存,限制了模型能够处理的序列长度。

  • 缺乏位置信息: 原始的 Self-Attention 没有直接建模位置信息,虽然可以通过添加位置编码来解决这个问题,但仍然存在局部关系建模不足的情况。

  • 注意力偏向性: 在处理长序列时,注意力容易偏向于关注距离较近的位置,难以捕捉长距离依赖关系,可能导致信息传递不及时或不完整。

  • 对噪声敏感: Attention 机制对输入序列中的噪声和异常值比较敏感,可能会影响模型的性能和鲁棒性。

  • 训练过程中的稳定性: 在训练过程中,Attention 机制可能出现注意力集中或分散不均匀的情况,需要一定的技巧和调节来保持稳定的训练效果。

  1. 你怎么理解Deep Learning的Deep?现在代码里只有一个Attention,多叠加几个效果会好吗?

在深度学习中,“Deep” 指的是模型具有多层(深层)结构,通过堆叠多个隐藏层来提取数据的高级特征表示。深度神经网络之所以称为 “Deep Learning”,是因为相比于传统浅层模型,它可以学习到更加抽象、复杂的特征表示,从而提高模型的表征能力。

在使用 Attention 机制时,通过堆叠多个 Attention 层,可以增加模型对输入序列的建模能力和表示能力。这种多层 Attention 的堆叠通常被称为 Multi-layer Attention,它可以让模型在不同抽象层次上学习到更加复杂和深入的语义信息。

然而,需要注意的是,多层 Attention 的堆叠也会增加模型的复杂度和计算量,可能导致训练过程变得更加困难和耗时。因此,在实际应用中,需要权衡模型性能和计算资源之间的关系,选择合适的模型深度和结构来平衡精度和效率。

1.2 小项目:Self-Attention模型实现文本情感2分类

单层Attention Model:没有实现W_out,反而加了Dropout
MultiHead ⁡ ( Q , K , V ) = Concat ⁡ ( head ⁡ 1 , … ,  head  h )  where head  i = Attention ⁡ ( Q W i Q , K W i K , V W i V ) Attention ⁡ ( Q , K , V ) = D r o p o u t ( softmax ⁡ ( Q K T d k ) ) V \begin{aligned} \operatorname{MultiHead}(Q, K, V) & =\operatorname{Concat}\left(\operatorname{head}_1, \ldots, \text { head }_{\mathrm{h}}\right) \\ \text { where head }_{\mathrm{i}} & =\operatorname{Attention}\left(Q W_i^Q, K W_i^K, V W_i^V\right) \end{aligned} \\ \operatorname{Attention}(Q, K, V)=Dropout(\operatorname{softmax}\left(\frac{Q K^T}{\sqrt{d_k}}\right)) V MultiHead(Q,K,V) where head i=Concat(head1,, head h)=Attention(QWiQ,KWiK,VWiV)Attention(Q,K,V)=Dropout(softmax(dk QKT))V

class SelfAttention(nn.Module):
    
    def __init__(self, config):
        super().__init__()
        self.config = config
        
        assert config.hidden_dim % config.num_heads == 0
        
        self.wq = nn.Linear(config.hidden_dim, config.hidden_dim, bias=False)
        self.wk = nn.Linear(config.hidden_dim, config.hidden_dim, bias=False)
        self.wv = nn.Linear(config.hidden_dim, config.hidden_dim, bias=False)
        
        self.att_dropout = nn.Dropout(config.dropout)
        
    def forward(self, x):
        batch_size, seq_len, hidden_dim = x.shape
        
        q = self.wq(x)
        k = self.wk(x)
        v = self.wv(x)
        
        q = q.view(batch_size, seq_len, self.config.num_heads, self.config.head_dim)
        k = k.view(batch_size, seq_len, self.config.num_heads, self.config.head_dim)
        v = v.view(batch_size, seq_len, self.config.num_heads, self.config.head_dim)
        
        q = q.transpose(1, 2)
        k = k.transpose(1, 2)
        v = v.transpose(1, 2)
        
        # (b, nh, ql, hd) @ (b, nh, hd, kl) => b, nh, ql, kl
        att = torch.matmul(q, k.transpose(2, 3))
        att /= math.sqrt(self.config.head_dim)
        score = F.softmax(att.float(), dim=-1)
        score = self.att_dropout(score)
        
        # (b, nh, ql, kl) @ (b, nh, kl, hd) => b, nh, ql, hd
        attv = torch.matmul(score, v)
        attv = attv.view(batch_size, seq_len, -1)
        return score, attv

利用Attention Model实现NLP二分类模型:(num_labels=2

  • Tokenizer:words[B,L] -> ids[B,L] (在模型外)
  • Embedding:ids[B,L] -> vectors[B,L,D]
  • SelfAttention:vectors[B,L,D] -> vectors[B,L,D]
  • Avg_Pooling:vectors[B,L,D] -> vectors[B,1,D]
  • Linear:vectors[B,D] -> vectors[B,num_labels]
class Model(nn.Module):
    
    def __init__(self, config):
        super().__init__()
        self.config = config
        self.emb = nn.Embedding(config.vocab_size, config.hidden_dim)
        self.attn = SelfAttention(config)
        self.fc = nn.Linear(config.hidden_dim, config.num_labels)
    
    def forward(self, x):
        batch_size, seq_len = x.shape
        h = self.emb(x)
        attn_score, h = self.attn(h)
        h = F.avg_pool1d(h.permute(0, 2, 1), seq_len, 1)  # seq_len维度压缩为1
        h = h.squeeze(-1)
        logits = self.fc(h)
        return attn_score, logits

后续代码看github吧

2. LLaMa

2.1 LLaMa 灵魂10问

Tokenizerwords[B,L] -> ids[B,L]
Embeddingids[B,L] -> vectors[B,L,D]
Transformervectors[B,L,D] -> vectors[B,L,D]
Sotfmaxvectors[B,L,D] -> logits[B,1,VS]

在这里插入图片描述
这是一个相当深入和技术性的问题,我将依次回答你提出的每个问题。

  1. Tokenize理解和方式区别

    • Tokenize是将原始文本分割成标记(token)的过程,其中标记可以是单词、子词或字符。常见的Tokenize方式包括基于空格的分词、基于规则的分词、基于词根的分词(如WordPiece、Byte Pair Encoding)和字符级别的分词。它们的区别在于分割粒度和表示能力,不同的Tokenize方式会影响模型对文本的理解和表示能力。
  2. 理想的Tokenizer模型特点

    • 灵活性:能够适应不同语言和文本类型的Tokenize需求。
    • 高效性:快速处理大规模文本数据。
    • 统一性:能够生成统一的标记表示,以便模型统一处理。
  3. 特殊Token的作用和模型自动学习

    • 特殊Token如开始和结束标记用于指示序列的起始和结束,使得模型能够正确处理输入序列。模型不能自动学习这些标记,因为在训练中需要有明确的序列起始和结束的指示,而自动学习可能导致模糊性和不确定性。
  4. LLM为何是Decoder-Only

    • LLM是Decoder-Only是因为语言模型任务中,需要根据之前的文本预测下一个标记,这种顺序建模的任务适合使用Decoder-Only结构。
  5. RMSNorm和LayerNorm的区别

  • LayerNorm(层归一化):LayerNorm是一种常见的归一化技术,它在每个层的特征维度上进行归一化处理。具体来说,对于每个样本,在特定层的所有隐藏单元特征维度上进行均值和方差的计算,然后将每个隐藏单元的输出减去均值并除以标准差以实现归一化。LayerNorm有助于加速训练过程,并提高模型的泛化能力。
  • RMSNorm(根均方归一化):RMSNorm是另一种归一化技术,它采用了不同的方式来计算归一化的均值和方差。与LayerNorm不同,RMSNorm使用平方根均方(root mean square)来代替标准差。这意味着RMSNorm更侧重于考虑样本中的大值,从而更好地适应于序列数据,并能够更好地处理长序列的梯度传播问题。

总的来说,RMSNorm相比于LayerNorm更适用于序列数据,尤其是处理长序列时的效果更好。

  1. LLM中的残差连接和作用

    • 残差连接在LLM中用于保留输入信息,有助于减少梯度消失和加速训练。
  2. PreNormalization和PostNormalization的影响

  • PreNormalization:在PreNormalization中,每个子层的输入会先经过Layer Normalization(LN),然后是残差连接(Residual Connection)和子层结构(比如Self-Attention或FFN)。这种顺序能够让模型更好地传递信息和梯度,有利于减少梯度消失和加速训练。因此,PreNormalization更利于信息传递和梯度传播,有助于训练深层模型。
  • PostNormalization:在PostNormalization中,每个子层的输出会先经过子层结构,然后再经过LN和残差连接。这种方式可能会导致梯度传播时出现一些问题,因为LN的位置会影响到梯度的传播路径。相比之下,PostNormalization可能会导致一些梯度传播上的困难,尤其是在深层网络中。
  1. FFN先扩大后缩小的作用

    • 先扩大后缩小有利于模型学习复杂的非线性映射关系,提高模型的表达能力。
  2. LLM为何需要位置编码和编码方案

    • LLM需要位置编码是因为自注意力机制无法直接捕捉位置信息。编码方案有绝对位置编码、相对位置编码等。
  3. 设计位置编码方案考虑因素

    • 位置信息的表达能力
    • 对不同长度序列的适应能力
    • 计算效率
2.2 np实现TinyLLaMa

看GitHub吧

改良Attention

将RMSNorm、RoPE等加入Attention模型,重新训练提升点数。看GitHub吧

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1484749.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Parallel Computing - 一文讲懂并行计算

目录 Throughput/LatencySerial ComputingParallel ComputingTypes of parallel computersSimple 4-width SIMDAmdahls lawTypes of parallelism**Data Parallel Model**Task parallel PartitioningDomain DecompositionFunctional Decomposition CommunicationsExample that d…

Android 基础入门 基础简介

1. 观察App运行日志 2.Android 开发设计的编程语言 koltin Java c c 3.工程目录结构 4.Gradle 5.build.gradle 文件解析 plugins {id("com.android.application")//用了哪些插件 主配置文件版本控制 所以这里不用写版本 }android {namespace "com.tiger.myap…

unity学习(44)——选择角色菜单——顺利收到服务器的数据

本节的思路参考自,内容并不相同:13ARPG网络游戏编程实践(十三):角色选择UI及创建面板制作(四)_哔哩哔哩_bilibili 现在的代码写在MessageManager.cs中,函数名UserHandler(是从OnMess…

mongodb 图形界面工具 -- Studio 3T(下载、安装、连接mongodb数据库)

目录 mongodb 图形界面工具 -- Studio 3T下载安装第一次使用:注册添加一个连接(连接 mongodb 数据库)1、点击【添加新连接】,选择【手动配置我的连接设置】2、对 Server 设置连接数据3、连接的用户认证设置(创建数据库…

【系统分析师】-需求工程

一、需求工程 需求工程分为需求开发和需求管理。 需求开发:需求获取,需求分析,需求定义、需求验证。 需求管理:变更控制、版本控制、需求跟踪,需求状态跟踪。(对需求基线的管理) 1.1需求获取…

BUGKU 网站被黑

打开环境,什么都没发现,使用蚁剑扫描一下,发现shell.php,打开 使用BP抓包,进行爆破 得到密码:hack 进去得到flag

【python】1.python3.12.2和pycharm社区版的安装指南

欢迎来CILMY23的博客喔,本篇为【python】1.python3.12.2和pycharm社区版的安装指南,感谢观看,支持的可以给个一键三连,点赞关注收藏。 目录 一、python3.12.2的下载与安装 1.1下载 1.2安装 二、pycharm的安装 2.1下载安装 2…

Home-credit海外贷款信贷产品源码/线上贷款产品大全/贷款平台软件源码/海外借贷平台

测试环境:Linux系统CentOS7.6、宝塔、PHP7.3、MySQL5.6,根目录public,伪静态laravel5,开启ssl证书 语言:中文简体、英文 laravel框架的程序有点多,这个团队估计主要就是搞laravel开发的,基本上…

Redis持久化+Redis内存管理和优化+Redis三大缓存问题

Redis持久化Redis内存管理和优化Redis三大缓存问题一、Redis高可用二、Redis持久化1、RDB持久化1.1 触发条件(1) 手动触发(2) 自动触发(3) 其他自动触发机制 1.2 执行流程1.3 启动时加载 2、AOF持久化2.1 开启AOF2.2 执行流程(1) 命令追加(append)(2) 文件写入(write)和文件同步…

Leetcode630. 课程表 III

Every day a Leetcode 题目来源:630. 课程表 III 解法1:反悔贪心 经验告诉我们,在准备期末考试的时候,先考的课程先准备。同理,lastDay 越早的课程,应当越早上完。但是,有的课程 duration 比…

MATLAB环境下基于图像处理的计算病理学图像分割(MATLAB R2021B)

人工智能是病理学诊断和研究的重要新兴方法,其不仅可用于病理形态数据分析,还可整合免疫组化、分子检测数据和临床信息,得出综合的病理诊断报告,为患者提供预后信息和精准的药物治疗指导。计算病理学是病理学与AI、计算机视觉等信…

DSI2协议之BTA行为理解

概念: DSI协议spec支持总线控制权在master和slave之间发生交换,即通过bus turn around来实现; BUS TURN AROUND: BTA 的实现是通过controller—>cdphy的turnrequest信号来实现; 关于控制器发出turnrequest给phy,phy通过lvds/trio线输出turnaround sequence如下图中…

设计一基于Text generation web UI的语言模型部署与远程访问的方案​

前言 Text generation web UI可为类ChatGPT的大型语言模型提供能够快速上手的网页界面,不仅可以提高使用效率,还可满足私有化部署,或对模型进行自定义。目前,该Web UI已经支持了许多流行的语言模型,包括LLaMA、llama.…

ABAP - SALV教程06 - 列的设置(隐藏、修改、优化列宽)

SAVL要想像Function ALV或OO ALV那样设置Fieldcat,也是有方法的。通过取得全体列的类引用 CL_SALV_COLUMNS来进行修改 METHOD set_columns.* 取得全部列的对象DATA(lo_cols) co_alv->get_columns( ).* 设置自动优化列宽度lo_cols->set_optimize( X ).T…

js监听网页iframe里面元素变化其实就是监听iframe变化

想要监听网页里面iframe标签内容变化,需要通过监听网页dom元素变化,然后通过查询得到iframe标签,再通过iframe.contentWindow.document得到ifram内的document,然后再使用选择器得到body元素,有了body元素,就…

mamba-ssm安装building wheel卡着不动后error...避坑解决方法

文章目录 方法1、下载whl文件到本地后pip install安装成功后验证: 方法2、拉取Docker镜像 对于项目中用到MambaIR的小伙伴,需要pip安装 causal_conv1d和 mamba-ssm两个包及其依赖: torch packing transformersMambaIR-Github主页&#xff0…

【管理】管理岗位的通道:技术型PM,项目经理,管培生

【管理】管理岗位的通道:技术型PM,项目经理,管培生 文章目录 1、管理岗位什么是管理岗位互联网管理岗 2、项目经理(互联网)项目经理岗位要求项目经理 VS 程序员项目经理 VS 产品经理 3、市场销售(管培生&am…

小实验:ESP32实现流水灯控制

文章目录 代码代码说明 ESP32提供了多路IO接口,下面的这个小试验实现了一个简单的流水灯控制,可以控制6个灯珠,当然也可以更多,可以根据情况增加和减少。 代码 将代码命名为main.py,上传到开发板,接好电路…

机器学习笔记 探索性数据分析(EDA) 中的配对图详述

一、介绍 在数据科学领域,理解和分析数据的第一步涉及全面的探索性数据分析(EDA)。这个过程对于识别模式、识别异常和建立假设至关重要。在 EDA 可用的众多工具中,配对图作为一种基本可视化技术脱颖而出,可提供多方面的数据视图。本文探讨了机器学习中的配对图,并解释了如…

springboot+vue学生网上请假系统

学生网上请假系统 摘要 随着信息技术在管理上越来越深入而广泛的应用,管理信息系统的实施在技术上已逐步成熟。本文介绍了学生网上请假系统的开发全过程。通过分析学生网上请假系统管理的不足,创建了一个计算机管理学生网上请假系统的方案。文章介绍了…