目录
模型概述
Transformer输入
Word Embedding
Positional Encoding
Transformer的输出
Self Attention
Multi-Head Attention
Encoder结构
最后层的输出
Masked Multi-Head Attention
Decoder输入
Decoder的输出
Transformer训练和推理过程
《Attention is All You Need》
论文地址:https://arxiv.org/abs/1706.03762
原理解读:https://blog.csdn.net/m0_47256162/article/details/127339899
本文的内容参考来自👆这篇博客,感谢博主的辛苦工作~
模型概述
Transformer模块主要包含Encoders和Decoders两个部分
Transformer输入
以一个翻译的例子理解transformer原理过程:
整个模型的输入是中文我爱你,目标是将其翻译成英文的I love you,但是对于中文我爱你模型是无法训练的,要将其数值化再送入模型当中。将中文转成数值一般有两种方法:
-
One Hot编码:形成高维向量,向量的维度为词袋大小,如果是中文,向量的维度就是所有汉字的数量,然后是哪个字就将对应位置变为1,其它位置为0。
-
Embedding词嵌入:通过网络进行训练或者通过一些训练好的模型将其转化成连续性的向量。(常用)
Word Embedding
Embedding可以使用一些预训练好的模型比如word2vec得到,通过Embedding会将每个字形成一个连续型向量,这里假设嵌入维度为5,所以是使用一个维度为5的向量来表示一个字。嵌入后输入的向量维度为[序列长度, 嵌入维度], [3, 5]。
Positional Encoding
由于Transformer中使用的是自注意力机制来提取信息,虽然处理每个字的时候能够考虑到所有字对其的影响,但是并没有考虑到各个字相互之间的位置信息,也就是上下文,例如如果输入序列变为爱我你,如果仅使用自注意力机制那么输出应该是一样的,所以需要添加整个序列的位置信息。
在Transformer中使用的是位置编码来表示单词的顺序信息,位置信息也是通过Embedding进行表示,对于位置编码来说有两种方式可以得到:
-
通过Embedding进行训练
-
通过公式计算
Transformer中使用公式将每个位置信息进行编码,然后将这个编码信息和对应位置词的编码进行相加,让自注意力机制同时考虑词的顺序信息,同时又可考虑到所有输入的词。
Transformer的输出
对于Transformer的输出就是翻译出的:I love you,由于需要预测出每个字需要翻译为哪个词,所以这是个多分类问题(Softmax),相当于做词个数个多分类问题,每个位置对应的输出的维度应为所有单词的个数,每个维度对应预测为该词的概率,概率最大位置对应的词就是该位置预测出翻译的词。输出n个词,每个词对应的维度为词袋的个数,第一个位置预测为I,说明对应该向量I单词对应的概率最大。
Self Attention
Transformer中最重要的模块就是自注意力机制,Self-Attention自注意力机制有三个输入,分别是Q(查询)、K(键)、V(值)。经过注意力机制后就会得到词个数个新的编码向量,新的编码向量由于采用了注意力机制就会考虑到其它词对其的影响,影响程度就由注意力分数所影响。
注意力机制有几个步骤:
-
根据输入向量x计算对应q、k、v
-
用自己的查询向量q和其它词的k做点积来计算注意力分数
-
将得到的注意力分数进行Softmax
-
将注意力分数与各个词的v向量相乘得到加权表示向量
为了得到Q、K、V,需要使用三个不同的权重矩阵,然后与输入矩阵相乘,然后将输入矩阵X映射到一个新的维度空间,然后就可以利用得到的Q、K、V计算相应的注意力分数和加权向量。得到的Q、K、V行代表的是每个词,就是每个词对应的q向量。
由上面可知Q、K、V矩阵,然后利用Q和K相乘得到不同词之间的注意力分数。
为了提高并行度,利用矩阵进行运算,将Q和K的转置相乘,这样就会得到一个方型矩阵,矩阵的每个元素代表每个词对其它词的注意力分数。
然后对得到的注意力分数进行Softmax操作来归一化,这样每一行的分数加起来就为1。然后利用归一化后的注意力分数然后与V进行相乘得到各个词的加权向量,得到的Z每一行代表每个词的新的编码向量。
Multi-Head Attention
Transformer中采用的是Multi-Head Attention(多头注意力机制),它可以类比CNN中的多个kernel,CNN中每个kernel可以理解为提取不同模式的特征图,所以这里也引入了这个机制,不同的头可以提取出不同的语义信息。多头注意力机制就是采用了多个的Self-Attention,这样每一次就会得到多组的Z,比如这里我们设置头的个数为8,那么我们就会得到8个Z矩阵。
将输入向量X分别送入8个不同的头中,就是8个不同的自注意力机制模块,每个模块拥有自己的参数(Wq, Wk, Wv)。得到了8个输出矩阵Z1,Z2…Z8之后,然后把这个8个矩阵拼接起来,然后利用全连接网络将其映射成一个与输入向量X形状一致的矩阵。Multi-Head Attention输出的矩阵Z和输入矩阵X的维度是一致的。
Encoder结构
Encoder是由Multi-Head Attention、Add & Norm、Feed Forward、Add & Norm四个小模块组成。
多头注意力机制会得到8个输出,每个输出维度为[3,5], 然后经过多头注意力机制进行特征提取,会得到多个输出Z向量,也就是每个头提取出不同模式的矩阵,维度是[词个数,隐向量维度]。
将各个头对应的Z矩阵进行拼接,形成一个大矩阵维度为[词个数, 头个数*隐向量维度],然后将其喂入一个全连接网络,然后会映射成为一个与输入向量形状一致的Z矩阵,这样目的就是能够保持最终的输出向量和输入维度一致,因为Transformer中采用了残差结构,以便于能够相加。最终的Z矩阵每一行就是经过多头注意力机制提取后每个词对应的编码向量。
Add & Norm是分成两个部分,一个是残差结构,一个是LayerNorm,其计算公式如下:
Encoder中有两处使用了残差结构:
-
第一处是将输入矩阵X与经过多头注意力机制得到的Z相加
-
第二处是将输入向量与经过FeedForward网络的输出相加
采用残差结构主要是为了解决网络难以训练的问题,有了残差结构就可以把网络做的更深,现很多深层的神经网络都使用了残差结构。
LayerNorm是指Layer Normalization,他与Batch Normalization是不同的,对于Batch Normalization会对同一批次的所有样本的同一特征计算均值和方差,但是对于文本问题,一般序列长度是不一致的,所以无法对于同一特征进行计算,所以这里采用了Layer Normalization,就是对于同一样本的所有特征计算均值和方差。
Feed Forward在Transformer就是普通的全连接网络,激活函数使用的是ReLU:
由于输入数据是:我爱你,那么经过多头注意力机制及残差网络后得到的输出向量为Z,维度为[词个数,嵌入维度],这个全连接网络会对每个词输出的Z向量进行转换,并不是有3个全连接网络,而是和RNN差不多,是使用了一个全连接网络参数共享。处理每个字的全连接网络是一个,这是参数共享的,并不是说为每个字都分配一个网络。
最后层的输出
经过6个Encoder个层堆叠后,最后一层的输出就是整个Encoder的输出,输出维度为[词个数, 嵌入向量维度],也就是和Z一样的形状。Z传入到Decoder中计算相应的K和V。
Decoder结构
-
每个Decoder Block有两个Multi-Head Attention层
-
第一个Multi-Head Attention层采用了Masked操作
-
第二个Multi-Head Attention层的K、V矩阵输入源来自Encoder的输出编码矩阵,而Q矩阵是由经过Add & Norm层之后的输出计算来的。
Masked Multi-Head Attention
Decoder中的第一个Multi-Head Attention是采用了Masked的操作,他和普通的多头注意力机制计算上来将是一致的,只是多了个掩码矩阵,用于遮盖当前输入后面的数据,不让当前时间模型知道后面的答案是什么。掩码只是在第一个注意力机制使用,第二个是没有用的,因为第一个注意力机制接收的输入为正确答案,在预测当前单词的翻译是我们是不能够让他知道正确答案的,只能根据前面已经翻译出来的内容进行推理。
-
第一步: 构造掩码矩阵Mask,目的就是为了遮盖当前位置之后的信息,由于输入词个数为3,所以会形成一个 3* 3 的掩码矩阵,矩阵绿色代表当前位置是否可利用,第一个单词只可利用自身,第二个单词则可利用自身和前一个单词,而最后一个则可利用所有信息
-
第二步: 接下来和普通注意力机制是一样的,通过输入矩阵,计算出Q、K、V矩阵
-
第三步: 然后利用Q和K矩阵计算出对应的注意力分数
-
第四步: 将上一步得到的注意力分数进行归一化操作,使每一行的概率和为1
-
第五步: 将归一化后的注意力分数与掩码矩阵按位相乘,这样就会得到一个遮盖后的注意力分数矩阵,对于QK矩阵来说,每一行是每个单词对其它单词的注意力分数,为了不让当前位置看到单词的信息,要将当前位置单词之后的注意力分数变为0,这样注意力机制就只会参考前面出现的信息。
-
第六步: 使用Mask矩阵与V矩阵相乘得到输出矩阵Z,这样每个词的输出向量就只包含它之前单词的信息。
-
第七步: 和多头注意力机制一样,将每个头的输出矩阵Z进行拼接,然后使用全连接网络将其映射成和输入矩阵X维度一样。
Decoder中的第二个Multi-Head Attention其实和Encoder中的是一样的,只不过输入的Q、K、V数据来源不一样,K、V矩阵是由Encoder最后一层输出计算得来的,而Q矩阵是由经过第一个掩码注意力机制后的矩阵计算得来的。这里是不需要Mask的,因为在翻译过程需要看所有单词的信息,就是我爱你所有上下文信息都要看到,这也是为什么要从Encoder的输出矩阵计算K和V,Encoder的最终输出可以理解为整句话的最终编码信息,包含了所有的语义信息。
Decoder输入
对于Decoder的输入分为第一个Decoder Block和之后的Block,第一个Block输入的是Ground Truth,也就是真实答案的嵌入向量,而之后block的输入为前一个块的输出。
Decoder的输出
对于翻译任务来说,需要预测每个字的概率,那就需要使用Softmax来预测所有可能词的概率,比如词库有I、love、you、today、me这五个单词,那么对于一个词 “I” 的输出就为 【0.5,0.1,0.1,0.2,0.1】,由于对应 “I” 位置的概率最大,所以第一个单词预测为 “I”。经过Softmax后,每一行概率和为1,每一行预测出的词就为概率最大的一个。
Transformer训练和推理过程
-
训练过程:对于训练过程,我们是将原始输入和正确答案一同输入的,训练过程采用Teacher Forcing,而对于正确答案输入是采用了Mask操作,就是为了不让模型看到当前词之后的信息,这是可以并行进行的。
-
推理过程:但是对于推理过程,是不会输入正确答案的,而且和RNN运行差不多是一个一个的,首先会给Decoder输入开始标志,然后经过Decoder会预测出 “I” 单词,然后拿着这个 “I” 单词继续喂入Decoder去预测 “love”,但后拿着 “love” 去预测 “you” ,最后拿着 “you” 去预测结束标志。
对于翻译任务来说,这是序列到序列的问题,显然每次的输出序列的长度是不一致的,所以需要一个结束标志来表明这句话已经翻译完成,所以需要按顺序一个一个翻译,不断拿着已经翻译出的词送入模型,知道预测出结束标志为止。