深度学习(6)---Transformer

news2024/11/16 3:33:15

文章目录

  • 一、介绍
  • 二、架构
    • 2.1 Multi-head Attention
    • 2.2 Encoder(编码器)
    • 2.3 Decoder(解码器)
  • 三、Encoder和Decoder之间的传递
  • 四、Training
  • 五、其他介绍
    • 5.1 Copy Mechanism
    • 5.2 Beam Search


一、介绍

 1. Transformer是一个Seq2Seq(Sequence-to-Sequence)的模型,这意味着它能够处理从输入序列到输出序列的问题。在Seq2Seq模型中,输入是一段序列,输出也是一段序列,输出序列的长度通常由模型自身决定。这种模型在自然语言处理(NLP)领域有广泛的应用,例如语音识别、机器翻译、语音合成、聊天机器人训练等。

在这里插入图片描述

 2. Transformer作为Seq2Seq模型的一种实现,采用了自注意力机制(self-attention)和位置编码(position encoding)等技术,使其在处理长序列时具有更好的性能。相比传统的Seq2Seq模型,Transformer的编码器和解码器部分内部不再使用RNN网络,而是采用了自注意力机制,这使得模型在处理序列数据时更加高效。Transformer的整体模型架构如下图所示:

在这里插入图片描述

二、架构

2.1 Multi-head Attention

 1. 在Transformer中,通过添加一种多头注意力机制,可进一步完善自注意力层。具体做法:首先,通过 h h h 个不同的线性变换对 Query、Key 和 Value 进行映射;然后,将不同的 Attention 拼接起来;最后,再进行一次线性变换。基本结构如下图所示:

在这里插入图片描述

 2. 在多头注意力下,我们为每组注意力单独维护不同的 Query、Key 和 Value 权重矩阵,从而得到不同的 Query、Key 和 Value 矩阵。

在这里插入图片描述

 3. 按照上面的方法,比如使用不同的权重矩阵进行 8 次自注意力计算,就可以得到 8 个不同的 Z Z Z 矩阵。
 因为前馈神经网络层接收的是 1 个矩阵(每个词的词向量),而不是上面的 8 个矩阵。因此,我们需要一种方法将这 8 个矩阵整合为一个矩阵。具体方法如下:

  • (1) 把 8 个矩阵拼接起来。
  • (2) 把拼接后的矩阵和一个权重矩阵 W O W^O WO 相乘。
  • (3) 得到最终的矩阵 Z Z Z,这个矩阵包含了所有注意力头的信息。这个矩阵会输入到前馈神经网络层。

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

 4. 总结:多头注意力机制通过并行化处理多个注意力头来提高效率。每个注意力头都可以独立计算注意力权重,衡量输入信息中不同部分的关联程度。这样,模型可以从多个不同的角度和层次上关注输入数据,捕捉到更多的语义信息。
 多头注意力机制的优势在于其能够更好地理解句子的句法和语义结构信息,并提高模型从不同位置学习特征信息的能力。

2.2 Encoder(编码器)

 1. 在人工智能中,Encoder通常指的是神经网络中的一个部分,用于将输入数据转换成一种适合解码器网络处理的形式。
 在序列到序列(Seq2Seq)模型中,Encoder用于将输入序列转换为一种固定维度的向量表示,这种向量表示可以作为后续处理和生成任务的基础。例如,在机器翻译任务中,Encoder可以将输入的源语言句子转换为一种固定维度的向量表示,然后这个向量可以作为Decoder的输入,以生成目标语言的翻译结果。

注解:常见的编码方法包括独热编码(One-Hot Encoding)和标签编码(Label Encoding)等。独热编码是一种将类别特征转换为二进制向量表示的方法,其中每个向量只有一个元素为1,其余元素为0。这种方法适用于类别特征数量较小的情况。标签编码则是一种将类别特征转换为整数表示的方法,其中每个整数代表一个特定的类别。这种方法适用于类别特征数量较大的情况。

 2. Transformer中的Encoder如下图所示:

在这里插入图片描述

在这里插入图片描述

 3. Encoder的一个Block如下图所示,在自注意力和FC上加了Residual,并且使用了Layer norm。

在这里插入图片描述

在这里插入图片描述

注解
(1)FC层指的是全连接层(Fully Connected Layer),也被称为密集层或线性层。全连接层是一种常见的神经网络层,其每个神经元都与前一层的所有神经元相连,因此被称为全连接。全连接层通常位于神经网络的最后几层,用于将学习到的特征组合起来生成最终的输出结果。
(2)Batch Norm,即批规范化,是深度学习中常用的一种技术,主要用于解决每批数据训练时的不规则分布给训练造成的困难。具体地说,Batch Norm会对神经网络的某一层的batch输出进行归一化,即先进行z-score归一化,然后进行线性变换,最后再输入到激励函数中。这样做可以使得网络的训练更快、更稳定。同时,Batch Norm也是一种正则化的方式,可以代替其他正则化方式如dropout,但也可能消融数据之间的许多差异信息。因此,并不能说Batch Norm一定适用于任何任务。
(3)Layer Norm是一种神经网络中的归一化技术,它对每一个样本内的所有值进行标准化处理。LayerNorm的具体过程是将每一个样本的所有特征值进行均值和方差的归一化,使数据落在均值为0,方差为1的分布中。与Batch Normalization(BatchNorm)不同,LayerNorm是在每个样本的维度上进行归一化,而不是在每个batch的维度上进行归一化。因此,LayerNorm可以更好地处理不同大小和长度的序列数据,尤其在自然语言处理和循环神经网络等任务中表现优异。

2.3 Decoder(解码器)

 1. 编码器的作用是将信息转换为一种适合传输、存储或处理的形式,而解码器则将其还原为原始形式。
 在机器学习和深度学习的上下文中,Decoder通常指的是一个神经网络模型的一部分,用于将编码后的数据或特征映射回原始空间。例如,在自编码器(Autoencoder)中,Decoder部分负责将压缩编码的向量解码成与输入数据相似的输出数据。
 除了自编码器,Decoder还可以应用于其他任务,如生成对抗网络(GAN)中的生成器、序列到序列(Sequence-to-Sequence)模型中的解码器等。在这些任务中,Decoder通常负责将输入数据转换为目标形式的输出数据,例如从编码的向量生成图像、文本或语音等。

 2. 我们以机器翻译为例,Decoder接收来自Encoder的一组向量。
 (1) 先给Decoder一个特殊的符号,代表begin,在Decoder产生的文本里产生一个开始的符号。
 (2) 接下来Decoder会产生一个向量,向量长度和对应语言词汇库的长度一样,就是希望识别的词汇库的总词汇数。
 (3) 在得到该向量前做一个 s o f t m a x softmax softmax 分类,给每个字一个分数,选择最大的。把新得到的输出“机”表示为一个向量,作为Decoder新的输入,不断进行下去。
注意:每个输出向量,都结合了在它之前的输入(或说输出)向量,比如”学“的输出是学习了输入的begin、“机”、“器”。 且由于后面的输出与前面的输出有关联,所以可能会出现一步错步步错的情况。

在这里插入图片描述

在这里插入图片描述

 3. Transformer中的Decoder如下图所示:

在这里插入图片描述

在这里插入图片描述

 4. Encoder与Decoder比较,主要在于Decoder多了Masked部分。

在这里插入图片描述

 5. 在Self-attention中,一个输出要考虑所有的输入。而Masked部分就是从每个输出都考虑所有输出变为只考虑前面的输入。

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

 6. 另外的关键点:Decoder必须自己决定输出的长度。所以在输出想要的结果后,需要输出一个“断”的符号,即表示结束,才能没有后续的输出。

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

三、Encoder和Decoder之间的传递

 1. Encoder和Decoder之间传递资讯需要靠下面图中红框的部分。在Cross attention部分中,两个输入来自Encoder,一个输入来自Decoder。

在这里插入图片描述

 2. Decoder产生一个 q q q 会和Encoder的输出 a a a 做注意力机制的运算,结果进入FC。

在这里插入图片描述

在这里插入图片描述

四、Training

 1. 前面讲述的所有内容都是在模型已经训练好的基础上进行的。那在训练模型时,以机器翻译为例,我们会给一段语音和真实的对应标签。那每一个的输出的结果我们都希望最接近真实的标签,每产生一个字就是从几千个字中进行的分类问题。训练时希望所有的字(含END)的交叉熵最少。
注意:在训练时我们会给Decoder正确答案。

在这里插入图片描述

 2. Teach Forcing是一种训练技术,在Transformer模型中用于提高训练效率和收敛速度。Teach Forcing允许模型在一次输入全部目标序列,以并行的方式一次输出完整的目标序列,从而大大提高了训练效率。
 Teach Forcing的主要思想是,在训练过程中,我们强制模型使用正确的单词作为目标序列的输入,而不是使用模型自身的预测结果。这样可以避免因中间预测错误而对后续序列的预测产生影响,从而加快训练速度。
 在Transformer模型中,Teach Forcing的实现方式是将正确的单词序列和对应输出传递到Decoder模块。在每个时间步,我们使用上一时刻的正确单词作为输入,而不是使用模型自身的预测结果。这样,每个时刻的输入不再依赖上一时刻的输出,而是依赖真实的目标序列。

在这里插入图片描述

五、其他介绍

5.1 Copy Mechanism

 1. 其实有时候我们在一些对话中(如聊天机器人)只需要复制一些信息。在Transformer中有这种技术,叫Copy Mechanism。

在这里插入图片描述

 2. Copy Mechanism是一种在文本生成领域中使用的技术,其目的是在生成输出时复制或指向输入序列的元素。这种机制最早由Vinyals等人于2015年在Pointer Network中提出,有时也被称为Pointer Mechanism。
 Copy Mechanism的设计初衷是为了解决传统seq2seq模型输出序列词汇表无法随着输入序列长度改变而改变的问题。Pointer Network将attention机制中针对输入序列的权重用作指向输入序列的指针,因此其输出为权重最大的位置的输入序列元素,实现直接操作输入序列元素作为输出,而不需要设定输出序列词汇表。
 在对话任务中,Copy Mechanism被用来复制对话上下文和响应之间的单词,这有助于提升模型的性能。因为对话中经常会有重复的短语或专有名词等低频词,这些词靠标准RNN很难生成。
 总之,Copy Mechanism的本质是提取(extract)关键词,这个输出可以作为上游模块,和其它任务相结合。

在这里插入图片描述

5.2 Beam Search

 1. 在Transformer模型中,Beam Search是一种启发式搜索算法,用于生成最可能的输出序列。Beam Search的核心思想是使用宽度为 k k k 的搜索来找到最可能的输出序列。在每个时间步,算法将保留 k k k 个最可能的输出,并根据这些输出生成下一个时间步的候选输出。
 具体来说,Beam Search从初始状态开始,对于每个时间步,它将计算当前状态下的所有可能输出的概率。然后,它选择概率最高的 k k k个输出作为候选输出。对于每个候选输出,算法将其与下一个时间步的候选输出相乘,并选择概率最高的 k k k 个输出作为下一个时间步的候选输出。这个过程一直持续到达到最大长度或满足终止条件为止。
 Beam Search的一个关键参数是宽度 k k k,它决定了搜索的宽度。较大的 k k k 值将导致更宽的搜索,从而增加输出的多样性,但也可能导致更多的计算成本。较小的k值将导致更窄的搜索,但可能忽略一些好的候选输出。

在这里插入图片描述

 2. 在Decoder中提到,每个输出都是分数最大的,但有时找出分数最高的不一定就是最好的,这取决于任务的特性。当目标非常明确时,Beam Search性能好,如语音辨识;当需要一点创造力、结果有多种可能时,需要在Decoder中加入随机性。

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1411485.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

redis + 拦截器 :防止数据重复提交

1.项目用到,不是核心 我们干系统开发,不免要考虑一个点,数据的重复提交。 我想我们之前如果要校验数据重复提交要求,会怎么干?会在业务层,对数据库操作,查询数据是否存在,存在就禁止插入数据; 但是吧,我们每次crud操作都会连接…

【史上最全之 ChatGPT 和文心一言对比】

ChatGPT 和文心一言哪个更好用? 在当今的AI助手领域中,ChatGPT与文心一言无疑是备受瞩目的两位选手。两者分别由美国OpenAI公司和中国百度研发,均致力于提供卓越的人工智能对话体验。接下来,我们将从智能回复、语言准确性以及知识…

SQL - 事务控制

SQL - 事务控制 文章目录 SQL - 事务控制TCL - 事务事务的边界事务的特性事务的应用 事务隔离等级MySQL支持四种隔离级别 TCL - 事务 **模拟场景:**生活当中转账是转账方账户扣钱,收账方账户加钱。用数据库操作来模拟现实转账。 数据库模拟&#xff1a…

HH44X-16微阻缓闭式止回阀常见的问题

HH44X-16微阻缓闭式止回阀常见的问题 HH44X-16微阻缓闭式止回阀常遇问题包括以下几点: 一、泄漏: HH44X-16微阻缓闭式止回阀在关闭时可能会发生泄漏,导致介质倒流。泄漏可能由于密封失效、阀门磨损或堵塞等原因造成。 二、堵塞:…

复盘_用工具提升效率

流量池 从 2017 年 10 月,我开始写公众号,一直以来都是零零散散地写,读者也只是随随便便地看。而今年在连续日更了 10 天后,我获得了今年的第一次流量池推荐。 尽管和别人动辄十万百万的阅读量没法比。但是,考虑到我的…

echarts 绘制垂直滚动热力图

问题1:提示功能无效 问题2:值筛选无效 效果 在线浏览 下载echarts官网例子(heatmap Examples - Apache ECharts) 稍作改动: generateData 入参改为长度和宽度noise.perlin2(i / 40, j / 20) Math.random() * 5y轴倒置指定zlevel为2 通过定…

如何使用Jellyfin+cpolar搭建私人影音平台实现无公网ip远程访问

文章目录 1. 前言2. Jellyfin服务网站搭建2.1. Jellyfin下载和安装2.2. Jellyfin网页测试 3.本地网页发布3.1 cpolar的安装和注册3.2 Cpolar云端设置3.3 Cpolar本地设置 4.公网访问测试5. 结语 1. 前言 随着移动智能设备的普及,各种各样的使用需求也被开发出来&…

2024年广东省安全员A证第四批(主要负责人)证模拟考试题库及广东省安全员A证第四批(主要负责人)理论考试试题

题库来源:安全生产模拟考试一点通公众号小程序 2024年广东省安全员A证第四批(主要负责人)证模拟考试题库及广东省安全员A证第四批(主要负责人)理论考试试题是由安全生产模拟考试一点通提供,广东省安全员A证…

HCIE之BGP路由策略(三)

BGP 一、路由控制工具ACLIP-PREFIXRoute-Policy 二、BGP路由控制通过更改MED属性调节选路通过更改Local_Pref属性调节选路理解ACL、IP-PREFIX和Route-Policy中permit、deny的含义 三、BGP属性特点-团体属性练习no-advertise属性ORF 一、路由控制工具 在对BGP进行路由控制之前&…

你认识哪几种树结构

二叉树,B,B,B*,R树 二叉树 使用二分结构存储数据,查找数据时,耗时最好可达到O(log2N)。但是二叉树没有平衡的特性,所以在经过一系列的增删后,可能会出现极端的情况,耗时…

利用Python实现中文文本关键词抽取的三种方法

文本关键词抽取,是对文本信息进行高度凝练的一种有效手段,通过3-5个词语准确概括文本的主题,帮助读者快速理解文本信息。目前,用于文本关键词提取的主要方法有四种:基于TF-IDF的关键词抽取、基于TextRank的关键词抽取、…

代理模式-C#实现

该实例基于WPF实现,直接上代码,下面为三层架构的代码。 目录 一 Model 二 View 三 ViewModel 一 Model using System; using System.Collections.Generic; using System.Linq; using System.Text; using System.Threading.Tasks;namespace 设计模式练…

像搭乐高一样把模型拼在一起

琳琅满目的乐高积木,通过一块又一块的叠加,可以创造出各种栩栩如生的人物、景观等,不同的乐高作品相互组合,又能为爱好者带来新的创意。 我们把思路打开一点,在大模型(LLM)爆发的当下&#xff0…

SpringBlade微服务开发平台

采用前后端分离的模式,前端开源两个框架:Sword (基于 React、Ant Design)、Saber (基于 Vue、Element-UI)后端采用SpringCloud全家桶,并同时对其基础组件做了高度的封装,单独开源出一个框架:BladeToolBladeTool已推送至…

Nginx部署、Jenkins自动发布、搜索服务概述、ES部署与使用、消息队列概述、RabbitMQ部署及使用

案例1:HIS前端代码测试 Fontend主机部署Nginx #HIS前端代码为编译后代码,可直接部署在nginx上查看效果[rootFontend ~]# yum clean all; yum repolist -vTotal packages: 8,265[rootFontend ~]# yum -y install nginx.x86_64 #安装nginx…

第13章_泛型(集合中使用泛型,比较器中使用泛型,自定义泛型结构,泛型在继承上的体现,通配符的使用)

文章目录 第13章_泛型(Generic)本章专题与脉络1. 泛型概述1.1 生活中的例子1.2 泛型的引入 2. 使用泛型举例2.1 集合中使用泛型2.1.1 举例2.1.2 练习 2.2 比较器中使用泛型2.2.1 举例2.2.2 练习 2.3 相关使用说明 3. 自定义泛型结构3.1 泛型的基础说明3.2 自定义泛型类或泛型接…

[git] windows系统安装git教程和配置

一、何为Git Git(读音为/gɪt/)是一个开源的分布式版本控制系统,可以有效、高速地处理从很小到非常大的项目版本管理。 二、git安装包 有2种版本,Git for Windows Setup和Git for Windows Portable(便携版)两个版本都可以。 三、Git for Windows Por…

【GPU】深入理解GPU硬件架构及运行机制

深入理解GPU硬件架构及运行机制 作者:Tim在路上​ 曾看到有一篇名为《The evolution of a GPU: from gaming to computing》的文章。 这篇文章非常热烈的讨论了这些年GPU的进步,这引发了我们的一些思考: 为什么我们总说GPU比CPU要强大,既然…

ISCTF2023 RE FloweyRSA WP

64位无壳,但是进去连main函数都没有 这里应该是main的头部 这里是一个jmp的花指令 jnz short labela 跳转到labela是一段没用的代码 所以把它和labela全部NOP 往下翻,又是必然跳转至label1 把jz short label1到db 0的花指令全部NOP label3这里也是类似的…

【mongoDB】下载与安装教程

目录 1. 下载 2.安装 3.启动 mangoDB是否启动成功 ? 1. 下载 官网地址:https://www.mongodb.com/try/download/community 2.安装 3.启动 在此输入命令操作数据库 mangoDB是否启动成功 ? 在浏览器访问:http://127.0.0.1:27017/ 出现该页面表示m…