11.注意力机制

news2024/9/20 20:39:15

11.注意力机制

目录

  • 注意力提示

    • 查询、键和值

    • 注意力的可视化

  • 注意力汇聚:Nadaraya-Watson 核回归

    • 生成数据集

    • 非参注意力池化层

      • Nadaraya-Watson核回归
    • 参数化的注意力机制

      • 批量矩阵乘法

      • 定义模型

      • 训练

  • 注意力评分函数

    • 掩蔽softmax操作

    • 加性注意力

    • 缩放点积注意力

  • 使用注意力机制的seq2seq

    • 动机

    • 加入注意力

    • 定义注意力解码器

    • 训练

    • 总结

  • 多头注意力

    • 模型

    • 实现

    • 总结

  • 有掩码的多头注意力

  • 自注意力和位置编码

    • 自注意力

    • 比较卷积神经网络、循环神经网络和自注意力

    • 位置编码

      • 绝对位置信息

      • 相对位置信息

    • 总结

    • 多头注意力和自注意力的区别

  • Transformer

    • 模型

    • 基于位置的前馈网络

    • 残差连接和层规范化

    • 编码器

    • 信息传递

    • 解码器

    • 训练

    • 预测

    • 总结

注意力提示

在心理学上

  • 动物需要在复杂环境下有效关注值得注意的点
  • 心理学框架:人类根据随意线索和不随意线索选择注意点

查询、键和值

  • 卷积、全连接、池化层都只考虑不随意线索

  • 注意力机制则显示的考虑随意线索

    随意线索被称为查询(query)

    每个输入是一个值(value)和不随意线索(key)的对

    通过注意力池化层来选择有偏向性的选择某些输入1

更通俗的解释,每个值都与一个_键_(key)配对, 这可以想象为感官输入的非自主提示。 如下图所示,可以通过设计注意力汇聚的方式, 便于给定的查询(自主性提示)与键(非自主性提示)进行匹配, 这将引导得出最匹配的值(感官输入)。

在这里插入图片描述

然而,注意力机制的设计有许多替代方案。 例如可以设计一个不可微的注意力模型, 该模型可以使用强化学习方法 (Mnih et al., 2014)进行训练。

注意力的可视化

平均汇聚层可以被视为输入的加权平均值, 其中各输入的权重是一样的。 实际上,注意力汇聚得到的是加权平均的总和值, 其中权重是在给定的查询和不同的键之间计算得出的。

import torch
from d2l import torch as d2l

为了可视化注意力权重,需要定义一个show_heatmaps函数。 其输入matrices的形状是 (要显示的行数,要显示的列数,查询的数目,键的数目)。

#@save
def show_heatmaps(matrices, xlabel, ylabel, titles=None, figsize=(2.5, 2.5),
                  cmap='Reds'):
    """显示矩阵热图"""
    d2l.use_svg_display()
    num_rows, num_cols = matrices.shape[0], matrices.shape[1]
    fig, axes = d2l.plt.subplots(num_rows, num_cols, figsize=figsize,
                                 sharex=True, sharey=True, squeeze=False)
    for i, (row_axes, row_matrices) in enumerate(zip(axes, matrices)):
        for j, (ax, matrix) in enumerate(zip(row_axes, row_matrices)):
            pcm = ax.imshow(matrix.detach().numpy(), cmap=cmap)
            if i == num_rows - 1:
                ax.set_xlabel(xlabel)
            if j == 0:
                ax.set_ylabel(ylabel)
            if titles:
                ax.set_title(titles[j])
    fig.colorbar(pcm, ax=axes, shrink=0.6);

这段代码定义了一个名为show_heatmaps的函数,用于显示矩阵的热图。该函数的输入参数包括以下内容:

  • matrices:要显示的矩阵,可以是一个Tensor对象或一个由Tensor组成的列表,其中第一个维度表示行,第二个维度表示列。
  • xlabel:热图的 x 轴标签。
  • ylabel:热图的 y 轴标签。
  • titles:一个列表,用于指定每列矩阵的标题,如果不指定则默认为空。
  • figsize:一个二元组,用于指定图像的大小。
  • cmap:一个字符串,表示使用的颜色映射。

该函数内部首先调用d2l.use_svg_display()函数,将绘制的图像格式设置为SVG格式,然后创建一个具有num_rows行和num_cols列的子图,其中每个子图将用于显示一个矩阵的热图。对于每个子图,使用ax.imshow()方法显示对应的矩阵,使用set_xlabel()set_ylabel()方法分别设置x轴和y轴的标签,使用set_title()方法设置列标题。最后,使用fig.colorbar()方法添加一个颜色条。

注意,该函数使用了d2l模块中的函数和方法,例如d2l.use_svg_display()d2l.plt.subplots()等。

下面使用一个简单的例子进行演示。 在本例子中,仅当查询和键相同时,注意力权重为1,否则为0。

attention_weights = torch.eye(10).reshape((1, 1, 10, 10))
show_heatmaps(attention_weights, xlabel='Keys', ylabel='Queries')

这段代码生成一个 10 × 10 10\times10 10×10的单位矩阵,然后将其变形为一个四维张量,大小为 1 × 1 × 10 × 10 1\times1\times10\times10 1×1×10×10。接着,调用show_heatmaps函数将这个四维张量作为输入参数传递给它,并设置x轴标签为“Keys”,y轴标签为“Queries”。这将生成一个矩阵热图,其中每个位置的颜色表示对应位置的Query和Key之间的注意力权重。由于这里使用了单位矩阵作为输入,因此所有的权重值都为0或1,对应于Query和Key是否相等。

torch.eye(10)是一个PyTorch函数,用于创建一个10x10的单位矩阵。其中,单位矩阵是一个方阵,其对角线上的元素为1,其它元素均为0,例如:

tensor([[1., 0., 0., 0., 0., 0., 0., 0., 0., 0.],
        [0., 1., 0., 0., 0., 0., 0., 0., 0., 0.],
        [0., 0., 1., 0., 0., 0., 0., 0., 0., 0.],
        [0., 0., 0., 1., 0., 0., 0., 0., 0., 0.],
        [0., 0., 0., 0., 1., 0., 0., 0., 0., 0.],
        [0., 0., 0., 0., 0., 1., 0., 0., 0., 0.],
        [0., 0., 0., 0., 0., 0., 1., 0., 0., 0.],
        [0., 0., 0., 0., 0., 0., 0., 1., 0., 0.],
        [0., 0., 0., 0., 0., 0., 0., 0., 1., 0.],
        [0., 0., 0., 0., 0., 0., 0., 0., 0., 1.]])

注意力汇聚:Nadaraya-Watson 核回归

import torch
from torch import nn
from d2l import torch as d2l

生成数据集

简单起见,考虑下面这个回归问题: 给定的成对的“输入-输出”数据集 { ( x 1 , y 1 ) , … , ( x n , y n ) } \{(x_1, y_1), \ldots, (x_n, y_n)\} {(x1,y1),,(xn,yn)}, 如何学习 f f f来预测任意新输入 x x x的输出 y ^ = f ( x ) \hat{y} = f(x) y^=f(x)

根据下面的非线性函数生成一个人工数据集, 其中加入的噪声项为 ϵ \epsilon ϵ

y i = 2 sin ⁡ ( x i ) + x i 0.8 + ϵ y_i = 2\sin(x_i) + x_i^{0.8} + \epsilon yi=2sin(xi)+xi0.8+ϵ

其中 ϵ \epsilon ϵ服从均值为0和标准差为0.5的正态分布。 在这里生成了50个训练样本和50个测试样本。 为了更好地可视化之后的注意力模式,需要将训练样本进行排序。

n_train = 50  # 训练样本数
x_train, _ = torch.sort(torch.rand(n_train) * 5)   # 排序后的训练样本

def f(x):
    return 2 * torch.sin(x) + x**0.8

y_train = f(x_train) + torch.normal(0.0, 0.5, (n_train,))  # 训练样本的输出
x_test = torch.arange(0, 5, 0.1)  # 测试样本
y_truth = f(x_test)  # 测试样本的真实输出
n_test = len(x_test)  # 测试样本数
n_test

这段代码用于生成一个用于回归问题的人工数据集。具体来说,该数据集基于以下步骤生成:

  1. n_train = 50: 定义训练集大小为50。
  2. x_train, _ = torch.sort(torch.rand(n_train) * 5): 生成训练集输入x。首先,通过torch.rand(n_train)生成一个长度为n_train的随机数列。然后,通过* 5将随机数列中的每个元素乘以5。最后,通过torch.sort函数将x_train升序排列。由于我们只关心x_train,因此用一个占位符 _ 存储sort函数的第二个返回值(即相应的排序索引)。
  3. def f(x): return 2 * torch.sin(x) + x**0.8: 定义一个目标函数,用于生成训练数据的标签(即输出y)以及测试数据的真实标签。该函数对输入x进行元素级别的计算,具体为:对每个x,先计算sin(x),再乘以2,最后加上 x 0.8 x^{0.8} x0.8。可以将该函数视为一个需要学习的黑盒子函数。
  4. y_train = f(x_train) + torch.normal(0.0, 0.5, (n_train,)): 为训练集生成标签y。具体来说,对于每个训练样本 x i x_i xi,我们首先通过目标函数 f f f计算出对应的真实标签 y i = f ( x i ) y_i=f(x_i) yi=f(xi),然后通过torch.normal(0.0, 0.5, (n_train,))生成一个标准正态分布的噪声向量,最后将噪声向量加到 y i y_i yi上,得到训练样本 x i x_i xi的标签 y i y_i yi
  5. x_test = torch.arange(0, 5, 0.1): 生成测试集输入x。通过torch.arange(0, 5, 0.1)生成一个从0到5,步长为0.1的等差数列。
  6. y_truth = f(x_test): 生成测试集的真实标签。通过目标函数 f f f计算每个测试样本 x i x_i xi的真实标签 y i y_i yi
  7. n_test = len(x_test): 定义测试集大小为测试样本x的长度。最后的输出为n_test,即测试样本的数量,这里的值为50。
50

下面的函数将绘制所有的训练样本(样本由圆圈表示), 不带噪声项的真实数据生成函数 f f f(标记为“Truth”), 以及学习得到的预测函数(标记为“Pred”)。

def plot_kernel_reg(y_hat):
    d2l.plot(x_test, [y_truth, y_hat], 'x', 'y', legend=['Truth', 'Pred'],
             xlim=[0, 5], ylim=[-1, 5])
    d2l.plt.plot(x_train, y_train, 'o', alpha=0.5);

非参注意力池化层

  • 给定数据$ \left(x_{i}, y_{i}\right), i=1, \ldots, n $
  • 平均池化是最简单的方案: f ( x ) = 1 n ∑ i y i f(x)=\frac{1}{n} \sum_{i} y_{i} f(x)=n1iyi
  • 更好的方案是60年代提出来的Nadaraya-Watson核回归
y_hat = torch.repeat_interleave(y_train.mean(), n_test)
plot_kernel_reg(y_hat)

这行代码的作用是生成一个预测结果张量 y_hat,长度为测试样本的个数 n_test。它的值是训练样本标签 y_train 的平均值,使用 torch.repeat_interleave 函数将其重复 n_test 次得到的。

这里之所以将 y_hat 的值设为训练样本标签的平均值,是因为这是一种最简单的预测方法。在模型训练之前,可以使用这种方法计算出一个预测值的基准,作为后续模型的表现评价标准之一。

在这里插入图片描述

Nadaraya-Watson核回归

使用高斯核

K ( u ) = 1 2 π exp ⁡ ( − u 2 2 ) K(u)=\frac{1}{\sqrt{2 \pi}} \exp \left(-\frac{u^{2}}{2}\right) K(u)=2π 1exp(2u2)

得出

f ( x ) = ∑ i = 1 n exp ⁡ ( − 1 2 ( x − x i ) 2 ) ∑ j = 1 n exp ⁡ ( − 1 2 ( x − x j ) 2 ) y i = ∑ i = 1 n softmax ⁡ ( − 1 2 ( x − x i ) 2 ) y i \begin{aligned} f(x) & =\sum_{i=1}^{n} \frac{\exp \left(-\frac{1}{2}\left(x-x_{i}\right)^{2}\right)}{\sum_{j=1}^{n} \exp \left(-\frac{1}{2}\left(x-x_{j}\right)^{2}\right)} y_{i} \\ & =\sum_{i=1}^{n} \operatorname{softmax}\left(-\frac{1}{2}\left(x-x_{i}\right)^{2}\right) y_{i}\end{aligned} f(x)=i=1nj=1nexp(21(xxj)2)exp(21(xxi)2)yi=i=1nsoftmax(21(xxi)2)yi

# X_repeat的形状:(n_test,n_train),
# 每一行都包含着相同的测试输入(例如:同样的查询)
X_repeat = x_test.repeat_interleave(n_train).reshape((-1, n_train))
# x_train包含着键。attention_weights的形状:(n_test,n_train),
# 每一行都包含着要在给定的每个查询的值(y_train)之间分配的注意力权重
attention_weights = nn.functional.softmax(-(X_repeat - x_train)**2 / 2, dim=1)
# y_hat的每个元素都是值的加权平均值,其中的权重是注意力权重
y_hat = torch.matmul(attention_weights, y_train)
plot_kernel_reg(y_hat)

这段代码实现了一个简单的 kernel regression,基本思路是在测试样本上通过对训练样本的加权平均来预测标签。

具体而言,这里的核函数采用的是高斯核函数,它的形式为: k ( x , z ) = exp ⁡ ( − ( x − z ) 2 2 σ 2 ) k(x,z) = \exp(-\frac{(x-z)^2}{2\sigma^2}) k(x,z)=exp(2σ2(xz)2),其中 x x x 是测试样本, z z z 是训练样本。为了实现 kernel regression,我们需要首先计算出一个权重向量 w w w,它的每个元素是测试样本和训练样本之间距离的负平方。这里使用的距离度量方式是欧几里得距离。通过对权重向量进行 softmax 归一化,我们得到了一个注意力权重向量,它的每个元素是一个归一化的权重,用于计算加权平均。

为了在测试样本上预测标签,我们将注意力权重与训练样本的标签向量相乘,并对结果求和。这里使用的是矩阵乘法,它可以同时计算多个测试样本的预测结果。最后,使用可视化函数 plot_kernel_reg 将预测结果可视化。

在这里插入图片描述

现在来观察注意力的权重。 这里测试数据的输入相当于查询,而训练数据的输入相当于键。 因为两个输入都是经过排序的,因此由观察可知“查询-键”对越接近, 注意力汇聚的注意力权重就越高。

d2l.show_heatmaps(attention_weights.unsqueeze(0).unsqueeze(0),
                  xlabel='Sorted training inputs',
                  ylabel='Sorted testing inputs')

在这里插入图片描述

参数化的注意力机制

在之前的基础上引入可以学习的 w w w

f ( x ) = ∑ i = 1 n softmax ⁡ ( − 1 2 ( ( x − x i ) w ) 2 ) y i f(x)=\sum_{i=1}^{n} \operatorname{softmax}\left(-\frac{1}{2}\left(\left(x-x_{i}\right) w\right)^{2}\right) y_{i} f(x)=i=1nsoftmax(21((xxi)w)2)yi

批量矩阵乘法

为了更有效地计算小批量数据的注意力, 我们可以利用深度学习开发框架中提供的批量矩阵乘法。

假设第一个小批量数据包含 n n n个矩阵 X 1 , … , X n \mathbf{X}_1,\ldots, \mathbf{X}_n X1,,Xn, 形状为 a × b a\times b a×b, 第二个小批量包含 n n n个矩阵 Y 1 , … , Y n \mathbf{Y}_1, \ldots, \mathbf{Y}_n Y1,,Yn, 形状为 b × c b\times c b×c。 它们的批量矩阵乘法得到 n n n个矩阵 X 1 Y 1 , … , X n Y n \mathbf{X}_1\mathbf{Y}_1, \ldots, \mathbf{X}_n\mathbf{Y}_n X1Y1,,XnYn, 形状为 a × c a\times c a×c。 因此,假定两个张量的形状分别是 ( n , a , b ) (n,a,b) (n,a,b) ( n , b , c ) (n,b,c) (n,b,c), 它们的批量矩阵乘法输出的形状为 ( n , a , c ) (n,a,c) (n,a,c)

X = torch.ones((2, 1, 4))
Y = torch.ones((2, 4, 6))
torch.bmm(X, Y).shape
torch.Size([2, 1, 6])

这段代码中,首先定义了一个形状为 (2, 1, 4) 的三维张量 X 和一个形状为 (2, 4, 6) 的三维张量 Y。然后,调用 PyTorch 中的批量矩阵乘法函数 bmm 对 X 和 Y 进行批量矩阵乘法操作。因为 X 的最后一维长度为 4,Y 的倒数第二维长度为 4,所以这两个张量可以进行批量矩阵乘法。输出的形状为 (2, 1, 6)。其中,第一维是批量大小,第二维是 X 张量的第二维,第三维是 Y 张量的最后一维。因此,输出的第 i 个批量包含了 X 张量的第 i 个样本与 Y 张量的第 i 个样本的矩阵乘积。

torch.bmm 是 PyTorch 中的批量矩阵乘法函数,用于计算两个三维张量的批量矩阵乘积。具体来说,它接受两个张量 batch1batch2,这两个张量的形状必须满足以下条件:

  • batch1 的形状是 (b, n, m),其中 b 是批量大小,nm 是两个维度的大小。
  • batch2 的形状是 (b, m, p),其中 b 是批量大小,mp 是两个维度的大小。

torch.bmm(batch1, batch2) 的输出形状是 (b, n, p),其中每个输出张量的第 i 个批量表示的是 batch1[i]batch2[i] 的矩阵乘积。

在注意力机制的背景中,我们可以使用小批量矩阵乘法来计算小批量数据中的加权平均值。

weights = torch.ones((2, 10)) * 0.1
values = torch.arange(20.0).reshape((2, 10))
torch.bmm(weights.unsqueeze(1), values.unsqueeze(-1))
tensor([[[ 4.5000]],

        [[14.5000]]])

weights.unsqueeze(1)将形状为(2,10)的权重矩阵变形为(2,1,10),在第二个维度上添加一个维度。values.unsqueeze(-1)将形状为(2,10)的值矩阵变形为(2,10,1),在最后一个维度上添加一个维度。这样两个矩阵就可以相乘得到形状为(2,1,1)的结果,即对每个样本计算加权和。使用squeeze函数可以去掉结果中的多余维度。

具体地,weights.unsqueeze(1)values.unsqueeze(-1)的结果分别为:

tensor([[[0.1000, 0.1000, 0.1000, 0.1000, 0.1000, 0.1000, 0.1000, 0.1000,
          0.1000, 0.1000]],

        [[0.1000, 0.1000, 0.1000, 0.1000, 0.1000, 0.1000, 0.1000, 0.1000,
          0.1000, 0.1000]]])

tensor([[[ 0.],
         [ 1.],
         [ 2.],
         [ 3.],
         [ 4.],
         [ 5.],
         [ 6.],
         [ 7.],
         [ 8.],
         [ 9.]],

        [[10.],
         [11.],
         [12.],
         [13.],
         [14.],
         [15.],
         [16.],
         [17.],
         [18.],
         [19.]]])

定义模型

使用小批量矩阵乘法, 定义Nadaraya-Watson核回归的带参数版本为:

class NWKernelRegression(nn.Module):
    def __init__(self, **kwargs):
        super().__init__(**kwargs)
        self.w = nn.Parameter(torch.rand((1,), requires_grad=True))

    def forward(self, queries, keys, values):
        # queries和attention_weights的形状为(查询个数,“键-值”对个数)
        queries = queries.repeat_interleave(keys.shape[1]).reshape((-1, keys.shape[1]))
        self.attention_weights = nn.functional.softmax(
            -((queries - keys) * self.w)**2 / 2, dim=1)
        # values的形状为(查询个数,“键-值”对个数)
        return torch.bmm(self.attention_weights.unsqueeze(1),
                         values.unsqueeze(-1)).reshape(-1)

这段代码定义了一个 PyTorch 模块 NWKernelRegression,该模块实现了使用 Nadaraya-Watson 核回归方法进行预测的功能。

该模块继承自 nn.Module,并重写了其中的 forward 方法,因此该模块可以被看作一个自定义的 PyTorch 模块,可以调用其实例对象的 forward 方法来进行预测。

__init__ 方法中,该模块定义了一个可学习参数 w,其形状为 (1,),该参数是核函数中的带宽,它将在模型训练过程中被学习。

接下来,该模块计算每个查询向量和每个“键-值”对的键向量之间的差值,将这些差值作为核函数的自变量,并将学习到的参数 w 作为核函数的带宽,计算核函数的值。具体来说,该模块将核函数的表达式写成了 exp(-((queries - keys) * w)**2 / 2),其中 ** 代表幂运算,exp 代表指数运算,- 代表取负运算,* 代表点乘运算。

然后,该模块对每个查询向量计算一个注意力权重向量,该注意力权重向量是所有“键-值”对的权重向量的加权平均,其中每个权重是一个核函数的值。具体来说,该模块使用 softmax 函数将每个核函数的值归一化得到概率分布,然后使用 bmm 函数(即批量矩阵乘法)将每个注意力权重向量和其对应的值向量相乘,并将结果加和得到预测值。最后,将预测值的形状从 (num_queries, 1) 改为 (num_queries,),并返回预测值

📌repeat_interleave() 是 PyTorch 的函数之一,用于将输入张量的每个元素重复一定的次数,并将重复后的结果沿着指定的维度展开。

训练

接下来,将训练数据集变换为键和值用于训练注意力模型。 在带参数的注意力汇聚模型中, 任何一个训练样本的输入都会和除自己以外的所有训练样本的“键-值”对进行计算, 从而得到其对应的预测输出。

# X_tile的形状:(n_train,n_train),每一行都包含着相同的训练输入
X_tile = x_train.repeat((n_train, 1))
# Y_tile的形状:(n_train,n_train),每一行都包含着相同的训练输出
Y_tile = y_train.repeat((n_train, 1))
# keys的形状:('n_train','n_train'-1)
keys = X_tile[(1 - torch.eye(n_train)).type(torch.bool)].reshape((n_train, -1))
# values的形状:('n_train','n_train'-1)
values = Y_tile[(1 - torch.eye(n_train)).type(torch.bool)].reshape((n_train, -1))
  • 创建一个形状为 (n_train, n_train-1) 的张量 keys,其中每一行都包含除自己以外的所有训练输入。具体来说,使用 torch.eye 方法创建一个形状为 (n_train, n_train) 的单位矩阵,然后使用 (1 - ...) 来将对角线上的元素变为 0,得到一个形状为 (n_train, n_train) 的张量。接着,使用 type(torch.bool) 将张量的元素类型转换为布尔类型,并使用索引器 []reshape 方法将其转换为形状为 (n_train, n_train-1) 的张量。
  • 创建一个形状为 (n_train, n_train-1) 的张量 values,其中每一行都包含除自己以外的所有训练输出。具体来说,使用与 keys 相同的方式创建 keys,但是使用 Y_tile 来获取训练输出,并使用 reshape 方法将其转换为形状为 (n_train, n_train-1) 的张量。

训练带参数的注意力汇聚模型时,使用平方损失函数和随机梯度下降。

net = NWKernelRegression()
loss = nn.MSELoss(reduction='none')
trainer = torch.optim.SGD(net.parameters(), lr=0.5)
animator = d2l.Animator(xlabel='epoch', ylabel='loss', xlim=[1, 5])

for epoch in range(5):
    trainer.zero_grad()
    l = loss(net(x_train, keys, values), y_train)
    l.sum().backward()
    trainer.step()
    print(f'epoch {epoch + 1}, loss {float(l.sum()):.6f}')
    animator.add(epoch + 1, float(l.sum()))

在这里插入图片描述

如下所示,训练完带参数的注意力汇聚模型后可以发现: 在尝试拟合带噪声的训练数据时, 预测结果绘制的线不如之前非参数模型的平滑。

# keys的形状:(n_test,n_train),每一行包含着相同的训练输入(例如,相同的键)
keys = x_train.repeat((n_test, 1))
# value的形状:(n_test,n_train)
values = y_train.repeat((n_test, 1))
y_hat = net(x_test, keys, values).unsqueeze(1).detach()
plot_kernel_reg(y_hat)

在这里插入图片描述

为什么新的模型更不平滑了呢? 下面看一下输出结果的绘制图: 与非参数的注意力汇聚模型相比, 带参数的模型加入可学习的参数后, 曲线在注意力权重较大的区域变得更不平滑。

d2l.show_heatmaps(net.attention_weights.unsqueeze(0).unsqueeze(0),
                  xlabel='Sorted training inputs',
                  ylabel='Sorted testing inputs')

在这里插入图片描述

注意力评分函数

高斯核指数部分可以视为_注意力评分函数_(attention scoring function), 简称_评分函数_(scoring function), **然后把这个函数的输出结果输入到softmax函数中进行运算。 **通过上述步骤,将得到与键对应的值的概率分布(即注意力权重)。 最后,注意力汇聚的输出就是基于这些注意力权重的值的加权和。

在这里插入图片描述

从宏观来看,上述算法可以用来实现 注意力机制框架。 下图说明了 如何将注意力汇聚的输出计算成为值的加权和, 其中 a a a表示注意力评分函数。 由于注意力权重是概率分布, 因此加权和其本质上是加权平均值。

在这里插入图片描述

用数学语言描述,假设有一个查询$ \mathbf{q} \in \mathbb{R}^q $和 m m m个“键-值”对 ( k 1 , v 1 ) , … , ( k m , v m ) (\mathbf{k}_1, \mathbf{v}_1), \ldots, (\mathbf{k}_m, \mathbf{v}_m) (k1,v1),,(km,vm), 其中 k i ∈ R k {k}_i \in \mathbb{R}^k kiRk v i ∈ R v \mathbf{v}_i \in \mathbb{R}^v viRv。 注意力汇聚函数 f f f就被表示成值的加权和:

f ( q , ( k 1 , v 1 ) , … , ( k m , v m ) ) = ∑ i = 1 m α ( q , k i ) v i ∈ R v , f(\mathbf{q}, (\mathbf{k}_1, \mathbf{v}_1), \ldots, (\mathbf{k}_m, \mathbf{v}_m)) = \sum_{i=1}^m \alpha(\mathbf{q}, \mathbf{k}_i) \mathbf{v}_i \in \mathbb{R}^v, f(q,(k1,v1),,(km,vm))=i=1mα(q,ki)viRv,

其中查询 q q q和键 k i \mathbf{k}_i ki的注意力权重(标量) 是通过注意力评分函数 a a a将两个向量映射成标量, 再经过softmax运算得到的:

α ( q , k i ) = s o f t m a x ( a ( q , k i ) ) = exp ⁡ ( a ( q , k i ) ) ∑ j = 1 m exp ⁡ ( a ( q , k j ) ) ∈ R . \alpha(\mathbf{q}, \mathbf{k}_i) = \mathrm{softmax}(a(\mathbf{q}, \mathbf{k}_i)) = \frac{\exp(a(\mathbf{q}, \mathbf{k}_i))}{\sum_{j=1}^m \exp(a(\mathbf{q}, \mathbf{k}_j))} \in \mathbb{R}. α(q,ki)=softmax(a(q,ki))=j=1mexp(a(q,kj))exp(a(q,ki))R.

正如上图所示,选择不同的注意力评分函数 a a a会导致不同的注意力汇聚操作。 本节将介绍两个流行的评分函数,稍后将用他们来实现更复杂的注意力机制。

import math
import torch
from torch import nn
from d2l import torch as d2l

掩蔽softmax操作

正如上面提到的,softmax操作用于输出一个概率分布作为注意力权重。** 在某些情况下,并非所有的值都应该被纳入到注意力汇聚中**。 例如,为了高效处理小批量数据集, 某些文本序列被填充了没有意义的特殊词元。** 为了仅将有意义的词元作为值来获取注意力汇聚, 可以指定一个有效序列长度(即词元的个数), 以便在计算softmax时过滤掉超出指定范围的位置。** 下面的masked_softmax函数 实现了这样的_掩蔽softmax操作_(masked softmax operation), 其中任何超出有效长度的位置都被掩蔽并置为0。

#@save
def masked_softmax(X, valid_lens):
    """通过在最后一个轴上掩蔽元素来执行softmax操作"""
    # X:3D张量,valid_lens:1D或2D张量
    if valid_lens is None:
        return nn.functional.softmax(X, dim=-1)
    else:
        shape = X.shape
        if valid_lens.dim() == 1:
            valid_lens = torch.repeat_interleave(valid_lens, shape[1])
        else:
            valid_lens = valid_lens.reshape(-1)
        # 最后一轴上被掩蔽的元素使用一个非常大的负值替换,从而其softmax输出为0
        X = d2l.sequence_mask(X.reshape(-1, shape[-1]), valid_lens,
                              value=-1e6)
        return nn.functional.softmax(X.reshape(shape), dim=-1)

这段代码实现了一个能够在最后一个维度上掩蔽元素的 softmax 操作。其输入张量 X 可以是任意形状的 3D 张量。另一个参数 valid_lens 是一个 1D 或 2D 张量,指示了在每个样本序列中有多少个有效的元素。如果 valid_lens 是 1D 张量,则其长度应该和 X 张量的第二个维度一致。如果 valid_lens 是 2D 张量,则其形状应该和 X 张量的第一和第二个维度一致。

如果 valid_lens 为 None,则表示所有元素都是有效的,直接调用 PyTorch 的 softmax 函数实现 softmax。

如果 valid_lens 不为 None,则首先将 valid_lens 重复沿着最后一个维度(即特征维度)重复,以便可以在最后一个维度上与 X 张量相对应。然后,对于那些无效元素,用一个极大的负数(-1e6)来代替,这样 softmax 的输出就为 0。

📌X.reshape(-1, shape[-1])X 沿着第 0 个轴上的所有元素展开,并将它们排成一个二维矩阵,矩阵的行数为 -1 ,表示根据剩余的维度计算得到,矩阵的列数为 shape[-1],表示最后一维上的元素个数。

最后,对于掩蔽后的张量,再调用 PyTorch 的 softmax 函数实现 softmax,并将其形状调整为 X 张量的形状。

为了演示此函数是如何工作的, 考虑由两个 2 × 4 2 \times 4 2×4矩阵表示的样本, 这两个样本的有效长度分别为2和3。 经过掩蔽softmax操作,超出有效长度的值都被掩蔽为0。

masked_softmax(torch.rand(2, 2, 4), torch.tensor([2, 3]))
tensor([[[0.3313, 0.6687, 0.0000, 0.0000],
         [0.4467, 0.5533, 0.0000, 0.0000]],

        [[0.1959, 0.4221, 0.3820, 0.0000],
         [0.3976, 0.2466, 0.3558, 0.0000]]])

同样,也可以使用二维张量,为矩阵样本中的每一行指定有效长度。

masked_softmax(torch.rand(2, 2, 4), torch.tensor([[1, 3], [2, 4]]))
tensor([[[1.0000, 0.0000, 0.0000, 0.0000],
         [0.3195, 0.2861, 0.3944, 0.0000]],

        [[0.4664, 0.5336, 0.0000, 0.0000],
         [0.2542, 0.2298, 0.1925, 0.3234]]])

加性注意力

一般来说,当查询和键是不同长度的矢量时,可以使用加性注意力作为评分函数。 给定查询 q ∈ R q \mathbf{q} \in \mathbb{R}^q qRq和 键 k ∈ R k \mathbf{k} \in \mathbb{R}^k kRk加性注意力(additive attention)的评分函数为

a ( q , k ) = w v ⊤ tanh ( W q q + W k k ) ∈ R , a(\mathbf q, \mathbf k) = \mathbf w_v^\top \text{tanh}(\mathbf W_q\mathbf q + \mathbf W_k \mathbf k) \in \mathbb{R}, a(q,k)=wvtanh(Wqq+Wkk)R,

其中可学习的参数是 W q ∈ R h × q \mathbf W_q\in\mathbb R^{h\times q} WqRh×q W k ∈ R h × k \mathbf W_k\in\mathbb R^{h\times k} WkRh×k w v ∈ R h \mathbf w_v\in\mathbb R^{h} wvRh。将查询和键连结起来后输入到一个多层感知机(MLP)中, 感知机包含一个隐藏层,其隐藏单元数是一个超参数ℎ。 通过使用tanh作为激活函数,并且禁用偏置项。

📌先把 W q q \mathbf W_q\mathbf q Wqq W k k \mathbf W_k \mathbf k Wkk分别相乘变成长为h的向量,在和 w v ⊤ \mathbf w_v^\top wv相乘变成一个标量,等价于将key和value合并起来后放入到一个隐藏大小为h输出大小为1的单隐藏层MLP

下面来实现加性注意力。

#@save
class AdditiveAttention(nn.Module):
    """加性注意力"""
    def __init__(self, key_size, query_size, num_hiddens, dropout, **kwargs):
        super(AdditiveAttention, self).__init__(**kwargs)
        self.W_k = nn.Linear(key_size, num_hiddens, bias=False)
        self.W_q = nn.Linear(query_size, num_hiddens, bias=False)
        self.w_v = nn.Linear(num_hiddens, 1, bias=False)
        self.dropout = nn.Dropout(dropout)

    def forward(self, queries, keys, values, valid_lens):
        queries, keys = self.W_q(queries), self.W_k(keys)
        # 在维度扩展后,
        # queries的形状:(batch_size,查询的个数,1,num_hidden)
        # key的形状:(batch_size,1,“键-值”对的个数,num_hiddens)
        # 使用广播方式进行求和
        features = queries.unsqueeze(2) + keys.unsqueeze(1)
        features = torch.tanh(features)
        # self.w_v仅有一个输出,因此从形状中移除最后那个维度。
        # scores的形状:(batch_size,查询的个数,“键-值”对的个数)
        scores = self.w_v(features).squeeze(-1)
        self.attention_weights = masked_softmax(scores, valid_lens)
        # values的形状:(batch_size,“键-值”对的个数,值的维度)
        return torch.bmm(self.dropout(self.attention_weights), values)

这是一个实现加性注意力的PyTorch模块。加性注意力是一种常见的注意力机制,在自然语言处理和语音识别等任务中被广泛使用。这个模块包含了几个线性层,其中包括 W k W_k Wk W q W_q Wq w v w_v wv。通过调用 forward 方法,传入 q u e r i e s queries queries k e y s keys keys v a l u e s values values,以及 v a l i d l e n s validlens validlens,该模块会返回加性注意力的输出。

forward 方法中,通过调用 W q W_q Wq W k W_k Wk 将输入 q u e r i e s queries queries k e y s keys keys 进行变换,然后**利用 PyTorch 的广播机制将它们相加,得到一个维度为 ( b a t c h s i z e , q u e r i e s n u m , k e y s n u m , n u m h i d d e n s ) (batchsize, queriesnum, keysnum, numhiddens) (batchsize,queriesnum,keysnum,numhiddens) 的张量 ** f e a t u r e s features features。之后,通过应用双曲正切函数将 f e a t u r e s features features 中的元素压缩到 [ − 1 , 1 ] [-1,1] [1,1] 的范围内。接着,将 f e a t u r e s features features 作为输入传递给 w v w_v wv,从而输出注意力得分 s c o r e s scores scores,它的形状为 ( b a t c h s i z e , q u e r i e s n u m , k e y s n u m ) (batchsize, queriesnum, keysnum) (batchsize,queriesnum,keysnum)。注意力得分接下来通过调用 masked_softmax 方法来执行掩码 softmax 操作。最后,利用注意力权重和 v a l u e s values values 进行加权求和并返回注意力输出。注意力输出的形状为 ( b a t c h s i z e , q u e r i e s n u m , v a l u e d i m ) (batchsize, queriesnum, valuedim) (batchsize,queriesnum,valuedim),其中 v a l u e d i m valuedim valuedim v a l u e s values values 的最后一个维度的大小。

用一个小例子来演示上面的AdditiveAttention类, 其中查询、键和值的形状为(批量大小,步数或词元序列长度,特征大小), 实际输出为(2,1,20)、(2,10,2)和(2,10,4)。 注意力汇聚输出的形状为(批量大小,查询的步数,值的维度)。

# (batchsize,querynum,querysize),(batchsize,keynum,keysize)
queries, keys = torch.normal(0, 1, (2, 1, 20)), torch.ones((2, 10, 2))
# values的小批量,两个值矩阵是相同的
values = torch.arange(40, dtype=torch.float32).reshape(1, 10, 4).repeat(
    2, 1, 1)
valid_lens = torch.tensor([2, 6])

attention = AdditiveAttention(key_size=2, query_size=20, num_hiddens=8,
                              dropout=0.1)
attention.eval()
attention(queries, keys, values, valid_lens)

这个代码块使用了一个已经定义好的加性注意力模型,来计算给定的查询、键、值张量及有效长度张量的注意力加权和。

具体来说,代码中首先定义了两个查询张量、一个键张量和两个值张量。这些张量的形状如下所示:

  • queries:(batchsize, querynum, querysize) = (2, 1, 20)
  • keys:(batchsize, keynum, keysize) = (2, 10, 2)
  • values:(batchsize, keynum, valsize) = (2, 10, 4)

接下来,调用 AdditiveAttention 类创建了一个 attention 对象,它的实例变量 self.attention_weights 记录了由注意力机制产生的注意力权重。

最后,代码通过 attention 对象调用 forward 方法来计算给定的查询、键、值张量及有效长度张量的注意力加权和。该方法的返回值是加权后的值张量。在这里,输出形状为:

  • 输出:(batchsize, querynum, valsize) = (2, 1, 4)

这表示两个小批量数据分别包含了一个查询、10个键和10个值,且经过了注意力机制的加权,最终的输出是每个查询所对应的值。

tensor([[[ 2.0000,  3.0000,  4.0000,  5.0000]],

        [[10.0000, 11.0000, 12.0000, 13.0000]]], grad_fn=<BmmBackward0>)

尽管加性注意力包含了可学习的参数,但由于本例子中每个键都是相同的, 所以注意力权重是均匀的,由指定的有效长度决定。

d2l.show_heatmaps(attention.attention_weights.reshape((1, 1, 2, 10)),
                  xlabel='Keys', ylabel='Queries')

在这里插入图片描述

缩放点积注意力

使用点积可以得到计算效率更高的评分函数, 但是点积操作要求查询和键具有相同的长度 d d d 假设查询和键的所有元素都是独立的随机变量, 并且都满足零均值和单位方差, 那么两个向量的点积的均值为0,方差为 d d d 为确保无论向量长度如何, 点积的方差在不考虑向量长度的情况下仍然是1, 我们再将点积除以 d \sqrt{d} d , 则缩放点积注意力(scaled dot-product attention)评分函数为:

a ( q , k ) = q ⊤ k / d . a(\mathbf q, \mathbf k) = \mathbf{q}^\top \mathbf{k} /\sqrt{d}. a(q,k)=qk/d .

在实践中,我们通常从小批量的角度来考虑提高效率, 例如基于 n n n个查询和 m m m个键-值对计算注意力, 其中查询和键的长度为 d d d,值的长度为 v v v 查询 Q ∈ R n × d \mathbf Q\in\mathbb R^{n\times d} QRn×d、 键 K ∈ R m × d \mathbf K\in\mathbb R^{m\times d} KRm×d和 值 V ∈ R m × v \mathbf V\in\mathbb R^{m\times v} VRm×v的缩放点积注意力是:

s o f t m a x ( Q K ⊤ d ) V ∈ R n × v . \mathrm{softmax}\left(\frac{\mathbf Q \mathbf K^\top }{\sqrt{d}}\right) \mathbf V \in \mathbb{R}^{n\times v}. softmax(d QK)VRn×v.

在这里插入图片描述

下面的缩放点积注意力的实现使用了暂退法进行模型正则化。

#@save
class DotProductAttention(nn.Module):
    """缩放点积注意力"""
    def __init__(self, dropout, **kwargs):
        super(DotProductAttention, self).__init__(**kwargs)
        self.dropout = nn.Dropout(dropout)

    # queries的形状:(batch_size,查询的个数,d)
    # keys的形状:(batch_size,“键-值”对的个数,d)
    # values的形状:(batch_size,“键-值”对的个数,值的维度)
    # valid_lens的形状:(batch_size,)或者(batch_size,查询的个数)
    def forward(self, queries, keys, values, valid_lens=None):
        d = queries.shape[-1]
        # 设置transpose_b=True为了交换keys的最后两个维度
        scores = torch.bmm(queries, keys.transpose(1,2)) / math.sqrt(d)
        self.attention_weights = masked_softmax(scores, valid_lens)
        return torch.bmm(self.dropout(self.attention_weights), values)

这是一个实现缩放点积注意力机制的PyTorch模块,主要包括forward方法。它采用了torch.bmm函数来实现矩阵乘法,并对scores进行缩放,然后使用masked_softmax函数计算softmax权重,最后返回注意力加权值。函数的参数包括queries(查询张量)、keys(键张量)、values(值张量)和valid_lens(掩蔽无效项)。

为了演示上述的DotProductAttention类, 我们使用与先前加性注意力例子中相同的键、值和有效长度。 对于点积操作,我们令查询的特征维度与键的特征维度大小相同。

queries = torch.normal(0, 1, (2, 1, 2))
attention = DotProductAttention(dropout=0.5)
attention.eval()
attention(queries, keys, values, valid_lens)
tensor([[[ 2.0000,  3.0000,  4.0000,  5.0000]],

        [[10.0000, 11.0000, 12.0000, 13.0000]]])

与加性注意力演示相同,由于键包含的是相同的元素, 而这些元素无法通过任何查询进行区分,因此获得了均匀的注意力权重。

d2l.show_heatmaps(attention.attention_weights.reshape((1, 1, 2, 10)),
                  xlabel='Keys', ylabel='Queries')

在这里插入图片描述

总结

  • 注意力分数是query和key的相似度,注意力权重是分数的softmax结果

  • 两种常见的分数计算:

    将query和key合并起来进入一个单输出单隐藏层的MLP

    直接将query和key做内积

使用注意力机制的seq2seq

动机

  • 机器翻译中,每个生成的词可能相关于源句子中不同的词
  • seq2seq模型中不能对此直接建模

加入注意力

在这里插入图片描述

  • 编码器对每次词的输出作为key和value(他们一样的)
  • 解码器RNN对上一个词的输出是query
  • 注意力的输出和下一个词的词嵌入合并进入

使用注意力机制的seq2seq的基本原理如下:

  1. 使用编码器对源序列进行编码,得到源序列的特征表示(context vector)。
  2. 初始化解码器的状态,将上一个时间步的解码器的输出和当前时间步的特征表示(context vector)作为注意力机制的输入,通过注意力机制得到新的上下文表示(context vector)。
  3. 将当前时间步的解码器的输入和新的上下文表示拼接起来,得到当前时间步的解码器的输入。
  4. 使用解码器对当前时间步的解码器的输入进行解码,得到当前时间步的输出。
  5. 重复步骤2-4,直到解码器输出终止符或者达到最大输出长度。

具体来说,使用注意力机制的seq2seq中的注意力机制,是将编码器的各个时间步的状态(hidden state)作为key和value,将上一个时间步的解码器的输出作为query,通过计算query和key之间的相似度,得到attention分数,再将attention分数经过softmax处理得到attention权重,最后将value和对应的attention权重加权求和得到新的上下文表示(context vector)

通过这样的注意力机制,解码器可以更加关注编码器中与当前解码器状态相关的信息,从而提高翻译的准确性。

import torch
from torch import nn
from d2l import torch as d2l

定义注意力解码器

下面看看如何定义Bahdanau注意力,实现循环神经网络编码器-解码器。 其实,我们只需重新定义解码器即可。 为了更方便地显示学习的注意力权重, 以下AttentionDecoder类定义了带有注意力机制解码器的基本接口。

#@save
class AttentionDecoder(d2l.Decoder):
    """带有注意力机制解码器的基本接口"""
    def __init__(self, **kwargs):
        super(AttentionDecoder, self).__init__(**kwargs)

    @property
    def attention_weights(self):
        raise NotImplementedError

这里定义了一个基于注意力机制的解码器的基本接口,但是没有具体实现。这个接口要求子类实现 attention_weights 属性来返回解码器在最后一次时间步的注意力权重,即 a t ′ t a_{t' t} att,其中 t ′ t' t 是输入序列的时间步, t t t 是输出序列的时间步。

接下来,让我们在接下来的Seq2SeqAttentionDecoder类中 实现带有Bahdanau注意力的循环神经网络解码器。 首先,初始化解码器的状态,需要下面的输入:

  1. 编码器在所有时间步的最终层隐状态,将作为注意力的键和值;
  2. 上一时间步的编码器全层隐状态,将作为初始化解码器的隐状态;
  3. 编码器有效长度(排除在注意力池中填充词元)。

在每个解码时间步骤中,解码器上一个时间步的最终层隐状态将用作查询。 因此,注意力输出和输入嵌入都连结为循环神经网络解码器的输入。

class Seq2SeqAttentionDecoder(AttentionDecoder):
    def __init__(self, vocab_size, embed_size, num_hiddens, num_layers,
                 dropout=0, **kwargs):
        super(Seq2SeqAttentionDecoder, self).__init__(**kwargs)
        # 加了attention
        self.attention = d2l.AdditiveAttention(
            num_hiddens, num_hiddens, num_hiddens, dropout)
        self.embedding = nn.Embedding(vocab_size, embed_size)
        self.rnn = nn.GRU(
            embed_size + num_hiddens, num_hiddens, num_layers,
            dropout=dropout)
        self.dense = nn.Linear(num_hiddens, vocab_size)

    def init_state(self, enc_outputs, enc_valid_lens, *args):
        # outputs的形状为(batch_size,num_steps,num_hiddens).
        # hidden_state的形状为(num_layers,batch_size,num_hiddens)
        outputs, hidden_state = enc_outputs
        return (outputs.permute(1, 0, 2), hidden_state, enc_valid_lens)

    def forward(self, X, state):
        # enc_outputs的形状为(batch_size,num_steps,num_hiddens).
        # hidden_state的形状为(num_layers,batch_size,
        # num_hiddens)
        enc_outputs, hidden_state, enc_valid_lens = state
        # 输出X的形状为(num_steps,batch_size,embed_size)
        X = self.embedding(X).permute(1, 0, 2)
        outputs, self._attention_weights = [], []
        for x in X:
            # query的形状为(batch_size,1,num_hiddens)
            query = torch.unsqueeze(hidden_state[-1], dim=1) # 上一个时刻的最后一层的输出
            # context的形状为(batch_size,1,num_hiddens)
            context = self.attention(
                query, enc_outputs, enc_outputs, enc_valid_lens)
            # 在特征维度上连结
            x = torch.cat((context, torch.unsqueeze(x, dim=1)), dim=-1)
            # 将x变形为(1,batch_size,embed_size+num_hiddens)
            out, hidden_state = self.rnn(x.permute(1, 0, 2), hidden_state)
            outputs.append(out)
            self._attention_weights.append(self.attention.attention_weights)
        # 没有经过全连接之前的outputs的形状为 (num_steps, batch_size, num_hiddens) 
        # 全连接层变换后,outputs的形状为
        # (num_steps,batch_size,vocab_size)
        outputs = self.dense(torch.cat(outputs, dim=0))
        return outputs.permute(1, 0, 2), [enc_outputs, hidden_state,
                                          enc_valid_lens]

    @property
    def attention_weights(self):
        return self._attention_weights

这段代码实现了带有注意力机制的Seq2Seq模型的解码器,继承了基本接口类AttentionDecoder,包括了前向传播forward()和attention_weights()两个函数。下面是这段代码的详细分析:

  1. 在初始化时,实例化了一个AdditiveAttention的注意力对象attention,一个词嵌入对象embedding,一个GRU层rnn和一个全连接层dense。其中,AdditiveAttention的输入维度均为num_hiddens,通过dropout进行一定比例的节点删除,最终将输入特征映射到num_hiddens维的向量。词嵌入对象embedding将输入词的编号X映射成embed_size维的向量,GRU层rnn将embedding的输出和hidden_state连接在一起,作为当前时间步的输入。
  2. init_state()函数用于初始化状态。enc_outputs的形状为(batch_size,num_steps,num_hiddens),hidden_state的形状为(num_layers,batch_size,num_hiddens),将enc_outputs的第0个维度和第1个维度交换,hidden_state不需要处理。返回的是元组(outputs, hidden_state, enc_valid_lens)。
  3. forward()函数实现前向传播。X的形状为(num_steps,batch_size,embed_size),将其第0个维度和第1个维度交换,hidden_state是解码器的初始状态。遍历输入序列X,对于每个输入X[i],用当前hidden_state计算出query,用attention()函数计算出context,再将query和context连接在一起,作为当前时间步的输入,经过GRU层rnn计算出当前时间步的输出out,然后将其添加到outputs中。最后将outputs通过全连接层dense变换为(num_steps,batch_size,vocab_size)的输出张量,并将其第0个维度和第1个维度交换,返回该张量和新的状态[enc_outputs, hidden_state, enc_valid_lens]。

📌在 forward 方法中, outputs 是一个列表,包含了每个时间步的输出。每个时间步的输出 out 的形状为 (1, batch_size, num_hiddens),将所有时间步的输出在时间维度上 concat 起来后,outputs 的形状为 (num_steps, batch_size, num_hiddens),其中 num_steps 为序列的长度。

  1. attention_weights()函数用于获取注意力权重,返回_attention_weights属性。

接下来,使用包含7个时间步的4个序列输入的小批量测试Bahdanau注意力解码器。

encoder = d2l.Seq2SeqEncoder(vocab_size=10, embed_size=8, num_hiddens=16,
                             num_layers=2)
encoder.eval()
decoder = Seq2SeqAttentionDecoder(vocab_size=10, embed_size=8, num_hiddens=16,
                                  num_layers=2)
decoder.eval()
X = torch.zeros((4, 7), dtype=torch.long)  # (batch_size,num_steps)
state = decoder.init_state(encoder(X), None)
output, state = decoder(X, state)
output.shape, len(state), state[0].shape, len(state[1]), state[1][0].shape
(torch.Size([4, 7, 10]), 3, torch.Size([4, 7, 16]), 2, torch.Size([4, 16]))

训练

我们在这里指定超参数,实例化一个带有Bahdanau注意力的编码器和解码器, 并对这个模型进行机器翻译训练。 由于新增的注意力机制,训练要比没有注意力机制的慢得多。

embed_size, num_hiddens, num_layers, dropout = 32, 32, 2, 0.1
batch_size, num_steps = 64, 10
lr, num_epochs, device = 0.005, 250, d2l.try_gpu()

train_iter, src_vocab, tgt_vocab = d2l.load_data_nmt(batch_size, num_steps)
encoder = d2l.Seq2SeqEncoder(
    len(src_vocab), embed_size, num_hiddens, num_layers, dropout)
decoder = Seq2SeqAttentionDecoder(
    len(tgt_vocab), embed_size, num_hiddens, num_layers, dropout)
net = d2l.EncoderDecoder(encoder, decoder)
d2l.train_seq2seq(net, train_iter, lr, num_epochs, tgt_vocab, device)
loss 0.020, 5482.1 tokens/sec on cuda:0

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-4mMBlKZm-1676883573895)(image/image_j5ChvRsjFj.png)]

模型训练后,我们用它将几个英语句子翻译成法语并计算它们的BLEU分数。

engs = ['go .', "i lost .", 'he\'s calm .', 'i\'m home .']
fras = ['va !', 'j\'ai perdu .', 'il est calme .', 'je suis chez moi .']
for eng, fra in zip(engs, fras):
    translation, dec_attention_weight_seq = d2l.predict_seq2seq(
        net, eng, src_vocab, tgt_vocab, num_steps, device, True)
    print(f'{eng} => {translation}, ',
          f'bleu {d2l.bleu(translation, fra, k=2):.3f}')
go . => va !,  bleu 1.000
i lost . => j'ai perdu .,  bleu 1.000
he's calm . => il est riche .,  bleu 0.658
i'm home . => je suis chez moi .,  bleu 1.000
attention_weights = torch.cat([step[0][0][0] for step in dec_attention_weight_seq], 0).reshape((
    1, 1, -1, num_steps))

训练结束后,下面通过可视化注意力权重 会发现,每个查询都会在键值对上分配不同的权重,这说明 在每个解码步中,输入序列的不同部分被选择性地聚集在注意力池中。

# 加上一个包含序列结束词元
d2l.show_heatmaps(
    attention_weights[:, :, :, :len(engs[-1].split()) + 1].cpu(),
    xlabel='Key positions', ylabel='Query positions')

在这里插入图片描述

总结

  • 在预测词元时,如果不是所有输入词元都是相关的,那么具有Bahdanau注意力的循环神经网络编码器-解码器会有选择地统计输入序列的不同部分。这是通过将上下文变量视为加性注意力池化的输出来实现的。
  • 在循环神经网络编码器-解码器中,Bahdanau注意力将上一时间步的解码器隐状态视为查询,在所有时间步的编码器隐状态同时视为键和值

多头注意力

在实践中,当给定相同的查询、键和值的集合时, 我们希望模型可以基于相同的注意力机制学习到不同的行为, 然后将不同的行为作为知识组合起来, 捕获序列内各种范围的依赖关系 (例如,短距离依赖和长距离依赖关系)。 因此,允许注意力机制组合使用查询、键和值的不同 子空间表示(representation subspaces)可能是有益的。

为此,与其只使用单独一个注意力汇聚, 我们可以用独立学习得到的ℎ组不同的 线性投影(linear projections)来变换查询、键和值。 然后,这ℎ组变换后的查询、键和值将并行地送到注意力汇聚中。 最后,将这ℎ个注意力汇聚的输出拼接在一起, 并且通过另一个可以学习的线性投影进行变换, 以产生最终输出。 这种设计被称为_多头注意力_(multihead attention) (Vaswani et al., 2017)。 对于ℎ个注意力汇聚输出,每一个注意力汇聚都被称作一个_头_(head)。 下图展示了使用全连接层来实现可学习的线性变换的多头注意力。

  • 对同一个key,value,query,希望抽取不同的信息,例如短距离关系和长距离关系
  • 多头注意力使用h个独立的注意力池化,合并各个头(head)输出得到最终输出

在这里插入图片描述

模型

在实现多头注意力之前,让我们用数学语言将这个模型形式化地描述出来。 给定查询 q ∈ R d q \mathbf{q} \in \mathbb{R}^{d_q} qRdq、 键 k ∈ R d k \mathbf{k} \in \mathbb{R}^{d_k} kRdk和 值$ \mathbf{v} \in \mathbb{R}^{d_v}
,每个注意力头 , 每个注意力头 ,每个注意力头\mathbf{h}_i ( ( i = 1, \ldots, h$)的计算方法为:

h i = f ( W i ( q ) q , W i ( k ) k , W i ( v ) v ) ∈ R p v , \mathbf{h}_i = f(\mathbf W_i^{(q)}\mathbf q, \mathbf W_i^{(k)}\mathbf k,\mathbf W_i^{(v)}\mathbf v) \in \mathbb R^{p_v}, hi=f(Wi(q)q,Wi(k)k,Wi(v)v)Rpv,

其中, 可学习的参数包括 可学习的参数包括 可学习的参数包括$ \mathbf W_i^{(q)}\in\mathbb R^{p_q\times d_q} 、 、 \mathbf W_i^{(k)}\in\mathbb R^{p_k\times d_k} 和 和 \mathbf W_i^{(v)}\in\mathbb R^{p_v\times d_v} ,以及代表注意力汇聚的函数 , 以及代表注意力汇聚的函数 ,以及代表注意力汇聚的函数f 。 。 f ∗ ∗ 可以是加性注意力和缩放点积注意力 ∗ ∗ 。多头注意力的输出需要经过另一个线性转换, ∗ ∗ 它对应着 h 个头连结后的结果,因此其可学习参数是 ∗ ∗ **可以是加性注意力和缩放点积注意力**。 多头注意力的输出需要经过另一个线性转换, **它对应着ℎ个头连结后的结果,因此其可学习参数是 ** 可以是加性注意力和缩放点积注意力。多头注意力的输出需要经过另一个线性转换,它对应着h个头连结后的结果,因此其可学习参数是\mathbf W_o\in\mathbb R^{p_o\times h p_v}$:

W o [ h 1 ⋮ h h ] ∈ R p o . \begin{split}\mathbf W_o \begin{bmatrix}\mathbf h_1\\\vdots\\\mathbf h_h\end{bmatrix} \in \mathbb{R}^{p_o}.\end{split} Wo h1hh Rpo.

基于这种设计,每个头都可能会关注输入的不同部分, 可以表示比简单加权平均值更复杂的函数。

import math
import torch
from torch import nn
from d2l import torch as d2l

实现

在实现过程中通常选择缩放点积注意力作为每一个注意力头。 为了避免计算代价和参数代价的大幅增长, 我们设定 p q = p k = p v = p o / h p_q = p_k = p_v = p_o / h pq=pk=pv=po/h。 值得注意的是,如果将查询、键和值的线性变换的输出数量设置为 p q h = p k h = p v h = p o p_q h = p_k h = p_v h = p_o pqh=pkh=pvh=po, 则可以并行计算ℎ个头。 在下面的实现中, p o p_o po是通过参数num_hiddens指定的。

#@save
class MultiHeadAttention(nn.Module):
    """多头注意力"""
    def __init__(self, key_size, query_size, value_size, num_hiddens,
                 num_heads, dropout, bias=False, **kwargs):
        super(MultiHeadAttention, self).__init__(**kwargs)
        self.num_heads = num_heads
        self.attention = d2l.DotProductAttention(dropout) # 没有学习w,相对来说简单
        self.W_q = nn.Linear(query_size, num_hiddens, bias=bias)
        self.W_k = nn.Linear(key_size, num_hiddens, bias=bias)
        self.W_v = nn.Linear(value_size, num_hiddens, bias=bias)
        self.W_o = nn.Linear(num_hiddens, num_hiddens, bias=bias)

    def forward(self, queries, keys, values, valid_lens):
        # queries,keys,values的形状:
        # (batch_size,查询或者“键-值”对的个数,num_hiddens)
        # valid_lens 的形状:
        # (batch_size,)或(batch_size,查询的个数)
        # 经过变换后,输出的queries,keys,values 的形状:
        # (batch_size*num_heads,查询或者“键-值”对的个数,
        # num_hiddens/num_heads)
        queries = transpose_qkv(self.W_q(queries), self.num_heads)
        keys = transpose_qkv(self.W_k(keys), self.num_heads)
        values = transpose_qkv(self.W_v(values), self.num_heads)

        if valid_lens is not None:
            # 在轴0,将第一项(标量或者矢量)复制num_heads次,
            # 然后如此复制第二项,然后诸如此类。
            valid_lens = torch.repeat_interleave(
                valid_lens, repeats=self.num_heads, dim=0)

        # output的形状:(batch_size*num_heads,查询的个数,num_hiddens/num_heads)
        output = self.attention(queries, keys, values, valid_lens)

        # output_concat的形状:(batch_size,查询的个数,num_hiddens)
        output_concat = transpose_output(output, self.num_heads)
        return self.W_o(output_concat)

这是一个实现多头注意力的 PyTorch 模块。

  • __init__ 方法初始化多头注意力的参数,包括查询向量的维度、键向量的维度、值向量的维度、隐藏状态的维度、头数、dropout 参数等,以及初始化四个线性层:W_q 用于查询向量映射到隐藏状态,W_k 用于将键向量映射到隐藏状态,W_v 用于将值向量映射到隐藏状态,W_o 用于将拼接好的多头注意力的结果映射到隐藏状态。
  • forward 方法实现多头注意力,包括将查询、键和值向量分别通过线性层映射到多头注意力的隐藏状态上,然后通过 transpose_qkv第二个维度变成两个维度,即头数和 num_hiddens/num_heads。接着调用 DotProductAttention 模块实现多头注意力,并通过 transpose_output 将多头注意力的结果中的头数和 num_hiddens/num_heads 这两个维度合并为一个维度。最后将输出通过线性层 W_o 映射到隐藏状态。

为了能够使多个头并行计算, 上面的MultiHeadAttention类将使用下面定义的两个转置函数。 具体来说,transpose_output函数反转了transpose_qkv函数的操作。

#@save
def transpose_qkv(X, num_heads):
    """为了多注意力头的并行计算而变换形状"""
    # 输入X的形状:(batch_size,查询或者“键-值”对的个数,num_hiddens)
    # 输出X的形状:(batch_size,查询或者“键-值”对的个数,num_heads,num_hiddens/num_heads)
    X = X.reshape(X.shape[0], X.shape[1], num_heads, -1)

    # 输出X的形状:(batch_size,num_heads,查询或者“键-值”对的个数,num_hiddens/num_heads)
    X = X.permute(0, 2, 1, 3)

    # 最终输出的形状:(batch_size*num_heads,查询或者“键-值”对的个数,num_hiddens/num_heads)
    return X.reshape(-1, X.shape[2], X.shape[3])


#@save
def transpose_output(X, num_heads):
    """逆转transpose_qkv函数的操作"""
    # 逆转变成三维
    X = X.reshape(-1, num_heads, X.shape[1], X.shape[2])
    X = X.permute(0, 2, 1, 3)
    return X.reshape(X.shape[0], X.shape[1], -1)

这两个函数是为了多头注意力机制的实现而写的。在多头注意力机制中,我们需要将原始的查询、键、值矩阵进行线性变换,以得到多组新的查询、键、值矩阵,然后对这些矩阵分别进行注意力池化操作,最终将结果拼接在一起返回。

其中,transpose_qkv函数对输入的X矩阵进行形状变换,将其变为(batch_size_num_heads, 查询或者“键-值”对的个数, num_hiddens/num_heads)的形状,其中,num_heads是多头注意力机制中使用的注意力头的个数。具体实现中,我们首先将输入矩阵X的形状从(batch_size, 查询或者“键-值”对的个数, num_hiddens)变为(batch_size, 查询或者“键-值”对的个数, num_heads, num_hiddens/num_heads)的形状,然后将第2个维度和第3个维度交换,最终得到(batch_size_num_heads, 查询或者“键-值”对的个数, num_hiddens/num_heads)的形状的输出。

transpose_output函数是对transpose_qkv函数的逆操作。在拼接多头注意力机制的结果时,我们需要将多个注意力头的结果拼接在一起,这时就需要将多个头的输出进行形状变换,最终将(batch_size*num_heads, 查询或者“键-值”对的个数, num_hiddens/num_heads)的形状的结果变为(batch_size, 查询或者“键-值”对的个数, num_hiddens)的形状。

下面使用键和值相同的小例子来测试我们编写的MultiHeadAttention类。 多头注意力输出的形状是(batch_sizenum_queriesnum_hiddens)。

num_hiddens, num_heads = 100, 5
attention = MultiHeadAttention(num_hiddens, num_hiddens, num_hiddens,
                               num_hiddens, num_heads, 0.5)
attention.eval()
MultiHeadAttention(
  (attention): DotProductAttention(
    (dropout): Dropout(p=0.5, inplace=False)
  )
  (W_q): Linear(in_features=100, out_features=100, bias=False)
  (W_k): Linear(in_features=100, out_features=100, bias=False)
  (W_v): Linear(in_features=100, out_features=100, bias=False)
  (W_o): Linear(in_features=100, out_features=100, bias=False)
)
batch_size, num_queries = 2, 4
num_kvpairs, valid_lens =  6, torch.tensor([3, 2])
X = torch.ones((batch_size, num_queries, num_hiddens))
Y = torch.ones((batch_size, num_kvpairs, num_hiddens))
attention(X, Y, Y, valid_lens).shape
torch.Size([2, 4, 100])

总结

  • 多头注意力融合了来自于多个注意力汇聚的不同知识,这些知识的不同来源于相同的查询、键和值的不同的子空间表示。
  • 基于适当的张量操作,可以实现多头注意力的并行计算。

有掩码的多头注意力

有掩码的多头注意力(Masked Multi-Head Attention)是一种用于自注意力机制的变体,它在计算注意力权重时可以屏蔽掉一些不合法的位置,以避免模型利用无效的位置信息进行计算

多头注意力机制是一种用于序列建模的机制,它通过计算一个查询序列与一组键值对之间的注意力权重,来对序列中每个位置进行建模。在有掩码的多头注意力中,对于某些位置,我们可能希望将其屏蔽掉,例如在处理自然语言语句时,为了避免模型利用未来的信息进行计算,我们需要将当前位置之后的所有位置都屏蔽掉

有掩码的多头注意力的原理是在计算注意力权重时,将掩码矩阵与查询序列中的每个位置对应相乘,从而将不合法的位置的注意力权重置为一个极小的值,使得模型不会利用这些位置的信息进行计算。然后再按照通常的多头注意力的方法进行计算,即将键值对乘以注意力权重,然后将所有结果相加得到最终的输出。

在实际应用中,有掩码的多头注意力常常用于序列到序列(seq2seq)模型中的编码器和解码器中,以确保模型在预测未来序列时不会利用未来信息。

  • 解码器对序列中一个元素输出时,不应该考虑该元素之后的元素
  • 可以通过掩码来实现也就是计算 x i x_i xi输出时,假装当前序列长度为 i i i

在使用序列到序列(seq2seq)模型进行预测时,通常需要对序列中的每个元素进行逐一预测。对于解码器来说,每次预测时,它只能看到输入序列和先前预测的输出序列,而不能看到未来的元素。因此,在预测第 i i i个元素时,应该忽略第 i i i个元素之后的元素,这样可以确保模型不会在预测过程中使用未来的信息

一种常用的方法是使用掩码(masking)来屏蔽掉解码器中未来的信息。具体来说,可以使用一个掩码向量,将当前位置之后的所有位置都屏蔽掉,以确保在计算第 i i i个元素的输出时,只能看到前面的元素。

对于一个长度为 n n n的序列,如果要预测第 i i i个元素的输出,可以将掩码向量定义为一个长度为 n n n的二元向量,其中第 j j j个元素为0表示该位置不应该被考虑,第 j j j个元素为1表示该位置可以被考虑。在计算第 i i i个元素的输出时,将掩码向量的前 i i i个元素设为1,后面的元素设为0,这样就可以将当前序列长度视为 i i i进行计算,从而忽略掉第 i i i个元素之后的元素。

通过使用掩码来屏蔽未来的信息,可以确保模型不会在预测时使用未来的信息,同时还可以提高模型的预测精度。

自注意力和位置编码

在深度学习中,经常使用卷积神经网络(CNN)或循环神经网络(RNN)对序列进行编码。 想象一下,有了注意力机制之后,我们将词元序列输入注意力池化中, 以便同一组词元同时充当查询、键和值。 具体来说,每个查询都会关注所有的键-值对并生成一个注意力输出。 由于查询、键和值来自同一组输入,因此被称为 自注意力(self-attention) (Lin et al., 2017, Vaswani et al., 2017), 也被称为_内部注意力_(intra-attention) (Cheng et al., 2016, Parikh et al., 2016, Paulus et al., 2017)。 本节将使用自注意力进行序列编码,以及如何使用序列的顺序作为补充信息。

import math
import torch
from torch import nn
from d2l import torch as d2l

自注意力

给定一个由词元组成的输入序列 x 1 , … , x n \mathbf{x}_1, \ldots, \mathbf{x}_n x1,,xn, 其中任意 x i ∈ R d \mathbf{x}_i \in \mathbb{R}^d xiRd 1 ≤ i ≤ n 1 \leq i \leq n 1in)。 该序列的自注意力输出为一个长度相同的序列 y 1 , … , y n \mathbf{y}_1, \ldots, \mathbf{y}_n y1,,yn,其中:

y i = f ( x i , ( x 1 , x 1 ) , … , ( x n , x n ) ) ∈ R d \mathbf{y}_i = f(\mathbf{x}_i, (\mathbf{x}_1, \mathbf{x}_1), \ldots, (\mathbf{x}_n, \mathbf{x}_n)) \in \mathbb{R}^d yi=f(xi,(x1,x1),,(xn,xn))Rd

📌自注意力池化层将 x i \mathbf{x}_i xi当作key,value,query来对序列抽取特征得到 y 1 , … , y n \mathbf{y}_1, \ldots, \mathbf{y}_n y1,,yn

根据定义的注意力汇聚函数 f f f。 下面的代码片段是基于多头注意力对一个张量完成自注意力的计算, 张量的形状为(批量大小,时间步的数目或词元序列的长度, d d d)。 输出与输入的张量形状相同。

在这里插入图片描述

num_hiddens, num_heads = 100, 5
attention = d2l.MultiHeadAttention(num_hiddens, num_hiddens, num_hiddens,
                                   num_hiddens, num_heads, 0.5)
attention.eval()
MultiHeadAttention(
  (attention): DotProductAttention(
    (dropout): Dropout(p=0.5, inplace=False)
  )
  (W_q): Linear(in_features=100, out_features=100, bias=False)
  (W_k): Linear(in_features=100, out_features=100, bias=False)
  (W_v): Linear(in_features=100, out_features=100, bias=False)
  (W_o): Linear(in_features=100, out_features=100, bias=False)
)

batch_size, num_queries, valid_lens = 2, 4, torch.tensor([3, 2])
X = torch.ones((batch_size, num_queries, num_hiddens))
attention(X, X, X, valid_lens).shape
torch.Size([2, 4, 100])

比较卷积神经网络、循环神经网络和自注意力

接下来比较下面几个架构,目标都是将由 n n n个词元组成的序列映射到另一个长度相等的序列,其中的每个输入词元或输出词元都由 d d d维向量表示。具体来说,将比较的是卷积神经网络、循环神经网络和自注意力这几个架构的计算复杂性、顺序操作和最大路径长度。请注意,顺序操作会妨碍并行计算,而任意的序列位置组合之间的路径越短,则能更轻松地学习序列中的远距离依赖关系 (Hochreiter et al., 2001)。

在这里插入图片描述

在这里插入图片描述

考虑一个卷积核大小为 k k k的卷积层。 在后面的章节将提供关于使用卷积神经网络处理序列的更多详细信息。 目前只需要知道的是,由于序列长度是 n n n,输入和输出的通道数量都是 d d d, 所以卷积层的计算复杂度为 O ( k n d 2 ) \mathcal{O}(knd^2) O(knd2)。 如上图所示, 卷积神经网络是分层的,因此为有 O ( 1 ) \mathcal{O}(1) O(1)个顺序操作, 最大路径长度为 O ( n / k ) \mathcal{O}(n/k) O(n/k)。 例如, x 1 \mathbf{x}_1 x1 x 5 \mathbf{x}_5 x5处于上图中卷积核大小为3的双层卷积神经网络的感受野内。

当更新循环神经网络的隐状态时, d × d d \times d d×d权重矩阵和 d d d维隐状态的乘法计算复杂度为 O ( d 2 ) \mathcal{O}(d^2) O(d2)。 由于序列长度为 n n n,因此循环神经网络层的计算复杂度为 O ( n d 2 ) \mathcal{O}(nd^2) O(nd2)。 根据上图, 有 O ( n ) \mathcal{O}(n) O(n)个顺序操作无法并行化,最大路径长度也是 O ( n ) \mathcal{O}(n) O(n)

在自注意力中,查询、键和值都是 n × d n \times d n×d矩阵。 考虑缩放的”点-积“注意力, 其中 n × d n \times d n×d矩阵乘以 d × n d \times n d×n矩阵。 之后输出的 n × n n \times n n×n矩阵乘以 n × d n \times d n×d矩阵。 因此,自注意力具有 O ( n 2 d ) \mathcal{O}(n^2d) O(n2d)计算复杂性。 正如在上图中所讲, 每个词元都通过自注意力直接连接到任何其他词元。 因此,有 O ( 1 ) \mathcal{O}(1) O(1)个顺序操作可以并行计算, 最大路径长度也是 O ( 1 ) \mathcal{O}(1) O(1)

总而言之,卷积神经网络和自注意力都拥有并行计算的优势, 而且自注意力的最大路径长度最短。 但是因为其计算复杂度是关于序列长度的二次方,所以在很长的序列中计算会非常慢

位置编码

在处理词元序列时,循环神经网络是逐个的重复地处理词元的, 而自注意力则因为并行计算而放弃了顺序操作。 为了使用序列的顺序信息,通过在输入表示中添加 位置编码(positional encoding)来注入绝对的或相对的位置信息。 位置编码可以通过学习得到也可以直接固定得到。 接下来描述的是基于正弦函数和余弦函数的固定位置编码 (Vaswani et al., 2017)。

📌跟CNN/RNN不同,自注意力并没有记录位置信息,通过位置编码将位置信息注入到输入中

假设输入表示 X ∈ R n × d \mathbf{X} \in \mathbb{R}^{n \times d} XRn×d包含一个序列中 n n n个词 元的 d d d维嵌入表示。 **位置编码使用相同形状的位置嵌入矩阵 ** P ∈ R n × d \mathbf{P} \in \mathbb{R}^{n \times d} PRn×d输出 X + P \mathbf{X} + \mathbf{P} X+P, 矩阵第 i i i行、第 2 j 2j 2j列和 2 j + 1 2j+1 2j+1列上的元素为:

p i , 2 j = sin ⁡ ( i 1000 0 2 j / d ) , p i , 2 j + 1 = cos ⁡ ( i 1000 0 2 j / d ) . \begin{split}\begin{aligned} p_{i, 2j} &= \sin\left(\frac{i}{10000^{2j/d}}\right),\\p_{i, 2j+1} &= \cos\left(\frac{i}{10000^{2j/d}}\right).\end{aligned}\end{split} pi,2jpi,2j+1=sin(100002j/di),=cos(100002j/di).

乍一看,这种基于三角函数的设计看起来很奇怪。 在解释这个设计之前,让我们先在下面的PositionalEncoding类中实现它。

#@save
class PositionalEncoding(nn.Module):
    """位置编码"""
    def __init__(self, num_hiddens, dropout, max_len=1000):
        super(PositionalEncoding, self).__init__()
        self.dropout = nn.Dropout(dropout)
        # 创建一个足够长的P
        self.P = torch.zeros((1, max_len, num_hiddens)) # batchsize=1
        X = torch.arange(max_len, dtype=torch.float32).reshape(
            -1, 1) / torch.pow(10000, torch.arange(
            0, num_hiddens, 2, dtype=torch.float32) / num_hiddens)
        self.P[:, :, 0::2] = torch.sin(X)
        self.P[:, :, 1::2] = torch.cos(X)

    def forward(self, X):
        X = X + self.P[:, :X.shape[1], :].to(X.device)
        return self.dropout(X)

在位置嵌入矩阵 P \mathbf{P} P中, 行代表词元在序列中的位置,列代表位置编码的不同维度。, 从下面的例子中可以看到位置嵌入矩阵的第6列和第7列的频率高于第8列和第9列。 第6列和第7列之间的偏移量(第8列和第9列相同)是由于正弦函数和余弦函数的交替。

encoding_dim, num_steps = 32, 60
pos_encoding = PositionalEncoding(encoding_dim, 0)
pos_encoding.eval()
X = pos_encoding(torch.zeros((1, num_steps, encoding_dim)))
P = pos_encoding.P[:, :X.shape[1], :]
d2l.plot(torch.arange(num_steps), P[0, :, 6:10].T, xlabel='Row (position)',
         figsize=(6, 2.5), legend=["Col %d" % d for d in torch.arange(6, 10)])

在这里插入图片描述

绝对位置信息

为了明白沿着编码维度单调降低的频率与绝对位置信息的关系, 让我们打印出 0 , 1 , … , 7 0, 1, \ldots, 7 0,1,,7的二进制表示形式。 正如所看到的,每个数字、每两个数字和每四个数字上的比特值 在第一个最低位、第二个最低位和第三个最低位上分别交替。

for i in range(8):
    print(f'{i}的二进制是:{i:>03b}')
0的二进制是:000
1的二进制是:001
2的二进制是:010
3的二进制是:011
4的二进制是:100
5的二进制是:101
6的二进制是:110
7的二进制是:111

在二进制表示中,较高比特位的交替频率低于较低比特位, 与下面的热图所示相似,只是位置编码通过使用三角函数在编码维度上降低频率。 由于输出是浮点数,因此此类连续表示比二进制表示法更节省空间

P = P[0, :, :].unsqueeze(0).unsqueeze(0)
d2l.show_heatmaps(P, xlabel='Column (encoding dimension)',
                  ylabel='Row (position)', figsize=(3.5, 4), cmap='Blues')

在这里插入图片描述

相对位置信息

除了捕获绝对位置信息之外,上述的位置编码还允许模型学习得到输入序列中相对位置信息。 这是因为对于任何确定的位置偏移 δ \delta δ,位置 i + δ i + \delta i+δ处 的位置编码可以线性投影位置 i i i处的位置编码来表示

这种投影的数学解释是,令 ω j = 1 / 1000 0 2 j / d \omega_j = 1/10000^{2j/d} ωj=1/100002j/d, 对于任何确定的位置偏移 δ \delta δ,任何一对$ (p_{i, 2j}, p_{i, 2j+1}) $都可以线性投影到 ( p i + δ , 2 j , p i + δ , 2 j + 1 ) (p_{i+\delta, 2j}, p_{i+\delta, 2j+1}) (pi+δ,2j,pi+δ,2j+1)

[ cos ⁡ ( δ ω j ) sin ⁡ ( δ ω j ) − sin ⁡ ( δ ω j ) cos ⁡ ( δ ω j ) ] [ p i , 2 j p i , 2 j + 1 ] = [ cos ⁡ ( δ ω j ) sin ⁡ ( i ω j ) + sin ⁡ ( δ ω j ) cos ⁡ ( i ω j ) − sin ⁡ ( δ ω j ) sin ⁡ ( i ω j ) + cos ⁡ ( δ ω j ) cos ⁡ ( i ω j ) ] = [ sin ⁡ ( ( i + δ ) ω j ) cos ⁡ ( ( i + δ ) ω j ) ] = [ p i + δ , 2 j p i + δ , 2 j + 1 ] , \begin{split}\begin{aligned} &\begin{bmatrix} \cos(\delta \omega_j) & \sin(\delta \omega_j) \\ -\sin(\delta \omega_j) & \cos(\delta \omega_j) \\ \end{bmatrix} \begin{bmatrix} p_{i, 2j} \\ p_{i, 2j+1} \\ \end{bmatrix}\\ =&\begin{bmatrix} \cos(\delta \omega_j) \sin(i \omega_j) + \sin(\delta \omega_j) \cos(i \omega_j) \\ -\sin(\delta \omega_j) \sin(i \omega_j) + \cos(\delta \omega_j) \cos(i \omega_j) \\ \end{bmatrix}\\ =&\begin{bmatrix} \sin\left((i+\delta) \omega_j\right) \\ \cos\left((i+\delta) \omega_j\right) \\ \end{bmatrix}\\ =& \begin{bmatrix} p_{i+\delta, 2j} \\ p_{i+\delta, 2j+1} \\ \end{bmatrix}, \end{aligned}\end{split} ===[cos(δωj)sin(δωj)sin(δωj)cos(δωj)][pi,2jpi,2j+1][cos(δωj)sin(iωj)+sin(δωj)cos(iωj)sin(δωj)sin(iωj)+cos(δωj)cos(iωj)][sin((i+δ)ωj)cos((i+δ)ωj)][pi+δ,2jpi+δ,2j+1],

2×2投影矩阵不依赖于任何位置的索引 i i i

投影矩阵和i无关

总结

  • 在自注意力中,查询、键和值都来自同一组输入。
  • 卷积神经网络和自注意力都拥有并行计算的优势,而且自注意力的最大路径长度最短。但是因为其计算复杂度是关于序列长度的二次方,所以在很长的序列中计算会非常慢。
  • 为了使用序列的顺序信息,可以通过在输入表示中添加位置编码,来注入绝对的或相对的位置信息。

多头注意力和自注意力的区别

多头注意力和自注意力是自注意力模型中的两个关键组件,它们都使用注意力机制来捕捉输入序列的不同部分之间的关系。它们的区别在于,自注意力用于对一个输入序列内的元素之间建立关联,而多头注意力用于对不同位置或不同表示空间之间的元素之间建立关联。

📌自注意力(Self-Attention)机制是一种可以捕捉序列内元素之间依赖关系的机制,它可以通过计算元素之间的相似度得到一个注意力分布,从而对序列中的每个元素进行加权求和。在自注意力中,每个元素都与序列中的其他元素计算注意力,从而捕捉元素之间的关系。自注意力在序列到序列的翻译任务和语言模型中被广泛使用,例如Transformer模型。

📌多头注意力(Multi-Head Attention)是一种可以捕捉序列中不同部分之间关系的机制,它将一个输入序列分别映射到多个不同的表示空间,并在每个表示空间中进行自注意力操作。具体来说,**多头注意力将输入序列通过多个不同的线性变换映射到不同的表示空间,然后对每个表示空间进行自注意力操作,最后将所有的表示空间进行拼接和线性变换得到最终的输出。**多头注意力可以捕捉输入序列中不同部分之间的复杂关系,从而提高模型的表现。在Transformer模型中,多头注意力被广泛应用于编码器和解码器中。

总之,自注意力是用于序列内部元素之间的关系建模,而多头注意力是用于不同位置或不同表示空间之间的关系建模。两种注意力机制都可以提高模型的表现,它们经常在深度学习模型中被使用。

Transformer

上节中比较了卷积神经网络(CNN)、循环神经网络(RNN)和自注意力(self-attention)。值得注意的是,自注意力同时具有并行计算和最短的最大路径长度这两个优势。因此,使用自注意力来设计深度架构是很有吸引力的。对比之前仍然依赖循环神经网络实现输入表示的自注意力模型 (Cheng et al., 2016, Lin et al., 2017, Paulus et al., 2017),Transformer模型完全基于注意力机制,没有任何卷积层或循环神经网络层 (Vaswani et al., 2017)。尽管Transformer最初是应用于在文本数据上的序列到序列学习,但现在已经推广到各种现代的深度学习中,例如语言、视觉、语音和强化学习领域。

模型

Transformer作为编码器-解码器架构的一个实例,其整体架构图在下图中展示。正如所见到的,Transformer是由编码器和解码器组成的。与之前的基于Bahdanau注意力实现的序列到序列的学习相比,Transformer的编码器和解码器是基于自注意力的模块叠加而成的,源(输入)序列和目标(输出)序列的_嵌入_(embedding)表示将加上_位置编码_(positional encoding),再分别输入到编码器和解码器中。

在这里插入图片描述

上图概述了Transformer的架构。从宏观角度来看,Transformer的编码器是由多个相同的层叠加而成的,每个层都有两个子层(子层表示为sublayer)。第一个子层是_多头自注意力_(multi-head self-attention)汇聚;第二个子层是_基于位置的前馈网络_(positionwise feed-forward network)。具体来说,在计算编码器的自注意力时,查询、键和值都来自前一个编码器层的输出。受 残差网络的启发,每个子层都采用了_残差连接_(residual connection)。在Transformer中,对于序列中任何位置的任何输入 x ∈ R d \mathbf{x} \in \mathbb{R}^d xRd,都要求满足 s u b l a y e r ( x ) ∈ R d \mathrm{sublayer}(\mathbf{x}) \in \mathbb{R}^d sublayer(x)Rd,以便残差连接满足 x + s u b l a y e r ( x ) ∈ R d \mathbf{x} + \mathrm{sublayer}(\mathbf{x}) \in \mathbb{R}^d x+sublayer(x)Rd。在残差连接的加法计算之后,紧接着应用_层规范化_(layer normalization) (Ba et al., 2016)。因此,输入序列对应的每个位置,Transformer编码器都将输出一个 d d d维表示向量。

Transformer解码器也是由多个相同的层叠加而成的,并且层中使用了残差连接和层规范化。除了编码器中描述的两个子层之外,解码器还在这两个子层之间插入了第三个子层,称为_编码器-解码器注意力_(encoder-decoder attention)层。在编码器-解码器注意力中,查询来自前一个解码器层的输出,而键和值来自整个编码器的输出。在解码器自注意力中,查询、键和值都来自上一个解码器层的输出。但是,解码器中的每个位置只能考虑该位置之前的所有位置。这种_掩蔽_(masked)注意力保留了_自回归_(auto-regressive)属性,确保预测仅依赖于已生成的输出词元。

import math
import pandas as pd
import torch
from torch import nn
from d2l import torch as d2l

基于位置的前馈网络

基于位置的前馈网络对序列中的所有位置的表示进行变换时使用的是同一个多层感知机(MLP),这就是称前馈网络是_基于位置的_(positionwise)的原因

在下面的实现中,输入X的形状(批量大小,时间步数或序列长度,隐单元数或特征维度)将被一个两层的感知机转换成形状为(批量大小,时间步数,ffn_num_outputs)的输出张量。

具体来说,多头注意力中的位置前馈网络的操作步骤如下:

  1. 将输入形状由(b,n,d)变换成(bn,d),即将每个位置的向量展平成一个一维向量,其中 b 是 batch size,n 是序列长度,d 是向量维度。
  2. 作用两个全连接层。第一个全连接层将每个向量映射到一个更高维的中间特征空间,第二个全连接层将中间特征向量映射回原始特征空间。这两个全连接层都是线性变换加上一个非线性激活函数。
  3. 将输出形状由(bn,d)变换为(b,n,d),即将每个一维向量重新还原成原始的向量形状。

基于位置的前馈网络(Position-wise Feedforward Network)是序列到序列(seq2seq)模型中常用的一种网络结构,用于对序列中每个位置的特征进行非线性变换和映射,从而改善模型的表达能力。

基于位置的前馈网络的原理是在每个位置上应用一个相同的全连接前馈神经网络,将该位置的特征向量映射到一个新的特征空间中。在该网络中,每个位置都有自己的一组参数,这些参数是独立学习的,因此网络可以灵活地对不同位置的特征进行不同的变换。

具体来说,对于一个长度为 n n n的序列,基于位置的前馈网络将序列中的每个位置的特征向量表示为一个 d d d维向量 x i \mathbf{x}_i xi,其中 i i i表示序列中的位置。然后,基于位置的前馈网络应用一个非线性变换来对每个位置的特征向量进行映射,计算公式如下:

F F N ( x i ) = max ⁡ ( 0 , x i W 1 + b 1 ) W 2 + b 2 \mathrm{FFN}(\mathbf{x}_i) = \max(0, \mathbf{x}_i \mathbf{W}_1 + \mathbf{b}_1) \mathbf{W}_2 + \mathbf{b}_2 FFN(xi)=max(0,xiW1+b1)W2+b2

其中, W 1 \mathbf{W}_1 W1 W 2 \mathbf{W}_2 W2是两个参数矩阵,分别用于将输入特征向量映射到一个更高维的中间特征空间和将中间特征向量映射回原始特征空间; b 1 \mathbf{b}_1 b1 b 2 \mathbf{b}_2 b2分别是两个偏置向量,用于增加网络的表达能力; max ⁡ ( 0 , ⋅ ) \max(0, \cdot) max(0,)表示ReLU激活函数,用于引入非线性变换。

基于位置的前馈网络通过引入非线性变换,可以帮助模型更好地捕捉序列中的局部特征,提高模型的表达能力。同时,由于基于位置的前馈网络对每个位置都应用了相同的变换,因此可以加速模型的训练和推理过程,提高模型的效率。

#@save
class PositionWiseFFN(nn.Module):
    """基于位置的前馈网络"""
    def __init__(self, ffn_num_input, ffn_num_hiddens, ffn_num_outputs,
                 **kwargs):
        super(PositionWiseFFN, self).__init__(**kwargs)
        self.dense1 = nn.Linear(ffn_num_input, ffn_num_hiddens)
        self.relu = nn.ReLU()
        self.dense2 = nn.Linear(ffn_num_hiddens, ffn_num_outputs)

    def forward(self, X):
        return self.dense2(self.relu(self.dense1(X)))

下面的例子显示,改变张量的最里层维度的尺寸,会改变成基于位置的前馈网络的输出尺寸。因为用同一个多层感知机对所有位置上的输入进行变换,所以当所有这些位置的输入相同时,它们的输出也是相同的。

ffn = PositionWiseFFN(4, 4, 8)
ffn.eval()
ffn(torch.ones((2, 3, 4)))[0]
tensor([[ 0.3407, -0.0869, -0.3967,  0.7588,  0.3862,  0.2616,  0.1842, -0.0328],
        [ 0.3407, -0.0869, -0.3967,  0.7588,  0.3862,  0.2616,  0.1842, -0.0328],
        [ 0.3407, -0.0869, -0.3967,  0.7588,  0.3862,  0.2616,  0.1842, -0.0328]],
       grad_fn=<SelectBackward0>)

残差连接和层规范化

现在让我们关注图中的_加法和规范化_(add&norm)组件。正如在本节开头所述,这是由残差连接和紧随其后的层规范化组成的。两者都是构建有效的深度架构的关键。

层规范化和批量规范化的目标相同,但层规范化是基于特征维度进行规范化。尽管批量规范化在计算机视觉中被广泛应用,但在自然语言处理任务中(输入通常是变长序列)批量规范化通常不如层规范化的效果好。

  • 批量归一化对每个特征、通道里的元素进行归一化,不适合序列长度会变得NLP应用
  • 层归一化对每个样本里的元素进行归一化

在这里插入图片描述

残差连接(Residual Connection)和层规范化(Layer Normalization)是深度学习中常用的技巧,用于改善神经网络的训练效果。它们通常被应用于卷积神经网络、循环神经网络和自注意力模型中。

残差连接的原理是在神经网络的某些层中,将输入和输出之间添加一个跨层的连接。这种连接允许梯度在跨层传递,从而加速了训练和优化。

在残差连接中,模型的输出可以表示为输入和残差的和,即 y = x + F ( x ) y = x + F(x) y=x+F(x),其中 F ( x ) F(x) F(x) 是模型的非线性变换, x x x 是模型的输入。在实践中,残差连接可以通过加法实现。

层规范化的原理是**在神经网络的每个隐藏层之后,添加一个规范化操作,以避免梯度消失和爆炸。**在层规范化中,对于每个隐藏层的输出,我们将其按通道进行均值和方差规范化。具体来说,对于一个大小为 ( n , d ) (n, d) (n,d) 的隐藏层输出 x x x,层规范化将其规范化为:

LayerNorm ( x ) = γ ⊙ x − μ σ 2 + ϵ + β \text{LayerNorm}(x) = \gamma \odot \frac{x - \mu}{\sqrt{\sigma^2 + \epsilon}} + \beta LayerNorm(x)=γσ2+ϵ xμ+β

其中 γ \gamma γ β \beta β 是可学习的缩放因子和偏置项, μ \mu μ σ \sigma σ 分别是 x x x 在通道维度上的均值和标准差, ϵ \epsilon ϵ 是一个很小的正数,以避免分母为零。这个操作使得神经网络的每个隐藏层的输出分布保持相同的统计特性,从而使得模型更易于训练,并且可以提高模型的泛化能力。

残差连接和层规范化可以结合使用,以进一步提高模型的表现。在自注意力模型中,残差连接和层规范化通常被应用于每个多头注意力子层和每个前馈网络子层中。这样可以使得模型更加稳定,同时也能够提高模型的效率和准确性。

以下代码对比不同维度的层规范化和批量规范化的效果。

ln = nn.LayerNorm(2)
bn = nn.BatchNorm1d(2)
X = torch.tensor([[1, 2], [2, 3]], dtype=torch.float32)
# 在训练模式下计算X的均值和方差
print('layer norm:', ln(X), '\nbatch norm:', bn(X))

这段代码使用了PyTorch库中的两个归一化层:LayerNorm和BatchNorm1d,并对一个2维张量X进行了归一化处理。

具体来说,代码首先创建了一个LayerNorm层对象ln和一个BatchNorm1d层对象bn,它们都接受一个输入特征的维度为2。然后,定义了一个2x2的张量X作为输入。

接下来,在训练模式下,分别使用LayerNorm和BatchNorm1d对X进行归一化处理,并打印出结果。其中,LayerNorm的计算是在每个样本上进行的,即对于每个样本,计算它在维度上的均值和方差,然后使用这些值进行归一化。而BatchNorm1d的计算是在整个批次上进行的,即对于整个批次中的每个样本,计算它在维度上的均值和方差,然后使用这些值进行归一化。

最终输出的结果中,layer norm对每个样本进行了归一化,而batch norm对整个批次中的每个样本进行了归一化。

layer norm: tensor([[-1.0000,  1.0000],
        [-1.0000,  1.0000]], grad_fn=<NativeLayerNormBackward0>)
batch norm: tensor([[-1.0000, -1.0000],
        [ 1.0000,  1.0000]], grad_fn=<NativeBatchNormBackward0>)

现在可以使用残差连接和层规范化来实现AddNorm类。暂退法也被作为正则化方法使用。

#@save
class AddNorm(nn.Module):
    """残差连接后进行层规范化"""
    def __init__(self, normalized_shape, dropout, **kwargs):
        super(AddNorm, self).__init__(**kwargs)
        self.dropout = nn.Dropout(dropout)
        self.ln = nn.LayerNorm(normalized_shape)

    def forward(self, X, Y):
        return self.ln(self.dropout(Y) + X)

这是一个PyTorch模型类AddNorm的定义。这个类实现了残差连接后进行层规范化的功能。

具体来说,这个类的初始化方法中,normalized_shape参数表示输入张量X和Y的特征维度,dropout参数表示进行dropout操作的概率。在初始化方法中,创建了一个Dropout层对象和一个LayerNorm层对象。

这个类的前向传播方法中,输入参数X和Y分别表示残差连接前和残差连接后的张量。首先对Y进行dropout操作,然后将dropout后的Y与X进行相加,得到残差连接后的结果。最后对这个结果进行LayerNorm操作,得到最终的输出结果。

总之,这个类的作用是对残差连接后的张量进行规范化处理,同时添加dropout操作以防止过拟合。该类在深度学习中经常被用作Transformer等模型中的基础构建块。

残差连接要求两个输入的形状相同,以便加法操作后输出张量的形状相同。

add_norm = AddNorm([3, 4], 0.5) # normalized_shape:[3, 4],dropout:0.5
add_norm.eval()
add_norm(torch.ones((2, 3, 4)), torch.ones((2, 3, 4))).shape
torch.Size([2, 3, 4])

编码器

有了组成Transformer编码器的基础组件,现在可以先实现编码器中的一个层。下面的EncoderBlock类包含两个子层:多头自注意力和基于位置的前馈网络,这两个子层都使用了残差连接和紧随的层规范化。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-1Lbf9iJo-1676883573900)(image/image_ChLaTXFgJs.png)]

#@save
class EncoderBlock(nn.Module):
    """Transformer编码器块"""
    def __init__(self, key_size, query_size, value_size, num_hiddens,
                 norm_shape, ffn_num_input, ffn_num_hiddens, num_heads,
                 dropout, use_bias=False, **kwargs):
        super(EncoderBlock, self).__init__(**kwargs)
        self.attention = d2l.MultiHeadAttention(
            key_size, query_size, value_size, num_hiddens, num_heads, dropout,
            use_bias)
        self.addnorm1 = AddNorm(norm_shape, dropout)
        self.ffn = PositionWiseFFN(
            ffn_num_input, ffn_num_hiddens, num_hiddens)
        self.addnorm2 = AddNorm(norm_shape, dropout)

    def forward(self, X, valid_lens):
        Y = self.addnorm1(X, self.attention(X, X, X, valid_lens)) # key value query
        return self.addnorm2(Y, self.ffn(Y))
        

这是一个PyTorch模型类EncoderBlock的定义。这个类实现了Transformer编码器中的一个编码器块。

具体来说,这个类的初始化方法中,key_size、query_size和value_size参数分别表示多头注意力中键、查询和值的向量维度;num_hiddens表示全连接层的隐藏层大小;norm_shape表示层规范化的特征维度;ffn_num_input表示PositionWiseFFN中全连接层的输入大小;ffn_num_hiddens表示PositionWiseFFN中全连接层的隐藏层大小;num_heads表示多头注意力中头的数量;dropout表示dropout操作的概率;use_bias表示是否使用偏置项。

在初始化方法中,创建了一个MultiHeadAttention对象、两个AddNorm对象和一个PositionWiseFFN对象。

这个类的前向传播方法中,输入参数X表示编码器块的输入张量,valid_lens表示填充有效长度的张量。首先,将输入张量X作为多头注意力的查询、键和值,使用MultiHeadAttention进行多头注意力计算,并与输入张量X进行残差连接和层规范化。然后将输出张量再进行一个残差连接和层规范化。最后,将得到的张量作为该编码器块的输出结果。

总之,这个类的作用是实现Transformer编码器中的一个编码器块,包含了多头注意力和PositionWiseFFN等多个模块,对输入张量进行处理并输出结果。该类在深度学习中经常被用作自然语言处理任务中的编码器。

正如从代码中所看到的,Transformer编码器中的任何层都不会改变其输入的形状。

X = torch.ones((2, 100, 24))
valid_lens = torch.tensor([3, 2])
encoder_blk = EncoderBlock(24, 24, 24, 24, [100, 24], 24, 48, 8, 0.5)
encoder_blk.eval()
encoder_blk(X, valid_lens).shape
torch.Size([2, 100, 24])

下面实现的Transformer编码器的代码中,堆叠了num_layersEncoderBlock类的实例。由于这里使用的是值范围在−1和1之间的固定位置编码,因此通过学习得到的输入的嵌入表示的值需要先乘以嵌入维度的平方根进行重新缩放,然后再与位置编码相加。

#@save
class TransformerEncoder(d2l.Encoder):
    """Transformer编码器"""
    def __init__(self, vocab_size, key_size, query_size, value_size,
                 num_hiddens, norm_shape, ffn_num_input, ffn_num_hiddens,
                 num_heads, num_layers, dropout, use_bias=False, **kwargs):
        super(TransformerEncoder, self).__init__(**kwargs)
        self.num_hiddens = num_hiddens # 隐藏层大小
        self.embedding = nn.Embedding(vocab_size, num_hiddens)
        self.pos_encoding = d2l.PositionalEncoding(num_hiddens, dropout)
        self.blks = nn.Sequential()
        for i in range(num_layers):
            self.blks.add_module("block"+str(i),
                EncoderBlock(key_size, query_size, value_size, num_hiddens,
                             norm_shape, ffn_num_input, ffn_num_hiddens,
                             num_heads, dropout, use_bias))

    def forward(self, X, valid_lens, *args):
        # 因为位置编码值在-1和1之间,
        # 因此嵌入值乘以嵌入维度的平方根进行缩放,
        # 然后再与位置编码相加。
        X = self.pos_encoding(self.embedding(X) * math.sqrt(self.num_hiddens))
        self.attention_weights = [None] * len(self.blks)
        for i, blk in enumerate(self.blks):
            X = blk(X, valid_lens)
            self.attention_weights[i] = blk.attention.attention.attention_weights
        return X

这是一个PyTorch模型类TransformerEncoder的定义。这个类继承自d2l.Encoder类,实现了Transformer编码器。

具体来说,这个类的初始化方法中,vocab_size表示嵌入层的词典大小;key_size、query_size和value_size分别表示多头注意力中键、查询和值的向量维度;num_hiddens表示嵌入层和全连接层的隐藏层大小;norm_shape表示层规范化的特征维度;ffn_num_input表示PositionWiseFFN中全连接层的输入大小;ffn_num_hiddens表示PositionWiseFFN中全连接层的隐藏层大小;num_heads表示多头注意力中头的数量;num_layers表示编码器中编码器块的数量;dropout表示dropout操作的概率;use_bias表示是否使用偏置项。

在初始化方法中,创建了一个Embedding对象、一个PositionalEncoding对象和一个Sequential对象,Sequential对象用于存储多个EncoderBlock对象,即多个编码器块。

这个类的前向传播方法中,输入参数X表示编码器的输入张量,valid_lens表示填充有效长度的张量。首先,使用嵌入层将输入张量X转换为嵌入向量,然后通过位置编码进行位置信息的加入。然后,对每个EncoderBlock对象进行前向传播,得到最终的输出张量,并记录下每个EncoderBlock中多头注意力层的注意力权重。最后,返回得到的输出张量作为TransformerEncoder的输出结果。

TransformerEncoder类的前向传递中,主要包括以下几个步骤:

  1. 使用嵌入层 self.embedding 对输入进行嵌入。
  2. 对嵌入结果进行位置编码,使用 self.pos_encoding,得到位置编码结果 X
  3. 使用nn.Sequential()构造的self.blks序列中的每个EncoderBlock块对X进行处理。具体的操作为:首先通过多头注意力层self.attention得到注意力输出结果Y,然后通过残差连接和层规范化的操作self.addnorm1(X, Y)得到残差块的输出。接着,通过前向神经网络self.ffn得到前向传递网络的输出结果Z,再次通过残差连接和层规范化的操作self.addnorm2(Y, Z),得到本层的最终输出结果。
  4. 对于self.blks中每个块的注意力权重attention_weights,在self.attention_weights列表中存储,以便后续可视化。

TransformerEncoder类中的前向传递操作主要完成的是对输入序列的编码,通过多层的EncoderBlock模块,将输入序列逐层地处理,提取出序列的特征信息。

总之,这个类的作用是实现Transformer编码器,包括嵌入层、位置编码、多个编码器块等多个模块,用于对输入张量进行编码处理并输出结果。该类在深度学习中经常被用作自然语言处理任务中的编码器。

下面我们指定了超参数来创建一个两层的Transformer编码器。 Transformer编码器输出的形状是(批量大小,时间步数目,num_hiddens)。

encoder = TransformerEncoder(
    200, 24, 24, 24, 24, [100, 24], 24, 48, 8, 2, 0.5)
encoder.eval()
encoder(torch.ones((2, 100), dtype=torch.long), valid_lens).shape
torch.Size([2, 100, 24]) # 24为hiddensize,(2, 100)为batchsize和序列长度

信息传递

  • 编码器中的输出 y 1 , … , y n \mathbf{y}_{1}, \ldots, \mathbf{y}_{n} y1,,yn
  • 将其作为解码中第 i i i个Transformer块中多头注意力的key和value,它的query来自目标序列
  • 意味着编码器和解码器中块的个数和输出维度都是一样的

在这里插入图片描述

解码器

在这里插入图片描述

如图所示,Transformer解码器也是由多个相同的层组成。在DecoderBlock类中实现的每个层包含了三个子层:解码器自注意力、“编码器-解码器”注意力和基于位置的前馈网络。这些子层也都被残差连接和紧随的层规范化围绕。

正如在本节前面所述,在掩蔽多头解码器自注意力层(第一个子层)中,查询、键和值都来自上一个解码器层的输出。关于_序列到序列模型_(sequence-to-sequence model),在训练阶段,其输出序列的所有位置(时间步)的词元都是已知的;然而,在预测阶段,其输出序列的词元是逐个生成的。因此,在任何解码器时间步中,只有生成的词元才能用于解码器的自注意力计算中。为了在解码器中保留自回归的属性,其掩蔽自注意力设定了参数dec_valid_lens,以便任何查询都只会与解码器中所有已经生成词元的位置(即直到该查询位置为止)进行注意力计算。

class DecoderBlock(nn.Module):
    """解码器中第i个块"""
    def __init__(self, key_size, query_size, value_size, num_hiddens,
                 norm_shape, ffn_num_input, ffn_num_hiddens, num_heads,
                 dropout, i, **kwargs):
        super(DecoderBlock, self).__init__(**kwargs)
        self.i = i
        self.attention1 = d2l.MultiHeadAttention(
            key_size, query_size, value_size, num_hiddens, num_heads, dropout)
        self.addnorm1 = AddNorm(norm_shape, dropout)
        self.attention2 = d2l.MultiHeadAttention(
            key_size, query_size, value_size, num_hiddens, num_heads, dropout)
        self.addnorm2 = AddNorm(norm_shape, dropout)
        self.ffn = PositionWiseFFN(ffn_num_input, ffn_num_hiddens,
                                   num_hiddens)
        self.addnorm3 = AddNorm(norm_shape, dropout)

    def forward(self, X, state):
        enc_outputs, enc_valid_lens = state[0], state[1]
        # 训练阶段,输出序列的所有词元都在同一时间处理,
        # 因此state[2][self.i]初始化为None。
        # 预测阶段,输出序列是通过词元一个接着一个解码的,
        # 因此state[2][self.i]包含着直到当前时间步第i个块解码的输出表示
        if state[2][self.i] is None:
            key_values = X
        else:
            key_values = torch.cat((state[2][self.i], X), axis=1)
        state[2][self.i] = key_values
        # 训练
        if self.training:
            batch_size, num_steps, _ = X.shape
            # dec_valid_lens的开头:(batch_size,num_steps),
            # 其中每一行是[1,2,...,num_steps]
            dec_valid_lens = torch.arange(
                1, num_steps + 1, device=X.device).repeat(batch_size, 1)
        # 预测
        else:
            dec_valid_lens = None

        # 自注意力
        X2 = self.attention1(X, key_values, key_values, dec_valid_lens)
        Y = self.addnorm1(X, X2)
        # 编码器-解码器注意力。
        # enc_outputs的开头:(batch_size,num_steps,num_hiddens)
        Y2 = self.attention2(Y, enc_outputs, enc_outputs, enc_valid_lens)
        Z = self.addnorm2(Y, Y2)
        return self.addnorm3(Z, self.ffn(Z)), state

这段代码实现了 Transformer 解码器中的一个块。该块由三个子层组成,分别是一个自注意力子层,一个编码器-解码器注意力子层和一个前向传播神经网络(PositionWiseFFN)子层。整个块的输入是解码器中的一条序列,其输出是解码器中的一条序列,每个元素都被映射到固定的维度上。

下面是这个类的详细解释:

  1. __init__(self, key_size, query_size, value_size, num_hiddens, norm_shape, ffn_num_input, ffn_num_hiddens, num_heads, dropout, i, **kwargs):
    • 参数:
      • key_size:每个键(key)向量的大小。
      • query_size:每个查询(query)向量的大小。
      • value_size:每个值(value)向量的大小。
      • num_hiddens:隐藏单元的数量。
      • norm_shape:用于层归一化(layer normalization)的归一化器(normalizer)的形状。
      • ffn_num_input:FFN中的输入向量大小。
      • ffn_num_hiddens:FFN中的隐藏层大小。
      • num_heads:多头注意力的头数。
      • dropout:Dropout概率。
      • i:块的索引。
      • **kwargs:其他参数。
    • 功能:构造函数,初始化各个子层和块的索引。
  2. forward(self, X, state):
    • 参数:
      • X:输入张量,大小为 (batch_size, seq_length, num_hiddens)
      • state:一个包含三个元素的元组,表示解码器中的当前状态。分别是编码器输出、编码器有效长度和解码器状态
    • 返回值:
      • out:输出张量,大小为 (batch_size, seq_length, num_hiddens)
      • state:一个包含三个元素的元组,表示解码器中的当前状态。分别是编码器输出、编码器有效长度和解码器状态。
    • 功能:实现了 Transformer 解码器中一个块的前向传播过程。该过程分为以下步骤:
      • 首先,将输入张量 X 与解码器状态中上一个块的输出张量拼接起来作为这个块的输入。
      • 接下来,对这个输入进行自注意力操作,得到第一次加性归一化处理的输出。
      • 然后,对这个输出进行编码器-解码器注意力操作,得到第二次加性归一化处理的输出。
      • 最后,将这个输出通过前向传播神经网络,得到第三次加性归一化处理的输出。

为了便于在“编码器-解码器”注意力中进行缩放点积计算和残差连接中进行加法计算,编码器和解码器的特征维度都是num_hiddens

decoder_blk = DecoderBlock(24, 24, 24, 24, [100, 24], 24, 48, 8, 0.5, 0)
decoder_blk.eval()
X = torch.ones((2, 100, 24))
state = [encoder_blk(X, valid_lens), valid_lens, [None]]
decoder_blk(X, state)[0].shape
torch.Size([2, 100, 24])

现在我们构建了由num_layersDecoderBlock实例组成的完整的Transformer解码器。最后,通过一个全连接层计算所有vocab_size个可能的输出词元的预测值。解码器的自注意力权重和编码器解码器注意力权重都被存储下来,方便日后可视化的需要。

class TransformerDecoder(d2l.AttentionDecoder):
    def __init__(self, vocab_size, key_size, query_size, value_size,
                 num_hiddens, norm_shape, ffn_num_input, ffn_num_hiddens,
                 num_heads, num_layers, dropout, **kwargs):
        super(TransformerDecoder, self).__init__(**kwargs)
        self.num_hiddens = num_hiddens
        self.num_layers = num_layers
        self.embedding = nn.Embedding(vocab_size, num_hiddens)
        self.pos_encoding = d2l.PositionalEncoding(num_hiddens, dropout)
        self.blks = nn.Sequential()
        for i in range(num_layers):
            self.blks.add_module("block"+str(i),
                DecoderBlock(key_size, query_size, value_size, num_hiddens,
                             norm_shape, ffn_num_input, ffn_num_hiddens,
                             num_heads, dropout, i))
        self.dense = nn.Linear(num_hiddens, vocab_size) # 全连接层输出

    def init_state(self, enc_outputs, enc_valid_lens, *args):
        return [enc_outputs, enc_valid_lens, [None] * self.num_layers]

    def forward(self, X, state):
        X = self.pos_encoding(self.embedding(X) * math.sqrt(self.num_hiddens))
        self._attention_weights = [[None] * len(self.blks) for _ in range (2)]
        for i, blk in enumerate(self.blks):
            X, state = blk(X, state)
            # 解码器自注意力权重
            self._attention_weights[0][
                i] = blk.attention1.attention.attention_weights
            # “编码器-解码器”自注意力权重
            self._attention_weights[1][
                i] = blk.attention2.attention.attention_weights
        return self.dense(X), state

    @property
    def attention_weights(self):
        return self._attention_weights

这段代码实现了一个Transformer的解码器,继承了AttentionDecoder类,重载了init_stateforward方法,并且增加了blksdense属性。

__init__方法中,初始化了一些参数,包括:

  • vocab_size:词表大小。
  • key_sizequery_sizevalue_size:多头注意力中,键(key)、查询(query)和值(value)的向量长度。
  • num_hiddens:编码器和解码器中隐藏层的向量长度。
  • norm_shape:层归一化(layer normalization)层的 shape。
  • ffn_num_inputffn_num_hiddens:前馈神经网络(feed-forward neural network)中输入和隐藏层向量长度。
  • num_heads:多头注意力中头的数量。
  • num_layers:解码器中的层数。
  • dropout:dropout 概率。

然后在__init__方法中,初始化了一些类成员变量:

  • num_hiddens:编码器和解码器中隐藏层的向量长度。
  • num_layers:解码器中的层数。
  • embedding:词嵌入层,将词转换成词向量。
  • pos_encoding:位置编码层,将位置信息编码到词向量中。
  • blks:一个nn.Sequential实例,用来存储解码器的所有层。其中,第i个层是一个DecoderBlock实例。
  • dense:最后的全连接层,将解码器的输出映射为词表大小的向量。

init_state方法是一个简单的初始化状态的方法,包括:

  • enc_outputs:编码器的输出。
  • enc_valid_lens:编码器输出的有效长度。
  • *args:忽略,没有用到。

forward方法是这个解码器的核心方法,主要包括以下几个步骤:

  1. 对输入的序列X进行词嵌入,得到一个三维张量,shape 为(batch_size, seq_len, num_hiddens)
  2. 将输入序列的词向量乘以一个数sqrt(num_hiddens),并加上位置编码层的输出,得到一个新的张量X,shape 为(batch_size, seq_len, num_hiddens)
  3. 遍历blks中的所有层(DecoderBlock),对每一层进行前向计算。
  4. 最后一个DecoderBlock的输出再经过一个全连接层,将其映射为词表大小的向量。

对于每一层的前向计算,该代码中使用了一个for循环来依次处理每个DecoderBlock。在循环中,对于每个DecoderBlock,首先将输入的张量和当前层的状态传入该层的forward方法中,得到新的输出张量和更新后的状态。然后记录该层的注意力权重,这里包括了两种注意力权重:

  • 解码器自注意力权重:这个权重记录的是当前DecoderBlock进行自注意力计算时所产生的注意力权重。
  • 编码器-解码器注意力权重:这个权重记录的是当前DecoderBlock进行编码器-解码器注意力计算时所产生的注意力权重。

这里的注意力权重用一个二维列表self._attention_weights来存储,该列表的第一维是表示注意力计算的类型(0表示解码器自注意力,1表示编码器-解码器注意力),第二维是表示层数。在每个DecoderBlock中,当进行完自注意力和编码器-解码器注意力计算后,就将计算所得的注意力权重记录在相应的位置上。

最后,整个TransformerDecoder的前向计算结束后,就可以通过调用attention_weights属性来获得所有层的注意力权重。

训练

依照Transformer架构来实例化编码器-解码器模型。在这里,指定Transformer的编码器和解码器都是2层,都使用4头注意力。为了进行序列到序列的学习,下面在“英语-法语”机器翻译数据集上训练Transformer模型。

num_hiddens, num_layers, dropout, batch_size, num_steps = 32, 2, 0.1, 64, 10
lr, num_epochs, device = 0.005, 200, d2l.try_gpu()
ffn_num_input, ffn_num_hiddens, num_heads = 32, 64, 4
key_size, query_size, value_size = 32, 32, 32
norm_shape = [32]

train_iter, src_vocab, tgt_vocab = d2l.load_data_nmt(batch_size, num_steps)

encoder = TransformerEncoder(
    len(src_vocab), key_size, query_size, value_size, num_hiddens,
    norm_shape, ffn_num_input, ffn_num_hiddens, num_heads,
    num_layers, dropout)
decoder = TransformerDecoder(
    len(tgt_vocab), key_size, query_size, value_size, num_hiddens,
    norm_shape, ffn_num_input, ffn_num_hiddens, num_heads,
    num_layers, dropout)
net = d2l.EncoderDecoder(encoder, decoder)
d2l.train_seq2seq(net, train_iter, lr, num_epochs, tgt_vocab, device)

这段代码使用Transformer架构在机器翻译任务上训练了一个序列到序列(seq2seq)模型。具体来说,它将训练模型将一种源语言(在本例中为英语)的句子翻译成另一种目标语言(在本例中为法语)。

以下是代码的详细解释:

前几行定义了几个超参数,包括隐藏层的大小、Transformer编码器和解码器中的层数、dropout率以及输入序列的批大小和时间步数。

然后,代码使用d2l模块的load_data_nmt函数加载训练数据,该函数返回一个迭代器,产生输入/输出对的批次。它还返回两个字典,src_vocab和tgt_vocab,将单词映射到唯一的整数ID。

接下来的几行使用d2l模块的TransformerEncoder和TransformerDecoder类创建Transformer模型的编码器和解码器组件。这些类采用多种参数,指定各种层的大小、多头注意机制中的头数等。

然后使用d2l模块的EncoderDecoder类将编码器和解码器组合成单个模型。这个类负责将编码器的输出馈送到解码器中,并提供了训练和推理的方法。

最后,使用d2l模块的train_seq2seq函数训练模型。此函数接受模型、训练数据迭代器、学习率、epoch数量和设备(CPU或GPU)作为参数。它使用训练数据的小批量执行模型参数的梯度下降,并在每个epoch后打印损失和困惑度。

loss 0.032, 5679.3 tokens/sec on cuda:0

在这里插入图片描述

训练结束后,使用Transformer模型将一些英语句子翻译成法语,并且计算它们的BLEU分数。

engs = ['go .', "i lost .", 'he\'s calm .', 'i\'m home .']
fras = ['va !', 'j\'ai perdu .', 'il est calme .', 'je suis chez moi .']
for eng, fra in zip(engs, fras):
    translation, dec_attention_weight_seq = d2l.predict_seq2seq(
        net, eng, src_vocab, tgt_vocab, num_steps, device, True)
    print(f'{eng} => {translation}, ',
          f'bleu {d2l.bleu(translation, fra, k=2):.3f}')
go . => va !,  bleu 1.000
i lost . => j'ai perdu .,  bleu 1.000
he's calm . => il est calme .,  bleu 1.000
i'm home . => je suis chez moi .,  bleu 1.000

当进行最后一个英语到法语的句子翻译工作时,让我们可视化Transformer的注意力权重。编码器自注意力权重的形状为(编码器层数,注意力头数,num_steps或查询的数目,num_steps或“键-值”对的数目)。

enc_attention_weights = torch.cat(net.encoder.attention_weights, 0).reshape((num_layers, num_heads,
    -1, num_steps))
enc_attention_weights.shape
torch.Size([2, 4, 10, 10])

在编码器的自注意力中,查询和键都来自相同的输入序列。因为填充词元是不携带信息的,因此通过指定输入序列的有效长度可以避免查询与使用填充词元的位置计算注意力。接下来,将逐行呈现两层多头注意力的权重。每个注意力头都根据查询、键和值的不同的表示子空间来表示不同的注意力。

d2l.show_heatmaps(
    enc_attention_weights.cpu(), xlabel='Key positions',
    ylabel='Query positions', titles=['Head %d' % i for i in range(1, 5)],
    figsize=(7, 3.5))

在这里插入图片描述

为了可视化解码器的自注意力权重和“编码器-解码器”的注意力权重,我们需要完成更多的数据操作工作。例如用零填充被掩蔽住的注意力权重。值得注意的是,解码器的自注意力权重和“编码器-解码器”的注意力权重都有相同的查询:即以序列开始词元(beginning-of-sequence,BOS)打头,再与后续输出的词元共同组成序列。

dec_attention_weights_2d = [head[0].tolist()
                            for step in dec_attention_weight_seq
                            for attn in step for blk in attn for head in blk]
dec_attention_weights_filled = torch.tensor(
    pd.DataFrame(dec_attention_weights_2d).fillna(0.0).values)
dec_attention_weights = dec_attention_weights_filled.reshape((-1, 2, num_layers, num_heads, num_steps))
dec_self_attention_weights, dec_inter_attention_weights = \
    dec_attention_weights.permute(1, 2, 3, 0, 4)
dec_self_attention_weights.shape, dec_inter_attention_weights.shape
(torch.Size([2, 4, 6, 10]), torch.Size([2, 4, 6, 10]))

由于解码器自注意力的自回归属性,查询不会对当前位置之后的“键-值”对进行注意力计算。

# Plusonetoincludethebeginning-of-sequencetoken
d2l.show_heatmaps(
    dec_self_attention_weights[:, :, :, :len(translation.split()) + 1],
    xlabel='Key positions', ylabel='Query positions',
    titles=['Head %d' % i for i in range(1, 5)], figsize=(7, 3.5))

在这里插入图片描述

与编码器的自注意力的情况类似,通过指定输入序列的有效长度,输出序列的查询不会与输入序列中填充位置的词元进行注意力计算。

d2l.show_heatmaps(
    dec_inter_attention_weights, xlabel='Key positions',
    ylabel='Query positions', titles=['Head %d' % i for i in range(1, 5)],
    figsize=(7, 3.5))

在这里插入图片描述

尽管Transformer架构是为了序列到序列的学习而提出的,但正如本书后面将提及的那样,Transformer编码器或Transformer解码器通常被单独用于不同的深度学习任务中。

预测

  • 预测第t+1个输出时
  • 解码器中输入前t个预测值
  • 在自注意力中,前t个预测值作为key和value,第t个预测值还作为query

在这里插入图片描述

总结

  • Transformer是编码器-解码器架构的一个实践,尽管在实际情况中编码器或解码器可以单独使用。
  • 在Transformer中,多头自注意力用于表示输入序列和输出序列,不过解码器必须通过掩蔽机制来保留自回归属性。
  • Transformer中的残差连接和层规范化是训练非常深度模型的重要工具。
  • Transformer模型中基于位置的前馈网络使用同一个多层感知机,作用是对所有序列位置的表示进行转换。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/358746.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

家政服务小程序实战开发教程015-填充用户信息

我们上一篇讲解了立即预约功能&#xff0c;存在的问题是&#xff0c;每次都需要用户填写联系信息。在我们前述篇章中已经介绍了用户注册的功能&#xff0c;在立即预约的时候我们需要把已经填写的用户信息提取出来&#xff0c;显示到表单对应的字段中。本篇我们就讲解一下如何提…

K8S+Jenkins+Harbor+Docker+gitlab集群部署

K8SJenkinsHarborDockergitlab服务器集群部署 目录K8SJenkinsHarborDockergitlab服务器集群部署1.准备以下服务器2.所有服务器统一处理执行2.1 关闭防火墙2.2 关闭selinux2.3 关闭swap&#xff08;k8s禁止虚拟内存以提高性能&#xff09;2.4 更新yum (看需要更新)2.5 时间同步2…

【自监督论文阅读笔记】MVP: Multimodality-guided Visual Pre-training

Abstract 最近&#xff0c;掩码图像建模&#xff08;MIM&#xff09;已成为视觉预训练的一个有前途的方向。在vision transformers的上下文中&#xff0c;MIM 通过将 token-level 标记级特征 与 预定义空间 对齐来学习有效的视觉表示&#xff08;例如&#xff0c;BEIT 使用在大…

03- 通过OpenCV进行图像变换 (OpenCV基础) (机器视觉)

知识重点 resize(src, dsize[, dst[, fx[, fy[, interpolation]]]]) 图像的放大与缩小, 变形 flip(src, flipCode) 图像的翻转 rotate(img, rotateCode) 图像的旋转 warpAffine(src, M, dsize, flags, mode, value) 仿射变换是图像旋转, 缩放, 平移的总称.具体的做法是通…

第四次作业

学生表&#xff1a;Student (Sno, Sname, Ssex , Sage, Sdept)学号&#xff0c;姓名&#xff0c;性别&#xff0c;年龄&#xff0c;所在系 Sno为主键课程表&#xff1a;Course (Cno, Cname)课程号&#xff0c;课程名 Cno为主键学生选课表&#xff1a;SC (Sno, Cno, Score)学号&…

九龙证券|豪掷超6000万,10转3派6元,今年第二只高送转股出炉!

新瀚新材高送转发布计划&#xff0c;股价年初以来大涨超50%。航运板块6股自2022年低点股价翻倍。 2月17日晚间&#xff0c;凯瑞德、新瀚新材2家公司发布了2022年年报&#xff1b;一起&#xff0c;新瀚新材高送转计划同步出炉。 报告显现&#xff0c;2022年度新瀚新材营业总收入…

软件测试简单面试

文章目录软件程序数据(库)文档服务 程序&#xff1a;完成预定功能、性能的可执行的指令操作信息的数据结构描述程序的操作和使用的文档 软件测试&#xff1a;使用技术手段来验证软件是否满足需求 软件质量&#xff1a; 满足软件需求&#xff0c;软件需求是度量软件质量的基础不…

尚医通 (十九)用户认证

目录一、对象存储OSS1、开通“对象存储OSS”服务2、创建Bucket3、上传默认头像4、创建RAM用户5、使用SDK二、后端集成OSS1、新建云存储微服务2、实现文件上传接口三、用户认证功能1、用户认证需求分析2、开发用户认证接口3、用户认证前端一、对象存储OSS 用户认证需要上传证件…

django项目实战二(django+bootstrap实现增删改查)进阶查询

目录 一、用例管理模块实现 1、创建表和数据 2、创建用例列表 1&#xff09;注册url&#xff08;用例列表&#xff09; 2)修改views.py新增case_list方法 3&#xff09;layout.html导航条新增一个用例管理 4&#xff09;新增case_list.html页面 3、新增用例页面开发 1&…

2023年TS4 入门笔记【慕课网imooc】【Vue3+React18 + TS4考勤系统】

目录 安装ts 基础 类型声明和变量声明 类型注解和类型判断 类型分类与联合类型与交叉类型​编辑 never类型与any类型与unknown类型 类型断言与非空断言 数组类型和元祖类型 对象类型与索引签名 函数类型与void类型 函数重载与可调用注解 枚举类型与const枚举 进阶…

机械革命黑苹果改造计划第四番-外接显示器、win时间不正确问题解决

问题 1.无法外接显示器 最大的问题就是目前无法外接显示器&#xff0c;因为机械革命大多数型号笔记本电脑的HDMI、DP接口都是直接物理接在独显上的&#xff0c;内屏用核显外接显示器接独显&#xff0c;英伟达独显也是黑苹果无法驱动的&#xff0c;而且发现机械革命tpyec接口还…

k8s的基础概念

目录 一、k8s概念 1、k8s是什么 2、为什么要用k8s 3、k8s的特性 二、kubernetes集群架构与组件 1、Master组件 1.1、Kube-apiserver 1.2、Kube-controller-manager 1.3、Kube-scheduler 2、配置储存中心 3、Node组件 3.1、Kubelet 3.2、Kube-Proxy 3.3、docker 或…

SAP S/4 HANA 现金流量表

S4 HANA中的现金流量表 引言&#xff1a;在传统SAP ECC中我们实现现金流量表的方式通常是定义一系列和现金流变动相关的原因代码&#xff08;Reason Code&#xff09;&#xff0c;然后在过账凭证里指定对应的Code&#xff0c;最后通过ABAP代码抓取这些数据产生现金流量表。此方…

力扣(LeetCode)417. 太平洋大西洋水流问题(2023.02.19)

有一个 m n 的矩形岛屿&#xff0c;与 太平洋 和 大西洋 相邻。 “太平洋” 处于大陆的左边界和上边界&#xff0c;而 “大西洋” 处于大陆的右边界和下边界。 这个岛被分割成一个由若干方形单元格组成的网格。给定一个 m x n 的整数矩阵 heights &#xff0c; heights[r][c]…

【pm2】pm2的安装与基本命令:

文章目录一、安装&#xff1a;二、基本命令&#xff1a;【1】启动命令&#xff1a;pm2 start app.js【2】命令行参数&#xff1a;pm2 start app.js --watch -i max【3】 查看有哪些进程&#xff1a;pm2 list【4】停止命令&#xff1a; pm2 stop app_name | app_id &#xff08;…

el-table 复杂表头行内增删改代码示例

效果如图 <template><div class"app-container"><el-card class"box-card item"><div slot"header" class"clearfix" click"showCondition !showCondition"><span><i class"el-ic…

外籍在读博士|赴新西兰奥克兰大学双院士导师麾下联合培养

N同学来自阿拉伯国家&#xff0c;但本硕博都是在我国某省属高校就读&#xff0c;现为材料学专业一年级博士生。联合培养首选澳洲国家&#xff0c;包括澳大利亚和新西兰&#xff0c;其次是美国&#xff0c;希望在2023年初出国&#xff0c;以完成整个学年的学习计划。在我们的帮助…

Android稳定性系列-01-使用 Address Sanitizer检测原生代码中的内存错误

前言想必大家曾经被各种Native Crash折磨过&#xff0c;本地测试没啥问题&#xff0c;一到线上或者自动化测试就出现各种SIGSEGV、SIGABRT、SIGILL、SIGBUS、SIGFPE异常&#xff0c;而且堆栈还是崩溃到libc.so这种&#xff0c;看起来跟我们的代码没啥关系&#xff0c;关键还不好…

Spark3每个job之间任务间隔过长

公司的跑批引擎从impala改成Spark3已经有一个多月了。 不得不说&#xff0c;跑批稳定了好多。资源控制有相对稳定了很多。Spark3比CDH的hive on spark2.4.0要快不少。AQE和CBO真的挺强的。但是使用中发现了一个很奇怪的事情。这个问题在网上搜过&#xff0c;并没有实际解决。 当…

【机器学习】决策树-ID3算法

1.ID3算法 ID3算法利用信息增益进行特征的选择进行树的构建。信息熵的取值范围为0~1&#xff0c;值越大&#xff0c;越不纯&#xff0c;相反值越小&#xff0c;代表集合纯度越高。信息增益反映的是给定条件后不确定性减少的程度。每一次对决策树进行分叉选取属性的时候&#x…