第二章(2):从零开始掌握PyTorch基础知识,打造NLP学习利器

news2024/9/29 5:37:51

第二章(2):从零开始掌握PyTorch基础知识,打造NLP学习利器!

在这里插入图片描述


目录

  • 第二章(2):从零开始掌握PyTorch基础知识,打造NLP学习利器!
  • 1. Pytorch基础
    • 1.1 Pytorch安装
      • 1.1.1 Linux和Windows
      • 1.1.2 ROCm和CUDA
    • 1.2 创建张量
        • 1.2.1 直接创建
      • 1.2.2 通过数值创建
        • (1)全零张量和全一张量
        • (2)依据指定值创建
        • (3)随机张量
        • (4)等差序列的创建
        • (5) 单位矩阵的创建
      • 1.2.3 利用已有的张量创建新的张量
        • (1) `torch.zeros_like()`和`torch.ones_like()`函数
        • (2) `torch.cat()`函数
    • 1.3 张量的类型与形状
      • 1.3.1 张量类型
          • (1 )浮点型数据类型
          • 1. torch.float32 或 torch.FloatTensor
          • 2. torch.float64 或 torch.DoubleTensor
        • (2)整数型数据类型
          • 1. torch.int32 或 torch.IntTensor
          • 2. torch.int64 或 torch.LongTensor
        • (3)布尔型数据类型
          • 1. torch.bool 或 torch.BoolTensor
      • 1.3.2 张量形状
        • (1)改变形状
          • 1. view() 函数
          • 2. reshape() 函数
        • (2)增加维度
          • 1. unsqueeze() 函数
        • (3)删除维度
          • 1. squeeze() 函数
    • 1.4 张量操作
      • 1.4.1 数学运算
        • (1)加法、减法、乘法、除法
        • (2)矩阵乘法
      • 1.4.2 逻辑运算
        • (1)大小比较、相等比较
    • 1.5 索引、切片和连接
      • 1.5.1 索引
      • 1.5.2 切片
      • 1.5.3 连接
        • (1)`cat()`函数
        • (2)`stack()`函数
    • 1.6 张量与计算图
  • 1.6 总结

1. Pytorch基础

PyTorch是一个基于Python的科学计算库,也是目前深度学习领域中最流行的深度学习框架之一。PyTorch的核心理念是张量计算,即将数据表示为张量,在计算时使用自动微分机制优化模型。在使用PyTorch进行深度学习时,了解张量的基础操作、类型、大小等知识是非常重要的。

本文将介绍如何在PyTorch的安装、创建张量、了解张量的类型与大小、进行张量操作、索引、切片和连接、以及使用CUDA张量进行计算加速。

1.1 Pytorch安装

PyTorch支持Windows、Linux和MacOS等操作系统。

1.1.1 Linux和Windows

在Linux和Windows中,可以通过pip命令安装PyTorch和对应的torchvision和torchaudio包。如下所示:

pip install torch==1.10.0 torchvision==0.11.0 torchaudio==0.10.0

需要注意的是,这里的命令只能安装CPU版本的PyTorch。如果需要安装GPU版本的PyTorch,需要前往官网寻找对应版本的CUDA或ROCm支持。

1.1.2 ROCm和CUDA

在使用ROCm或CUDA时,需要单独指定版本号。以CUDA 10.2为例,可以使用以下命令来安装GPU版本的PyTorch:

pip install torch==1.10.0+cu102 torchvision==0.11.0+cu102 torchaudio==0.10.0 -f https://download.pytorch.org/whl/torch_stable.html

需要注意的是,+cu102表示使用CUDA 10.2,而+f对应的URL是从PyTorch官方网站下载PyTorch库和对应版本的依赖项。

更多安装命令,请参考:Previous PyTorch Versions | PyTorch

1.2 创建张量

1.2.1 直接创建

直接创建是最基本的创建张量的方法,我们可以使用torch.tensor()函数来直接创建一个张量。该函数会根据输入的数据类型自动推断所创建的张量的数据类型,大小和形状等属性。例如,我们可以用以下代码创建一个大小为(2, 3)的浮点型张量:

import torch  
  
x = torch.tensor([[1, 2, 3], [4, 5, 6]], dtype=torch.float32)  
print(x)

实验结果:

tensor([[1., 2., 3.],
        [4., 5., 6.]])

上述代码创建了一个大小为(2, 3)的张量,并赋值给变量x。张量的内容是由列表表示的,也就是[[1,2,3],[4,5,6]]。张量中的元素类型为浮点型,这是由可选参数dtype指定的,若不指定,则为默认的参数类型。

除了torch.tensor()函数,我们还可以使用torch.from_numpy()函数来创建张量。这个函数会把一个NumPy数组转换为PyTorch中的张量。这里需要注意的是,该函数创建的张量和原始NumPy数组共享底层的存储空间,也就是说,如果我们修改了张量中的某个元素,原始的NumPy数组也会受到影响。以下代码是一个例子:

import numpy as np  
import torch  
  
x = np.array([[1, 2, 3], [4, 5, 6]])  #定义的numpy类型  
y = torch.from_numpy(x)  
print(y)  
  
y[0][2] = -1  
print(x)

实验结果:

tensor([[1, 2, 3],
        [4, 5, 6]])
[[ 1  2 -1]
 [ 4  5  6]]

上述代码中,我们创建了一个NumPy数组x,接着使用torch.from_numpy()函数将其转换为张量y。然后我们修改了张量y中的第一个元素的第三个分量,并且打印了原始的NumPy数组x。可以看到,由于yx共享底层的存储空间,所以在修改了y之后,x也被修改了。

1.2.2 通过数值创建

除了直接创建以外,我们还可以使用一些预定义的函数来生成特定的张量,例如全零张量,全一张量,以及随机张量等。

(1)全零张量和全一张量

使用torch.zeros()函数和torch.ones()函数可以分别创建全零张量和全一张量。示例代码如下:

import torch  
  
x = torch.zeros((2, 3), dtype=torch.float32)  
y = torch.ones((2, 3), dtype=torch.float32)  
  
print(x)  
print(y)

实验结果:

tensor([[0., 0., 0.],
        [0., 0., 0.]])
tensor([[1., 1., 1.],
        [1., 1., 1.]])

上述代码中分别使用torch.zeros((2, 3))函数和torch.ones((2, 3))函数创建了维度相同的两个张量。同时,也指定了所创建张量的元素类型为浮点型dtype=torch.float32

tips:在实际应用中,全零张量和全一张量经常用于初始化神经网络中的权重和偏置等参数。

(2)依据指定值创建

创建相同数值的指定值张量,采用的函数为torch.full(),示例如下:

import torch  
  
x = torch.full((2, 3), 8)  
print(x)

实验结果:

tensor([[8., 8., 8.],
        [8., 8., 8.]])

我们使用torch.full((2, 3), 8)函数创建了一个大小为(2, 3)的张量,并将其中的所有元素设置为7

(3)随机张量

对于深度学习中的模型来说,随机张量是非常重要的。在PyTorch中,我们可以使用torch.randn()torch.rand()等函数来生成正态分布和均匀分布的随机张量。示例如下:

import torch  
  
x = torch.randn((2, 3))  
y = torch.rand((3, 4))  
  
print(x)  
print(y)

实验结果:

tensor([[-1.2964,  0.8592, -0.5766],
        [ 0.9974, -0.7744, -0.6711]])
tensor([[0.6243, 0.9297, 0.7626, 0.4891],
        [0.4266, 0.7566, 0.3390, 0.5008],
        [0.5415, 0.9943, 0.0577, 0.4002]])

上述代码中,我们使用了torch.randn((2, 3))torch.rand((3, 4))函数来分别创建大小为(2, 3)(3, 4)的张量。其中,torch.randn()函数生成元素值服从标准正态分布的张量,而torch.rand()函数生成元素值在区间[0,1)之间均匀分布的张量。

(4)等差序列的创建

torch.arange()函数和torch.linspace()函数可以创建等差序列。其中,torch.arange()函数的步长是自定义的,而torch.linspace()函数则是在给定的范围内均匀地分布元素。示例如下:

import torch  
  
x = torch.arange(0, 10, 2)  
y = torch.linspace(0, 1, 5)  
  
print(x)  
print(y)

实验结果:

tensor([0, 2, 4, 6, 8])
tensor([0.0000, 0.2500, 0.5000, 0.7500, 1.0000])

在上述代码中,我们通过调用torch.arange(0, 10, 2)函数来创建步长为2,范围在[0,10)内的等差序列。同时,我们还使用了torch.linspace(0, 1, 5)函数来生成在区间[0, 1]内五个等距的数值。

(5) 单位矩阵的创建

torch.eye(n)可以创建大小为(n, n)的单位矩阵,该矩阵的对角线上的元素都是1。示例如下:

import torch

x = torch.eye(3)

print(x)

实验结果:

tensor([[1., 0., 0.],
        [0., 1., 0.],
        [0., 0., 1.]])

在上述代码中,我们创建了大小为(3, 3)的单位矩阵,并赋值给变量x

1.2.3 利用已有的张量创建新的张量

在PyTorch中,我们还可以利用已有的张量创建新的张量。下面介绍一下常用的这类函数。

(1) torch.zeros_like()torch.ones_like()函数

torch.zeros_like()torch.ones_like()函数是用处创建与某个张量大小相同的全0或者1的张量,示例如下:

import torch  
  
x = torch.tensor([[1, 2, 3], [4, 5, 6]])  
y = torch.zeros_like(x)  
z = torch.ones_like(x)  
  
print(x)  
print(y)  
print(z)

实验结果:

tensor([[1, 2, 3],
        [4, 5, 6]])
tensor([[0, 0, 0],
        [0, 0, 0]])
tensor([[1, 1, 1],
        [1, 1, 1]])

在上述代码中,我们首先创建一个大小为(2, 3)的张量x,然后使用torch.zeros_like(x)torch.ones_like(x)函数分别创建了与x大小相同的全0张量y和全1张量z

(2) torch.cat()函数

torch.cat()函数可以沿着指定的维度将多个张量拼接成一个新的张量。例如,我们可以将两个大小相同的张量按行(维度0)拼接起来。示例代码如下:

import torch  
  
x = torch.tensor([[1, 2, 3], [4, 5, 6]])  
y = torch.tensor([[7, 8, 9], [10, 11, 12]])  
z = torch.cat([x, y], dim=0)  
p = torch.cat([x, y], dim=1)  
  
  
print(x)  
print(y)  
print(z)  
print(p)

实验结果:

tensor([[1, 2, 3],
        [4, 5, 6]])
tensor([[ 7,  8,  9],
        [10, 11, 12]])
tensor([[ 1,  2,  3],
        [ 4,  5,  6],
        [ 7,  8,  9],
        [10, 11, 12]])
tensor([[ 1,  2,  3,  7,  8,  9],
        [ 4,  5,  6, 10, 11, 12]])

这段代码创建了两个包含有相同维度的张量 xy,分别表示 2 行 3 列的矩阵。然后,使用 torch.cat() 函数将两个张量按照指定的维度进行拼接,生成了一个新的张量 zp。其中 dim=0 表示按照第一维(行)进行拼接,而 dim=1 表示按照第二维(列)进行拼接。最后,打印了四个张量的值。可以看到,xy 没有变化,而 zp 分别包含了 xy 的所有元素。其中 z 为拼接后的形状为 4 行 3 列的矩阵,而 p 为拼接后的形状为 2 行 6 列的矩阵。

1.3 张量的类型与形状

1.3.1 张量类型

在 PyTorch 中,张量有多种数据类型,包括浮点型、整数型、布尔型等等。其中浮点型数据类型比较常用,下面将介绍常见的数据类型。

(1 )浮点型数据类型
1. torch.float32 或 torch.FloatTensor

该类型的张量是默认的浮点型,即 32 位浮点型。可以通过以下方式创建:

x = torch.tensor([1, 2, 3], dtype=torch.float32)  
y = torch.FloatTensor([1, 2, 3])  
2. torch.float64 或 torch.DoubleTensor

该类型的张量是 64 位浮点型,可用于精度要求较高的场合。可以通过以下方式创建:

x = torch.tensor([1, 2, 3], dtype=torch.float32)  
y = torch.FloatTensor([1, 2, 3])  

(2)整数型数据类型

1. torch.int32 或 torch.IntTensor

该类型的张量是默认的整数型,即 32 位整数型。可以通过以下方式创建:

x = torch.tensor([1, 2, 3], dtype=torch.int32)  
y = torch.IntTensor([1, 2, 3])
2. torch.int64 或 torch.LongTensor

该类型的张量是 64 位整数型,可用于精度要求较高的场合。可以通过以下方式创建:

x = torch.tensor([1, 2, 3], dtype=torch.int64)  
y = torch.LongTensor([1, 2, 3])

(3)布尔型数据类型

1. torch.bool 或 torch.BoolTensor

该类型的张量包含了两个值 True 和 False,通常用于逻辑运算。可以通过以下方式创建:

x = torch.tensor([True, False, True], dtype=torch.bool)  
y = torch.BoolTensor([True, False, True])

1.3.2 张量形状

在 PyTorch 中,张量的形状可以是任意维度的多维数组。下面介绍常见的形状操作。

(1)改变形状

1. view() 函数

该函数用于改变张量的形状,但不会改变张量中的元素个数。例如,将一个形状为 (2, 3) 的张量变成形状为 (3, 2) 的张量:

x = torch.tensor([[1, 2, 3], [4, 5, 6]])  
y = x.view(3, 2)  
print(x)  
print(y)

实验结果:

tensor([[1, 2, 3],
        [4, 5, 6]])
tensor([[1, 2],
        [3, 4],
        [5, 6]])
2. reshape() 函数

该函数与 view() 函数类似,同样用于改变张量的形状。不同的是,reshape() 函数返回一个新的张量对象,而不是原地修改原始张量。例如,将一个形状为 (2, 3) 的张量变成形状为 (3, 2) 的张量:

x = torch.tensor([[1, 2, 3], [4, 5, 6]])  
y = x.reshape(3, 2)  
  
print(x)  
print(y)

实验结果:

tensor([[1, 2, 3],
        [4, 5, 6]])
tensor([[1, 2],
        [3, 4],
        [5, 6]])

(2)增加维度

1. unsqueeze() 函数

该函数用于在张量的指定位置增加一个维度。例如,将一个形状为 (2, 3) 的张量在第一维处增加一个维度:

x = torch.tensor([[1, 2, 3], [4, 5, 6]])  
y = x.unsqueeze(0)  
  
print(x)  
print(y)

实验结果:

tensor([[1, 2, 3],
        [4, 5, 6]])
tensor([[[1, 2, 3],
         [4, 5, 6]]])

(3)删除维度

1. squeeze() 函数

该函数用于删除张量中形状为 1 的维度。例如,将一个形状为 (1, 2, 1, 3) 的张量删除所有形状为 1 的维度:

x = torch.tensor([[[[1, 2, 3]]]])  
y = x.squeeze()  
  
print(x)  
print(y)

这代码使用 PyTorch 创建了一个四维张量 x,形状为 (1, 1, 1, 3),即一个只有一个元素的四维数组,该元素是一个三元素列表 [1, 2, 3]。然后使用 squeeze() 函数删除了所有形状为 1 的维度,所以返回的张量 y 形状为 (3,),是一个一维张量,包含了原来 x 中的三个数值。

1.4 张量操作

在 PyTorch 中,张量可以进行各种数学运算、逻辑运算等等。下面介绍常见的操作。

1.4.1 数学运算

(1)加法、减法、乘法、除法

使用加法、减法、乘法、除法等符号进行数学运算。例如:

x = torch.tensor([1, 2, 3])  
y = torch.tensor([4, 5, 6])  
  
z = x + y  
q = x - y  
t = x * y  
p = x / y  
  
print(z)  
print(q)  
print(t)  
print(p)

实验结果:

tensor([5, 7, 9])
tensor([-3, -3, -3])
tensor([ 4, 10, 18])
tensor([0, 0, 0])

(2)矩阵乘法

使用矩阵乘法运算。例如:

x = torch.tensor([[1, 2], [3, 4]])  
y = torch.tensor([[5, 6], [7, 8]])  
z = torch.matmul(x, y)  
  
print(y)

实验结果:

tensor([[19, 22],
        [43, 50])

1.4.2 逻辑运算

(1)大小比较、相等比较

使用大小比较、相等比较等符号进行逻辑运算。例如:

x = torch.tensor([1, 2, 3])  
y = torch.tensor([2, 2, 2])  
z = torch.tensor([1, 2, 3])  
  
m = x > y  
n = x == z  
print(m)  
print(n)

实验结果:

tensor([0, 0, 1], dtype=torch.uint8)
tensor([1, 1, 1], dtype=torch.uint8)

这段代码使用 PyTorch 创建了三个一维张量 x、y 和 z,分别包含数字 1, 2, 3,2, 2, 2 和 1, 2, 3。然后使用逻辑运算符 > 和 == 进行大小比较和相等比较,将结果分别赋值给 m 和 n。m 和 n 都是一维张量,包含了每个数字对应的大小比较结果和相等比较结果。最后通过 print() 函数输出 m 和 n 的值,以便在控制台上观察运算结果。

1.5 索引、切片和连接

本小节将介绍PyTorch中关于张量的三个重要操作:索引、切片和连接。在深度学习中,这些操作经常用于对数据进行预处理、选择感兴趣的部分或者组合不同的数据集。

1.5.1 索引

在PyTorch中,我们可以使用索引来访问张量的某个特定元素。为了说明索引的使用方法,我们首先创建一个二维张量:

x = torch.tensor([[1, 2, 3], [4, 5, 6], [7, 8, 9]])  
  
print(x)

实验结果:

tensor([[1, 2, 3],
        [4, 5, 6],
        [7, 8, 9]])

接下来,我们可以使用方括号[]来进行索引。索引的语法很简单,可以直接使用整数来访问张量的某行某列元素。例如,要访问第一行第二列的元素,我们可以写成:

print(x[0][1])

实验结果:

tensor(2)

我们也可以使用逗号,同时传递两个整数来访问某个特定位置的元素。例如,要访问第二行第三列的元素,我们可以写成:

print(x[1, 2])

实验结果:

tensor(6)

另外,我们可以使用负数来从张量的末尾开始进行索引。例如,要访问最后一行的第一个和第三个元素,我们可以写成:

print(x[-1, 0])  
print(x[-1, -1])

实验结果:

tensor(7)
tensor(9)

1.5.2 切片

除了对单个元素进行索引,我们还可以使用切片来访问张量的一部分。切片是指提取张量的子集,例如,我们可以从张量的第二行开始提取两行数据。

切片使用[start:stop:step]的形式表示,其中start表示起始索引(包含),stop表示终止索引(不包含),step表示步长(默认为1)。

首先,我们可以使用冒号来提取整个行或列。例如,要提取第二行的所有元素,我们可以写成:

print(x[1, :])

实验结果:

tensor([4, 5, 6])

此外,我们还可以使用切片来选择给定范围内的元素,例如,要提取第二行和第三行的所有元素,可以写成:

print(x[1:3, :])

实验结果:

tensor([[4, 5, 6],
        [7, 8, 9]])

我们也可以使用负数来从张量的末尾开始进行切片。例如,要提取后两行的所有元素,可以写成:

print(x[-2:, :])

实验结果:

tensor([[4, 5, 6],
        [7, 8, 9]])

1.5.3 连接

在深度学习中,我们经常需要将数据集合并为一个更大的数据集。PyTorch中提供了多种方法来连接张量,包括cat()stack()

(1)cat()函数

我们可以使用cat()函数按照指定的维度连接张量。

x = torch.tensor([[1, 2, 3],  
                  [4, 5, 6]])  
y = torch.tensor([[7, 8, 9],  
                  [10, 11, 12]])  
  
m = torch.cat((x, y), dim=0)  
n = torch.cat((x, y), dim=1)  
  
print(m)  
print(n)

实验结果:

tensor([[ 1,  2,  3],
        [ 4,  5,  6],
        [ 7,  8,  9],
        [10, 11, 12]])
tensor([[ 1,  2,  3,  7,  8,  9],
        [ 4,  5,  6, 10, 11, 12]])

(2)stack()函数

stack()函数可以将多个张量沿着新的维度堆叠在一起。例如,要堆叠两个行相同的张量,可以写成:

import torch  
  
x = torch.tensor([1, 2, 3])  
y = torch.tensor([4, 5, 6])  
  
z = torch.stack((x, y), dim=0)  
print(z)

实验结果:

tensor([[1, 2, 3],
        [4, 5, 6]])

1.6 张量与计算图

PyTorch中的计算图是深度学习框架的基础概念之一,可以用于进行自动微分、反向传播等操作。计算图是一个由节点和边组成的数据结构,在PyTorch中,张量(Tensor)即为计算图的节点,而计算操作则为边。

PyTorch中的计算图由两种节点组成:叶子节点和非叶子节点。

叶子节点是指不依赖其他节点的节点,也就是输入节点。在PyTorch中,叶子节点可以是用户创建的张量,也可以是从文件加载的数据。

非叶子节点是指依赖于其他节点的节点,也就是计算节点。在PyTorch中,非叶子节点可以是各种操作(如加法、卷积、池化等)。

在PyTorch中,张量与计算图有着密切的联系。每一个张量都会被放入到计算图中,并构成计算图中的一个节点。当我们进行前向传播时,计算图会按照我们编写的代码执行,并生成计算图的输出结果。

在计算图中,每个非叶子节点都有一个grad_fn属性,它表示该节点的求导公式。这些求导公式是通过自动微分技术生成的,并且是在计算图执行过程中动态生成的。当我们执行反向传播时,PyTorch会遍历计算图,计算每个节点的梯度。

例如:

import torch  
  
# 创建张量并设置 requires_grad=True
x = torch.tensor([3.0, 4.0], requires_grad=True)  
y = torch.tensor([5.0, 6.0], requires_grad=True)  
  
# 执行计算  
z = x**3 + y**2  
  
# 计算z的梯度  
z.backward(torch.tensor([3.0, 5.0]))  
  
# 输出x和y的梯度  
print(x.grad)  
print(y.grad)

实验结果:

tensor([ 81., 240.])
tensor([30., 60.])

这段代码使用 PyTorch 库创建了两个张量 x x x y y y,使其设置 requires_grad=True,表示要计算它们的梯度。然后将它们用于计算另一个张量 z z z,公式如下所示:

z = x 3 + y 2 z = x^3 + y^2 z=x3+y2

接下来使用 backward() 方法计算 z z z x x x y y y的梯度,同时传入了一个张量 torch.tensor([3.0, 5.0]) 作为权重 z w e i g h t z_{weight} zweight。我们计算得到 ∂ z / ∂ x = 3 x 2 ∂z/∂x=3x^2 z/x=3x2 ∂ z / ∂ y = 2 y ∂z/∂y=2y z/y=2y因此
z w e i g h t × ∂ z / ∂ x = [ 3 , 5 ] ∗ [ 27 , 48 ] = [ 81 , 2400 ] z_{weight} ×∂z/∂x = [3,5]*[27,48]=[81,2400] zweight×z/x=[3,5][27,48]=[81,2400] z w e i g h t × ∂ z / ∂ y = [ 3 , 5 ] ∗ [ 10 , 12 ] = [ 30 , 60 ] z_{weight} ×∂z/∂y = [3,5]*[10,12]=[30,60] zweight×z/y=[3,5][10,12]=[30,60]并将它们保存在 x.grady.grad 中,可以通过打印这两个张量的值来查看结果。

1.6 总结

本章节主要介绍了 PyTorch 的基础知识,包括如何安装 PyTorch 和配置环境、如何创建张量(包括直接创建、通过数值创建和利用已有的张量创建新的张量)、如何设置张量的类型和形状、以及如何对张量进行数学和逻辑运算、索引、切片和连接。除此之外,还介绍了计算图的概念及其在 PyTorch 中的应用。具体内容包括:

  1. PyTorch 安装:介绍了如何在 Linux 或 Windows 系统中安装 PyTorch,并介绍了如何根据需要选择 ROCm 或 CUDA。

  2. 创建张量:介绍了如何通过不同的方式创建张量,包括直接创建、通过数值创建和利用已有的张量创建新的张量。其中,通过数值创建又包括全零张量和全一张量、依据指定值创建、随机张量、等差序列的创建和单位矩阵的创建。

  3. 张量的类型与形状:介绍了 PyTorch 支持的不同数据类型和如何设置张量的形状,包括改变形状(使用 view() 函数和 reshape() 函数)、增加维度(使用 unsqueeze() 函数)和删除维度(使用 squeeze() 函数)。

  4. 张量操作:介绍了如何对张量进行数学和逻辑运算,包括加法、减法、乘法、除法、矩阵乘法、大小比较和相等比较等。

  5. 索引、切片和连接:介绍了如何使用索引、切片和连接操作对张量进行操作,包括通过索引获取张量中的元素,通过切片截取部分张量并创建新的张量,以及使用 cat() 函数和 stack() 函数将多个张量连接为一个张量。

  6. 张量与计算图:介绍了计算图的概念及其在 PyTorch 中的应用,包括张量节点和计算节点的概念、自动求导和反向传播等。

参考教程:

Previous PyTorch Versions | PyTorch
计算图——用Pytorch解释李宏毅老师PPT中的实例 - 知乎 (zhihu.com)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/429629.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

计算机网络考试复习——第四章 4.1 4.2.1 4.2.2

网络层传输的单位是IP数据报 4.1 网络层的几个重要概念 网络层提供的两种服务:网络层应该向运输层提供怎样的服务?面向连接还是无连接? 在计算机通信中,可靠交付应当由谁来负责?是网络还是端系统? 面向连…

X79G Xeon 2630v2 电脑 Hackintosh 黑苹果efi引导文件

原文来源于黑果魏叔官网,转载需注明出处。(下载请直接百度黑果魏叔) 硬件型号驱动情况 主板X79G 处理器Intel Xeon 2630v2已驱动 内存32g (16*2 2666MHZ)已驱动 硬盘Intel 760p 512GB已驱动 显卡RX 470已驱动 声卡瑞昱 英特尔 High De…

硬件外设使用方法——GPIO

【硬件外设使用】——GPIO用法GPIO基本概念GPIO应用pyb与micropython什么是pyb什么是micropythonpyb与micropython关系GPIO在micropython中的用法什么是pyb库pyb库中的GPIO用法micropython下的GPIO用法经过与硬件群的小伙伴商量,决定直接找个板子讲实战了- -。 本部…

qt动态加载qss 更好的推荐方式

1、编写QRC资源文件[window和linux通用] 2、过rcc程序生成rcc资源文件 生成2进制数据: 通过控制台窗口执行以下命令,会把qrc中的资源文件写成二进制数据保存 rcc.exe -binary .\resuorce.qrc -o .\resuorce.rcc 生成16进制数据: 通过控制台窗…

JavaSE学习进阶day03_02 内部类

第二章 内部类(最难的) 2.1 概述 2.1.1 什么是内部类 将一个类A定义在另一个类B里面,里面的那个类A就称为内部类,B则称为外部类。可以把内部类理解成寄生,外部类理解成宿主。 2.1.2 什么时候使用内部类 一个事物内…

STM32驱动SIM900A短信模块

简介:STM32F103C8T6驱动SIM900A短信模块源码介绍。 开发平台:KEIL ARM MCU型号:STM32F103C8T6 传感器型号:SIM900A 特别提示:驱动内可能使用了某些其他组件,比如delay等,在文末外设模板下载…

协议篇之以太网协议基础概念

协议篇之以太网协议基础概念一、写在前面二、什么是以太网三、以太网TCP/IP协议分层四、MAC地址与IP地址五、写在后面一、写在前面 在学习了串口协议后,发现通过串口传输数据,数据传输的速率较慢,无法符合高速率传输场景下的要求,…

PXE+Kickstart自动化安装操作系统

文章目录PXEKickstart 完美自动化部署系统理论知识:1、PXE2、DHCP实践实验:1、DHCP服务器配置2、TFTP服务器配置3、HTTP服务器安装4、PXE配置5、Kickstart实践配置PXEKickstart 完美自动化部署系统 理论知识: 无人值守原理:Kick…

飞行机器人专栏(十一)-- 空中机器人综合健康管理系统

目录 一. 综合健康管理系统架构 1. 系统架构: 2. 故障诊断算法: 3. 预测维护策略: 4. 安全与隐私: 5. 用户友好性: 6. 模块化与可扩展性: 7. 与其他系统集成: 8. 考虑环境因素&#xf…

获取文件内容方法使用说明

一、是什么? sikuli设备新增了一个获取文件内容的方法,该方法可以传入指定路径读取文件内容,方便后续做打印,对比等工作 二、怎么用? 1.文件绝对路径,例如 windows:F:\cn_sonic\sonic-agent…

abbyy finereader15下载安装使用及功能介绍

今天给大家分享一款一款真正的专业OCR,它不仅支持多国文字,还支持彩色文件识别、自动保留原稿插图和排版格式以及后台批处理识别功能,使用者再也不用在扫描软件、OCR、WORD、EXCEL之间换来换去了,处理文件会变的就像打开已经存档的…

RabbitMQ安装教程(Mac)

1、RabbitMQ是采用Erlang语言开发的,所以系统环境必须提供Erlang环境。 brew install rabbitmq前提必须是mac安装了HomeBrew(软件包管理系统),以下都是基于mac版本的。 等大概十几分钟 brew services start rabbitmq;RabbitMQWeb…

第09章_性能分析工具的使用

第09章_性能分析工具的使用 ​ 在数据库调优过程中,我们的目标就是响应时间更快,吞吐量更大。利用宏观的监控工具和微观的日志分析可以帮我们快速找到调优思路和方式。 1. 数据库服务器的优化步骤 ​ 当我们遇到数据库调优问题的时候,该如…

Rabbitmq学习笔记教程-尚硅谷

Rabbitmq学习笔记 (尚硅谷) 尚硅谷 rabbitmq 教程 1.MQ 的概念 1.1 什么是 MQ? 存放消息的队列,互联网架构中常见的一种服务与服务之间通信的方式。 1.2 为什么要用 MQ? 三大好处,削峰,解耦,异步。…

1小时学会CSS - 中

接第一课, 1小时学会CSS - 上,大家还记得前面说的一个概念,CSS 层叠样式吗?很多小伙伴都无法理解。 这里再详细说说,什么是CSS 层叠样式?CSS 层叠样式指的是上级标签的样式会自动继承给其所有的下级标签。…

爬虫日常练习-艾图网多页面图片爬取

文章目录前言页面分析设计代码前言 欢迎回来兄弟们,想必各位都已经过了一遍上篇文章了吧,没过的兄弟们可以移步上篇文章指点一二,链接: 爬虫日常练习-艾图网单页面图片爬取 感谢xdm 昨天的内容想必已经挑起了大家的胃口,我们趁…

自动化测试(一):自动化测试理论

什么是自动化测试: 自动化测试是把以人为驱动的测试行为转化为机器执行的一种过程。通常,在设计了测试用例并通过评审之后,由测试人员根据测试用例中描述的规程一步步执行测试,得到实际结果与期望结果的比较。在此过程中&#xf…

【前端之旅】快速上手ElementUI

一名软件工程专业学生的前端之旅,记录自己对三件套(HTML、CSS、JavaScript)、Jquery、Ajax、Axios、Bootstrap、Node.js、Vue、小程序开发(Uniapp)以及各种UI组件库、前端框架的学习。 【前端之旅】Web基础与开发工具 【前端之旅】手把手教你安装VS Code并附上超实用插件…

指针在C++中的应用及顺序表结构体中的应用

目录 一.指针的概要 指针 一级指针 二级指针 二、一个生动形象的例子 三、总结 四、顺序表结构体中的应用 一.指针的概要 指针 是一种数据类型,它保存着一个变量的内存地址。指针可以通过间接引用操作符 * 来访问所指向的变量。在 C 中,指针通常…

【AI绘画】探索艺术与技术的融合:AI绘画的新前景

AI绘画的新前景1.AI绘画是把双刃剑2.AI绘画的应用场景3.AI绘画的技术4.结语随着人工智能(AI)技术的快速发展,AI绘画成为了艺术创作领域中备受关注的话题。传统的艺术创作方式受到了AI技术的冲击,为艺术家和观众带来了全新的体验和…