深度学习 Pytorch 张量的索引、分片、合并以及维度调整

news2025/1/21 7:13:20

张量作为有序的序列,也是具备数值索引的功能,并且基本索引方法和python原生的列表、numpy中的数组基本一致。

不同的是,pytorch中还定义了一种采用函数来进行索引的方式。

作为pytorch中的基本数据类型,张量既具备了列表、数组的基本功能,同时还充当向量、矩阵等重要数据结构。因此pytorch中也设置了非常晚辈的张量合并与变换的操作。

import torch	# 导入torch
import numpy as np	# 导入numpy

6 张量的符号索引

6.1 一维张量索引

一维张量的索引过程和python原生对象类型的索引一致,基本格式遵循[start: end: step]

t1 = torch.arange(1, 11)	# 创建一维张量

从左到右,从零开始

t1[0]
# output : tensor(1)

**注:**张量索引出来的结果还是零维张量,而不是单独的数。

​ 要转化成单独的数,需要使用.item()方法


冒号分割,表示对某个区域进行索引,也就是所谓的切片

t1[1: 8]	# 索引其中2-9号元素,并且左闭右开
# output : tensor([2, 3, 4, 5, 6, 7, 8])

第二个冒号,表示索引的间隔

t1[1: 8: 2]		# 第三个参数表示每两个数取一个
# output : tensor([2, 4, 6, 8])

冒号前后没有值,表示索引这个区域

t1[1: : 2]		# 从第二个元素开始索引,一致到结尾,并且每隔两个取一个
# output : tensor([ 2,  4,  6,  8, 10])
t1[: 8: 2]		#从第一个元素开始索引到第九个元素(不包含),并且每隔两个数取一个
# output : tensor([1, 3, 5, 7])

在张量的索引中,step位必须大于0,也就是说不能逆序取数。


6.2 二维张量索引

二维张量的索引逻辑和一维张量基本相同,二维张量可以视为两个一维张量组合而成。

在实际的索引过程中,需要用逗号进行分割,表示分别对哪个一维张量进行索引、以及具体的一维张量的索引。

t2 = torch.arange(1, 10).reshape(3, 3)		# 创建二维张量
t2[0, 1]	# 表示索引第一行、第二列的元素
# output : tensor(2)
t2[0, : : 2]	# 表示索引第一行、每隔两个元素取一个
# output : tensor([1, 3])
t2[0, [0, 2]]	# 索引结果同上
t2[: : 2, : : 2]	# 表示每隔两行取一行、并且每一行中每隔两个元素取一个
# output : 
tensor([[1, 3],
        [7, 9]])
t2[[0, 2], 1]	# 索引第一行、第三行、第二列的元素
# output : tensor([2, 8])

6.3 三维张量索引

我们可以将三维张量视作矩阵组成的序列,则在索引过程中拥有三个维度,分别是索引矩阵,索引矩阵的行、索引矩阵的列。

t3 = torch.arange(1, 28).reshape(3, 3, 3)	# 创建三维张量
t3[1, 1, 1]		# 索引第二个矩阵中,第二行、第二个元素
# output : tensor(14)
t3[1, : : 2, : : 2]		#索引第二个矩阵,行和列都是每隔两个取一个
# output : 
tensor([[10, 12],
        [16, 18]])
# 每隔两个取一个矩阵,对于每个矩阵来说,行和列都是每隔两个取一个
t3[: : 2, : : 2, : : 2]		
# output : 
tensor([[[ 1,  3],
         [ 7,  9]],

        [[19, 21],
         [25, 27]]])

7 张量的函数索引

pytorch中,我们还可以使用index_select函数,通过指定index来对张量进行索引。

t1 = torch.arange(1, 11)
indices = torch.tensor([1, 2])
torch.index_select(t1, 0, indices)
# output : tensor([2, 3])

第二个参数dim代表索引的维度。

对于t1这个一维向量来说,由于只有一个维度,因此第二个参数化取值为0,代表在第一个维度上进行索引。


t2 = torch.arange(12).reshape(4,3)
t2
# output :
tensor([[ 0,  1,  2],
        [ 3,  4,  5],
        [ 6,  7,  8],
        [ 9, 10, 11]])
indices = torch.tensor([1, 2])

# dim参数取值为0,代表在shape的第一个维度上索引
torch.index_select(t2, 0, indices)	
# output : 
tensor([[3, 4, 5],
        [6, 7, 8]])

# dim参数取值为0,代表在shape的第二个维度上索引
torch.index_select(t2, 1, indices)	
# output : 
tensor([[ 1,  2],
        [ 4,  5],
        [ 7,  8],
        [10, 11]])

8 tensor.view()方法

该方法会返回一个类似视图的结果,且该结果会和原张量对象共享一块数据存储空间

通过.view()方法,还可以改变对象结构,生成一个不同结构、但共享一个存储空间的张量。

t = torch.arange(6).reshape(2, 3)
t
# output :
tensor([[0, 1, 2],
        [3, 4, 5]])
# 构建一个数据相同,但形状不同的“视图”
te = t.view(3, 2)	
te
# output :
tensor([[0, 1],
        [2, 3],
        [4, 5]])

当然,共享一个存储空间,也就代表二者是浅拷贝的关系,修改其中一个,另一个也会同步更改。

t[0] = 1
te
# output :
tensor([[1, 1],
        [1, 3],
        [4, 5]])

当然,维度也可以修改

tr = t.view(1, 2, 3)
tr
# output :
tensor([[[1, 1, 1],
         [3, 4, 5]]])

视图的作用就是节省空间,在接下来介绍的很多切分张量的方法中,返回结果都是“视图”,而不是新生成一个对象。


9 张量的分片函数

9.1 分块:chunk函数

chunk函数能够按照某维度,对张量进行均匀切分,返回结果是原张量的视图

t2 = torch.arange(12).reshape(4, 3)
t2
# output :
tensor([[ 0,  1,  2],
        [ 3,  4,  5],
        [ 6,  7,  8],
        [ 9, 10, 11]])
# 在第零个维度上,按行进行四等分
tc = torch.chunk(t2, 4, dim = 0)
tc
# output :
(tensor([[0, 1, 2]]),
 tensor([[3, 4, 5]]),
 tensor([[6, 7, 8]]),
 tensor([[ 9, 10, 11]]))

注:chunk返回结果是一个视图,不是新生成了一个对象

tc[0][0][0] = 1		# 修改tc中的值
t2
# output :
tensor([[ 1,  1,  2],
        [ 3,  4,  5],
        [ 6,  7,  8],
        [ 9, 10, 11]])

当原张量不能均分时,chunk不会报错,但会返回其他均分结果。

torch.chunk(t2, 3, dim = 0)	# 返回次一级均分结果
# output :
(tensor([[1, 1, 2],
         [3, 4, 5]]),
 tensor([[ 6,  7,  8],
         [ 9, 10, 11]]))
torch.chunk(t2, 5, dim = 0)	# 返回次一级均分结果
# output :
(tensor([[1, 1, 2]]),
 tensor([[3, 4, 5]]),
 tensor([[6, 7, 8]]),
 tensor([[ 9, 10, 11]]))

9.2 拆分 :split函数

split既能进行均分,也能自定义切分

t2 = torch.arange(12).reshape(4, 3)
t2
# output :
tensor([[ 0,  1,  2],
        [ 3,  4,  5],
        [ 6,  7,  8],
        [ 9, 10, 11]])

第二个参数只输入一个数值时表示均分,第三个参数表示按第几个维度进行切分

torch.split(t2, 2, 0)
# output :
(tensor([[1, 1, 2],
        [3, 4, 5]]),
 tensor([[ 6,  7,  8],
         [ 9, 10, 11]]))

第二个参数输入一个序列时,表示按照序列数值进行切分

torch.split(t2, [1, 3], 0)
# output :
(tensor([[1, 1, 2]]),
 tensor([[ 3,  4,  5],
         [ 6,  7,  8],
         [ 9, 10, 11]]))

当第二个参数输入一个序列时,序列的各数值的和必须等于对于维度下形状分量的取值。

例如,上述代码中是按照第一个维度进行切分,第一个维度有四行,因此序列的求和必须等于4,也就是1 + 3 = 4


序列中每个分量的取值表示切块大小

torch.split(t2,[1, 1, 1, 1], 0)
# output :
(tensor([[1, 1, 2]]),
 tensor([[3, 4, 5]]),
 tensor([[6, 7, 8]]),
 tensor([[ 9, 10, 11]]))
torch.split(t2,[1, 2], 1)
# output :
(tensor([[1],
        [3],
        [6],
        [9]]),
 tensor([[ 1,  2],
        [ 4,  5],
        [ 7,  8],
        [10, 11]]))

当然,split函数返回结果也是view

ts = torch.split(t2,[1, 2], 1)
ts[0][0] = 1
t2
# output :
tensor([[ 1,  1,  2],
        [ 3,  4,  5],
        [ 6,  7,  8],
        [ 9, 10, 11]])

10 张量的合并操作

张量的合并操作类似列表的追加元素,可以拼接、也可以堆叠。

拼接函数:cat

a = torch.zeros(2, 3)
b = torch.ones(2, 3)
c = torch.zeros(3, 3)
# dim默认取值为0,按行进行拼接
torch.cat([a, b])	
# output :
tensor([[0., 0., 0.],
        [0., 0., 0.],
        [1., 1., 1.],
        [1., 1., 1.]])
# 按列进行拼接
torch.cat([a, b], 1)	
# output :
tensor([[0., 0., 0., 1., 1., 1.],
        [0., 0., 0., 1., 1., 1.]])
# 形状不匹配时将报错
torch.cat([a, c], 1)
# output :
RuntimeError: Sizes of tensors must match except in dimension 1. Expected size 2 but got size 3 for tensor number 1 in the list.

拼接的本质是实现元素的堆积,也就是构成a、b两个二维张量的各一维张量的堆积,最终还是构成二维向量


堆叠函数:stack

a = torch.zeros(2, 3)
b = torch.ones(2, 3)
c = torch.zeros(3, 3)
# 堆叠之后,生成一个三维张量
torch.stack([a,b])
# output :
tensor([[[0., 0., 0.],
         [0., 0., 0.]],

        [[1., 1., 1.],
         [1., 1., 1.]]])

注意对比和**cat**函数的区别,拼接之后维度不变,堆叠之后维度升高

对于两个二维张量,拼接是把一个个元素单独提取出来之后放到二维张量中,而堆叠则是直接将两个二维张量封装到一个三维张量中。

因此,堆叠的要求更高,参与堆叠的张量必须形状完全相同

# 维度不匹配将报错
torch.stack([a, c])
# output :
RuntimeError: stack expects each tensor to be equal size, but got [2, 3] at entry 0 and [3, 3] at entry 1

11 张量维度变换

在实际操作张量进行计算时,往往需要另外进行降维和升维的操作。

squeeze函数:删除不必要的维度

t = torch.zeros(1, 1, 3, 1)
# output :
tensor([[[[0.],
          [0.],
          [0.]]]])
t.shape
# output :
torch.Size([1, 1, 3, 1])
torch.squeeze(t)
# output :
tensor([0., 0., 0.])
torch.squeeze(t).shape
# output :
torch.Size([3])

简单理解,squeeze就相对于提出了shape返回结果中的1.

t1 = torch.zeros(1, 1, 3, 2, 1, 2)
torch.squeeze(t1)
torch.squeeze(t1).shape
# output :
torch.Size([3, 2, 2])

unsqueeze函数:手动升维

t = torch.zeros(1, 2, 1, 2)
t.shape
# output :
torch.Size([1, 2, 1, 2])
# 在第1个维度索引上升高1个维度
torch.unsqueeze(t, dim = 0)
# output :
tensor([[[[[0., 0.]],

          [[0., 0.]]]]])
torch.unsqueeze(t, dim = 0).shape
# output :
torch.Size([1, 1, 2, 1, 2])
# 在第3个维度索引上升高1个维度
torch.unsqueeze(t, dim = 2).shape
# output :
torch.Size([1, 2, 1, 1, 2])

注意理解维度和shape返回结果一一对应的关系,shape返回的序列有多少元素,张量就有多少维度。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2279705.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Mysql InnoDB B+Tree是什么?

“mysql中常用的数据库搜索引擎InnoDB,其索引通过BTree的方式进行构建。” 实在想不起来BTree是怎么一回事了。以点带线,将涉及到的数据结构一起复习一下。 文章目录 数据结构定义红黑树定义使命 BTree定义使命 BTree定义 InnoDB BTree 旋转与调整二叉排序树插入删…

docker 使用远程镜像启动一个容器

使用前提: 首先你得安装docker,其次你得拥有一个远程镜像 docker run --name io_11281009 --rm -it -p 2233:22 -v .:/root/py -e ed25519_rootAAAAC3NzaC1lZDI1********Oy7zR7l7aUniR2rul ghcr.lizzie.fun/fj0r/io srv对上述命令解释: 1.docker run:…

吴恩达深度学习——神经网络介绍

文章内容来自BV11H4y1F7uH,仅为个人学习所用。 文章目录 什么是神经网络引入神经网络神经元激活函数ReLU隐藏单元 用神经网络进行监督学习监督学习与无监督学习举例 什么是神经网络 引入 已经有六个房子的数据集,横轴为房子大小,纵轴为房子…

基于GRU实现股价多变量时间序列预测(PyTorch版)

前言 系列专栏:【深度学习:算法项目实战】✨︎ 涉及医疗健康、财经金融、商业零售、食品饮料、运动健身、交通运输、环境科学、社交媒体以及文本和图像处理等诸多领域,讨论了各种复杂的深度神经网络思想,如卷积神经网络、循环神经网络、生成对抗网络、门控循环单元、长短期记…

Linux -- HTTP 请求 与 响应 报文

目录 请求报文: 请求方法 响应报文: 状态码 与 状态码描述 共性 常见的报头 请求报文: 请求方法 方法说明GET获取资源POST传输实体主体PUT传输文件HEAD获得报文首部DELETE删除文件OPTIONS询问支持的方法TRACE追踪路径CONNECT要求用…

小米平板pad6工程固件界面预览 修复tee损坏 修复底层分区 开diag端口

💝💝💝小米平板pad6 机型代码pipa。采用一块分辨率为 2880*1800p,支持 120/144Hz 高刷新率的国产屏,并且屏幕支持 HDR10 + 以及杜比视界。分别搭载 SM8250AC(骁龙 870)、SM8475(骁龙 8+)处理器。也适用于以下型号的小米机型:23043RP34G, 23043RP34I, 23043RP34C等…

day03_开发前准备和匹配类标签

文章目录 day03_开发前准备和匹配类标签一、标签体系(了解)二、数据导入(操作)1、背景介绍(重要)2、创建Hive表2.1 dwm_sold_goods_sold_dtl_i2.2 dwm_sell_o2o_order_i**2.3 dwd_mem_member_union_i**2.4 dwm_mem_member_behavior_day_i**2.5 dwm_mem_first_buy_i**3、数…

STM32之FreeRTOS开发介绍(十九)

STM32F407 系列文章 - freertos(十九) 目录 前言 一、简述 二、开源网址 三、原理及功能特性 1.原理 2.功能 3.特点 4.优缺点 四、参考书籍 五、实现方式 总结 前言 FreeRTOS是一个免费的、开源的实时操作系统,专为微控制器和嵌入…

第十三章:数据库技术

文章目录: 一:基础 1.概念 2.特点 3.常见数据库品牌 4.数据库应⽤系统 4.1 C/S 4.2 B/S 5.数据模型的分类 6.名词解析 7.关系运算 二:Access 1.基础 2.操作 2.1 建立表 2.2 维护表 2.3 创建查询 2.4 创建窗体 2.5 创建报表…

stm32 no connect target

解决 STM32 报错 “no target connected” 的方法 前言 stm32最小系统在下载程序是一直报错:no target connected,试了很多办法成功不了,最后将芯片擦除了才成功。 一、问题描述 当时是写flash的时候写到ST Link 存储的地方了。 之后就不…

综述:大语言模型在机器人导航中的最新进展!

简介 机器人导航是指机器人能够在环境中自主移动和定位的能力。本文系统地回顾了基于大语言模型(LLMs)的机器人导航研究,将其分为感知、规划、控制、交互和协调等方面。具体来说,机器人导航通常被视为一个几何映射和规划问题&…

OpenHarmony-7.IDL工具

IDL 工具 1.openharmony IDL工具 在OpenHarmony中,当应用/系统服务的客户端和服务端进行IPC(Inter-Process Communication)跨线程通信时,需要定义双方都认可的接口,以保障双方可以成功通信,OpenHarmony ID…

Docker私有仓库管理工具Registry

Docker私有仓库管理工具Registry 1 介绍 Registry是私有Docker仓库管理工具,Registry没有可视化管理页面和完备的管理策略。可借助Harbor、docker-registry-browser完成可视化和管理。Harbor是由VMware开发的企业级Docker registry服务。docker-registry-browser是…

人工智能之数学基础:线性代数中的线性相关和线性无关

本文重点 在线性代数的广阔领域中,线性相关与线性无关是两个核心概念,它们对于理解向量空间、矩阵运算、线性方程组以及人工智能等问题具有至关重要的作用。 定义与直观理解 当存在一组不全为0的数x1,x2,...,xn使得上式成立的时候,那么此时我们可以说向量组a1,a2...,an…

【Django】多个APP设置独立的URL

目录 方法一:各个App下设置自己的URL 1、在各自的App当中创建urls.py文件​编辑 2、在主urls当中包含子url 3、各App的urls中设置url 4、设置后台函数 5、最终结果 总结: 方法二:利用as方法,在总的URL中对views重命名 实…

函数递归的介绍

1.递归的定义 在C语言中,递归就是函数自己调用自己 上面的代码就是 main 函数在函数主体内 自己调用自己 但是,上面的代码存在问题:main 函数反复地 自己调用自己 ,不受限制,停不下来。 最终形成死递归,…

四、华为交换机 STP

生成树协议(STP)的核心目的是在存在冗余链路的网络中,构建一个无环的拓扑结构,从而防止网络环路带来的广播风暴等问题 一、STP 原理 选举根桥:网络中的每台交换机都会有一个唯一的桥 ID(BID)&am…

前端炫酷动画--图片(一)

目录 一、四角线框的跟随移动 二、元素倒影(-webkit-box-reflect) 三、模特换装(maskblend) 四、元素平滑上升 五、无限视差滚动 六、判断鼠标进入方向(轮播方向) 七、环形旋转效果 八、黑白小球交替旋转 九、hover时圆形放大 十、画一棵随机树(canvas) 十一、代码雨…

AI刷题-病毒在封闭空间中的传播时间

目录 问题描述 输入格式 输出格式 解题思路: 问题理解 数据结构选择 算法步骤 代码实现: 1.初始化: 2.设置边界条件: 3.判断 4.更新: 5.返回 最终的实现代码如下: 运行结果: …

SQL表间关联查询详解

简介 本文主要讲解SQL语句中常用的表间关联查询方式,包括:左连接(left join)、右连接(right join)、全连接(full join)、内连接(inner join)、交叉连接&…