11.21 深度学习-tensor常见操作

news2024/11/23 8:24:46

import torch

from PIL import Image

from torchvision import transforms

#  获取元素值 tensor.item() 返回一个数值 只能是tensor里面有一个数字的

# 我们可以把单个元素tensor转换为Python数值,这是非常常用的操作

# tensor 里面超过了1个数字就不行

def get_item():

    t1=torch.tensor(1)

    t2=torch.tensor([[[100]]])

    x=t1.item()

    print(x)

    x=t2.item()

    print(x)

    pass

# 元素值四则运算

def compute():

    # 加减乘除

    torch.manual_seed(666)

    t1=torch.rand(3,3)

    # 末尾有下划线的直接是改变原来的数据

    # 对tensor里面的每个元素都 进行 四则运算操作

    # + add

    t1_add=t1.add(1)

    t1.add_(1)

    # - sub

    t1_sub=t1.sub(-1)

    t1.sub_(1)

    # * / 次方同理  mul div  pow

   

    # 也可以通过运算符号来进行 tensor类里面有魔术方法实现了 四则 次方 // % 都可以 这个没有对原来数据进行改变的

    t2=t1+10

    t3=t1**2

    print(t3)

    pass

def hadamard():

    # 两个tensor相同位置的元素相乘 两个tensor形状要一样

    # 阿达玛积指的是矩阵对应位置的元素相乘,可以使用mul函数或者*来实现 其实就是上面的乘法换成了 两个tensor 相乘

    data1 = torch.tensor([[1, 2, 3], [4, 5, 6]])

    data2 = torch.tensor([[2, 3, 4], [2, 2, 3]])

    print(data1 * data2)

    print(data1.mul(data2))

    pass

# 点积

def dotProduct():

    # 就是矩阵乘法的意思 第一个矩阵列数 和第二个矩阵的行数要相同 结果矩阵的形状为(第一个矩阵的行,第二个矩阵的列)

   

    data1 = torch.tensor([

        [1, 2, 3],  

        [4, 5, 6]

    ])

    data2 = torch.tensor([

        [3, 2],

        [2, 3],

        [5, 3]

    ])

    # 使用@或者matmul完成Tensor的乘法。  @ 是点积的符号 a@b  matmul和 mm是tensor的方法 mm只能用于二维的矩阵乘法 就是只有行列的 一般都是二维或者三维 乘法没有交换律注意顺序

    # mm方法也可以用于矩阵相乘 但是只能用于2维矩阵即:$$m*k$$和$$k*n$$ 得到$$m*n$$ 的矩阵

    res1=data1 @ data2

    res2=data1.matmul(data2)

    res3=data1.mm(data2)

    pass

# 索引操作

def index():

    torch.manual_seed(666)

    t1=torch.rand(3,5,5)

    # 跟np数组嵌套的索引差不多 就是嵌套列表的取法 套几个索引

    t1[1]

    t1[1,1]

    t1[1,1,1]

    # 取范围 第一维取 0 和1 取出来的矩阵在取 1

    t1[0:2,1]

    t1[0:2,1:3]

   

    t1[[1,2]] # 取第一维的1和3 在一个维度上取多个的时候传个矩阵进去 这个不会降维的 取出来就相当于重新组了一下 不是切片

    t1[[1,2],[1,1]] # 对应 矩阵取出来 [1,1] [2,1]

    # 也可以进行布尔运算 跟np差不多 返回的是一个布尔矩阵 布尔矩阵可以拿去 返回为ture的元素 返回出来变为1维的了

    x2=t1>0.5

    # print(x2)

    # print(t1[x2])

    # print(t1[t1>0.5])

    # 行级别的条件索引

    t2=torch.rand(5,5)

    x3=t2[:,1]>6 # 所有行的第一列大于6的 前面是行范围 后面是范围  对应一维范围 二维范围 三维范围。。。。 最后一维范围只能是一个数 对最后一维进行判断或者赋值

    t1[0:2,0:2,1]>0.5

    t2[x3]

    # 索引也可以拿来赋值 就是修改数据 取索引然后赋值

    t2[:,:]=6

    print(t2)

    pass

# 张量的拼接 torch的方法 返回一个新的tensor

# 在 PyTorch 中,cat 和 stack 是两个用于拼接张量的常用操作,但它们的使用方式和结果略有不同:

# - **cat**:在现有维度上拼接,不会增加新维度。

# - **stack**:在新维度上堆叠,会增加一个维度。

def splice():

    torch.manual_seed(666)

    t1=torch.rand(3,3)

    t2=torch.rand(3,3)

    # torch.cat(concatenate 的缩写)用于沿现有维度拼接张量。换句话说,它在现有的维度上将多个张量连接在一起。 就是np数组的拼接方式

    # torch.cat() 传参 :第一个 数组 里面是要拼接的tensor 第二个 dim 拼接的轴 注意 拼接的轴 另一个轴的数据量要一样 拼接的轴数据量可以不一样

    # 拼接 一个人完了再下一个人

    t3=torch.cat([t1,t2],dim=0)

    # print(t3)

    # 堆叠 交替添加

    # torch.stack 用于在新维度上拼接张量。换句话说,它会增加一个新的维度,然后沿指定维度堆叠张量 两个矩阵必须size一样

    t4=torch.stack([t1,t2],dim=2)

    print(t4.shape)

    # stack 补充解析

    # 1. 从维度的视角看 会新加一个维度 维度的大小为进行stack矩阵的数量 然后这个位置在新tensor的位置就是dim

    # 2. 从矩阵变换的视角看 比如二维矩阵  dim = 0 就是自己创建一个新的数组然后把 进行stack的两个矩阵放进去

    # dim=1 就是两个矩阵 轮流取第一层的元素组成一个新矩阵的第一层

    # dim=2 就是两个矩阵 轮流取第二层的元素组成新矩阵的第二层 新矩阵的第一层为

    pass

# stack应用 把Image的tensor 转为 cv2的tensor

def demo1():

    transform1=transforms.ToTensor()

    img1=Image.open("assets/image/1.png")

    # img1_t1=transform1(img1)

    img1_t1=torch.rand(4,5,6,7)

    print(img1_t1.shape)

    img1_t2=torch.stack([img1_t1[0],img1_t1[1],img1_t1[2],img1_t1[3]],dim=3)

    print(img1_t2.shape)




 

if __name__=="__main__":

    # get_item()

    # compute()

    # hadamard()

    # dotProduct()

    # index()

    # splice()

    # demo1()

    splice()

    pass

import torch

from PIL import Image

from torchvision import transforms

def sci():

    torch.set_printoptions(sci_mode=False)

    return 0

# 形状操作

# reshape torch 的方法 改玩后的形状 的 元素个数要跟原来的一样 比如原来是10*10 改完后的元素个数必须为100 返回新的tensor

# 可以用于将张量转换为不同的形状,但要确保转换后的形状与原始形状具有相同的元素数量。

def reshape1():

    torch.manual_seed(666)

    t1=torch.rand(20,4)

    # print(t1)

    t2=torch.reshape(t1,(4,20)) # 传入被改的tensor 和形状

    # 可以有一个维度为-1 代表程序自己通过其他维度的元素数量 自己算这个维度的元素数量

    t3=torch.reshape(t1,(40,-1))

    print(t3)

    pass

# 也可以用view变形 tensor的方法

# 这个只能对张量里面的元素是内存连续的 才可以

# 对刚创建出来的tensor进行操作后 就很容易内存不连续 比如转置

# 返回的是原始张量视图,不重新分配内存,效率更高; 比reshape快  这个相当于浅拷贝 不会开新的内存 就是把原来的内存重新排列一下下标

def view1():

    torch.manual_seed(666)

    t1=torch.rand(20,4)

    t2=t1.view(4,20)

    t2[:,-1]=6

    print(t2)

    print(t1)

    pass

# 交换维度 在二维矩阵上像转置一样

# transpose  troch 方法 跟view 一样返回的是原tensor的视图 浅拷贝

# permute tensor 方法 返回一个新的  对维度重新排列 不是浅拷贝

def transpose1():

    torch.manual_seed(666)

    t1=torch.rand(20,4)

    t3=torch.rand(20,4,3)

    t2=torch.transpose(t1,0,1) #  传入tensor和要交换的维度

    t4=torch.transpose(t3,1,2)

    # print(t4.shape)

    t5=t3.permute(1,2,0) # 传入 维度  传入维度的顺序为新的 tensor的维度排序 交换维度

    pass

# tensor展平

# flatten tensor 方法

# flatten 用于将张量展平为一维向量

def flatten1():

    torch.manual_seed(666)

    t1=torch.rand(20,4,3)

    t2=t1.flatten() # 传入开始 展平的层数 和结束展平的层数

    sci()

    print(t2)

    pass

# 升维和降维

# 在后续的网络学习中,升维和降维是常用操作,需要掌握。 tensor 方法 返回新的

# - **unsqueeze**:用于在指定位置插入一个大小为 1 的新维度。 加个[]

# - **squeeze**:用于移除所有大小为 1 的维度,或者移除指定维度的大小为 1 的维度

def squeeze():

    # 降维 一般用于 那些维度的元素数量为1的 直接就删掉了那个维度

    torch.manual_seed(666)

    t1=torch.rand(20,4,3,1,1)

    t2=t1.squeeze() # 传入要删除的维度 默认全部 大小为1 的维度都要删

    print(t2)

    pass

# 升维

def unsqueeze():

    # 升维 在一个维度上 加一个维度 一般都在指定维度的前面

    torch.manual_seed(666)

    t1=torch.rand(20,4,3,1,1)

    t2=t1.unsqueeze(2) # 传入要删除的维度 默认全部 大小为1 的维度都要删

    print(t2.shape)

    pass

# 分割

# 可以按照指定的大小或者块数进行分割。

# chunk  torch方法 按照传入的块数分割 平均 分完后元素的行数个数是平均的 列是最后被分的

# split  按照传入的每一块的元素 的行数分割

# 返回的都是 元组

def split1():

    torch.manual_seed(666)

    t1=torch.rand(20,4)

    t2=torch.chunk(t1,20)

    t3=torch.split(t1,2)

    print(t3[0].shape)

# 广播机制 跟numpy差不多

# 广播机制

# 广播机制允许在对不同形状的张量进行计算,而无需显式地调整它们的形状。广播机制通过自动扩展较小维度的张量,使其与较大维度的张量兼容,从而实现按元素计算。

# 广播机制规则

# 广播机制需要遵循以下规则:

# - 每个张量的维度至少为1

# - 满足右对齐

# 被广播的那个矩阵 的被广播的维度大小为1


 

if __name__=="__main__":

    # reshape1()

    # view1()

    # transpose1()

    # flatten1()

    # squeeze()

    # unsqueeze()

    split1()

    pass

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2245864.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Spark SQL 之 QueryStage

ExchangeQueryStageExec ExchangeQueryStageExec 分为两种

自由学习记录(23)

Lua的学习 table.concat(tb,";") 如果表里带表,则不能拼接,表里带nil也不能,都会报错 true和false也不可以,数字和字符串可以 if要和一个end配对,所以 if a>b then return true end end 两个end …

GoZero对接GPT接口的设计与实现:问题分析与解决

在本篇文章中,我们将探讨如何在GoZero框架下对接GPT接口,并详细讨论在实现过程中遇到的一些常见问题及其解决方案。特别是遇到的错误信息,如 parse parameter fail,recover: interface conversion: interface {} is nil, not string 和 获取历…

【2024 Optimal Control 16-745】【Lecture 3 + Lecture4】minimization.ipynb功能分析

主要功能-最小化问题 目标函数分析: 定义函数 f ( x ) f(x) f(x) 及其一阶、二阶导数。使用绘图工具可视化函数的形状。 实现数值优化: 使用牛顿法寻找函数的极值点,结合一阶和二阶导数加速收敛。使用正则化牛顿法解决二阶导数矩阵可能不正定的问题。 可视化过程…

实现 UniApp 右上角按钮“扫一扫”功能实战教学

实现 UniApp 右上角按钮“扫一扫”功能实战教学 需求 点击右上角扫一扫按钮(onNavigationBarButtonTap监听),打开扫一扫页面(uni.scanCode) 扫描后,以网页的形式打开扫描内容(web-view组件),限制只能浏览带有执行域名的网站,例如…

ThreadLocal 父子线程、线程池、数据传递

讲一下背景:springboot 项目。写了个拦截器,解析请求头 Authorization 中传过来的 token,获取到登录用户信息,然后通过 ThreadLocal 存起来,后面的业务代码从 ThreadLocal 取用户信息。 再说下问题:当业务代…

uniapp 微信小程序地图标记点、聚合点/根据缩放重合点,根据缩放登记显示气泡marik标点

如图,如果要实现上方的效果: 上方两个效果根据经纬度标记点缩放后有重复点会添加数量 用到的文档地址https://developers.weixin.qq.com/miniprogram/dev/api/media/map/MapContext.addMarkers.htmlMapContext.addMarkers(Object object) 添加标记点Ma…

ubuntu下如何使用C语言访问Mysql数据库(详细介绍并附有案例)

一、配置 首先,确保你已经安装了MySQL服务器和MySQL Connector/C库。在Linux上,你可以使用包管理器来安装这些,例如: sudo apt-get install mysql-server libmysqlclient-dev 在ubuntu的机器上,库文件通常保存在 /li…

uniapp接入BMapGL百度地图

下面代码兼容安卓APP和H5 百度地图官网:控制台 | 百度地图开放平台 应用类别选择《浏览器端》 /utils/map.js 需要设置你自己的key export function myBMapGL1() {return new Promise(function(resolve, reject) {if (typeof window.initMyBMapGL1 function) {r…

直播服务器多设备同显方案

在直播行业中,服务器多设备同显方案已成为一种创新且高效的技术应用。这一技术不仅能够满足大规模同步直播的需求,还能显著提升观众的观看体验和参与度。本文将深入探讨直播服务器多设备同显方案的技术细节、实施步骤以及在不同场景下的应用价值。 直播服…

101.【C语言】数据结构之二叉树的堆实现 下

目录 1.堆删除函数HeapPop 一个常见的错误想法:挪动删除 正确方法 设计堆顶删除函数HeapPop 解析向下调整函数AdjustDown 向下调整最多次数 向下调整的前提 代码实现 2.测试堆删除函数 运行结果 3.引申问题 运行结果 4.练习 分析 代码 执行过程图 运行结果 承…

数据结构(Java版)第二期:包装类和泛型

目录 一、包装类 1.1. 基本类型和对应的包装类 1.2. 装箱和拆箱 1.3. 自动装箱和自动拆箱 二、泛型的概念 三、引出泛型 3.1. 语法规则 3.2. 泛型的优点 四、类型擦除 4.1. 擦除的机制 五、泛型的上界 5.1. 泛型的上界的定义 5.2. 语法规则 六、泛型方法 6.1…

【pyspark学习从入门到精通14】MLlib_1

目录 包的概览 加载和转换数据 在前文中,我们学习了如何为建模准备数据。在本文中,我们将实际使用这些知识,使用 PySpark 的 MLlib 包构建一个分类模型。 MLlib 代表机器学习库。尽管 MLlib 现在处于维护模式,即它不再积极开发…

【CSP CCF记录】201903-1第16次认证 小中大

题目 样例1输入 3 -1 2 4 样例1输出 4 2 -1 样例1解释 4 为最大值,2 为中位数,−1 为最小值。 样例2输入 4 -2 -1 3 4 样例2输出 4 1 -2 样例2解释 4 为最大值,(−13)21为中位数,−2为最小值。 思路 本题两个注意点&#xff0…

P8692 [蓝桥杯 2019 国 C] 数正方形:结论,组合数学

题目描述 在一个 NNNN 的点阵上,取其中 44 个点恰好组成一个正方形的 44 个顶点,一共有多少种不同的取法? 由于结果可能非常大,你只需要输出模 10971097 的余数。 如上图所示的正方形都是合法的。 输入格式 输入包含一个整数 …

Elasticsearch客户端在和集群连接时,如何选择特定的节点执行请求的?

大家好,我是锋哥。今天分享关于【Elasticsearch客户端在和集群连接时,如何选择特定的节点执行请求的?】面试题。希望对大家有帮助; Elasticsearch客户端在和集群连接时,如何选择特定的节点执行请求的? 100…

【题解】—— LeetCode一周小结46

🌟欢迎来到 我的博客 —— 探索技术的无限可能! 🌟博客的简介(文章目录) 【题解】—— 每日一道题目栏 上接:【题解】—— LeetCode一周小结45 11.切棍子的最小成本 题目链接:1547. 切棍子的最…

AI社媒引流工具:解锁智能化营销的新未来

在数字化浪潮的推动下,社交媒体成为品牌营销的主战场。然而,面对海量的用户数据和日益复杂的运营需求,传统营销方法显得力不从心。AI社媒引流王应运而生,帮助企业在多平台中精准触达目标用户,提升营销效率和效果。 1.…

Python 使用 Selenuim进行自动化点击入门,谷歌驱动,以百度为例

一、首先要下载谷歌驱动 1.(打开谷歌浏览器 - 设置 - 关于谷歌,查看谷歌浏览器版本,否则不对应无法调用,会提示:selenium.common.exceptions.SessionNotCreatedException: Message: session not created: This versio…

C语言-指针作为函数返回值及二级指针

1、指针作为函数返回值 c语言允许函数的返回值是一个指针&#xff08;地址&#xff09;我们将这样的函数称为指针函数&#xff0c;下面的例子定义一了一个函数strlong&#xff08;&#xff09;&#xff0c;用来返回两个字符串中较长的一个&#xff1a; 1. #include <stdio…