深度学习pytorch——基本数据类型创建Tensor(持续更新)

news2024/10/7 10:16:04

声明:本深度学习笔记基于课时18 索引与切片-1_哔哩哔哩_bilibili学习而来

All is about Tensor

定义:Tensors are simply mathematical objects that can be used to describe physical properties, just like scalars and vectors. In fact tensors are merely a generalisation of scalars and vectors; a scalar is a zero rank tensor, and a vector is a first rank tensor.

这句话的大概意思就是张量就是标量和向量的推广,标量被称为0维张量,向量被称为一维张量。

我们先将python常用的数据类型和pytorch进行比较,我们可以很清楚的看出pytorch的数据类型都加了一个张量(Tensor),但是pytorch里面并没有字符串类型,因为pytorch主要是一个关于计算的库。

但是,我们在pytorch里面就用不到字符串吗?当让不是,在数字识别体验课的时候我们是用了One-hot的编码方式,就是我们创建一个长度为10的一维向量,如果对应上了,我们就把与此对应的数值改为1。

 问题又来了,我们需要处理的数据太过庞大了,比如我们处理10万个数据,我们还要使用长度为10万的向量吗?答案,肯定不是。我们使用叫做Embedding的编码方式。

总的来说,就是讲pytorch使用编码的方式处理字符串

再回到我们的数据类型上:

我们在pytorch上使用torch.FloatTensor表示浮点型,其它类型同理。众所周知,深度学习需要处理大量的数据,需要大量的计算,为了提高效率,我们让GPU帮助我们计算,但是此时数据类型就要加上cuda了。

Type check

import torch
a = torch.randn(2,3)                # 创建一个2*3矩阵

print("Tensor:",a)
# 输出:Tensor: tensor([[-0.6643, -1.7207, -0.7312],
#        [-0.9627, -0.5519, -0.7359]])

print("Tensor of type:",a.type())
# 输出:Tensor of type: torch.FloatTensor

# 在深度学习中,我们经常会用到参数的合理化检验,一般使用下面这个方法
isinstance(a,torch.FloatTensor)
# 输出:Ture

# 不常使用的
# print(type(a))

再讲述一下pytorch默认类型的问题,以及设置默认类型的问题:

pytorch中使用tensor创建的张量默认类型为双精度类型

print(torch.tensor([1.2,3]).type())
# out:torch.DoubleTensor
# 设置默认类型:
torch.set_default_tensor_type(torch.FloatTensor)
print(torch.tensor([1.2,3]).type())
# out:torch.FloatTensor

dim

 注:tensor里面包含的就是具体的数据。

size()&shape&dim()

我觉得进行下面的学习之前,应该先搞明白size,shape,dim的概念。

shape是一个属性,在使用的时候不用加括号;size()是一个方法。其实shape和size()的作用是一样的,但是shape是numpy中array和pytorch中的tensor通用的size()只能用在tensor上。

dim()方法是计算维度的,效果和len(a.shape)一样。

a = torch.tensor([[1,2,3,0],[4,5,7,9],[7,8,5,3]])
print("shape:",a.shape)
# out:shape: torch.Size([3, 4])
print("dim:",a.dim())
# out:dim: 2
print("size:",a.size())
# out:size: torch.Size([3, 4])

 创建Tensor

1、import from numpy

# 创建Tensor
# eg1
import numpy as np
a = np.array([2,3.3])           # 先使用numpy创建dim 1  size 2 的向量
print(torch.from_numpy(a))      # 导入 
# out:tensor([2.0000, 3.3000])
#eg2
a = np.ones([2,3])              # 先使用np直接创建一个维度为2,size为3的向量
print(torch.from_numpy(a))
# out:tensor([[1., 1., 1.],
#         [1., 1., 1.]])

2、import from List

当时数据量不是很大的时候就可以使用此方法。直接使用List方法tensor接受现有数据,Tensor接受数据的维度,也可以接受现有数据。

print(torch.tensor([2.,3.2]))
# out:tensor([2.0000, 3.3000])
print(torch.tensor([[2.,3.2],[1.,22.369]]))
# out:tensor([[ 2.0000,  3.2000],
#         [ 1.0000, 22.3690]])
print(torch.FloatTensor([2.,3.2]))              # 接收数据
# out:tensor([2.0000, 3.3000])
print(torch.FloatTensor(2,3))                   # 接受维度
# out:tensor([[-2.9315e-03,  1.0272e-42, -1.5882e-23],
#         [ 2.1500e+00,  0.0000e+00,  1.8750e+00]], dtype=torch.float32)
print(torch.Tensor([2.,3.2]))
# out:tensor([2.0000, 3.3000])

但是一般在使用的时候会使用 tensor专门接受现有数据,Tensor专门接受数据的维度,这样不容易搞混。

3、uninitialized

当需要未初始化数据的时候可以使用以下几种方法。

# 以下方法生成的数据非常的不规律,需要使用数据进行覆盖
print(torch.empty(2))              # 生成一个未初始化长度为1的数据
# out:tensor([1.2697e-321, 4.9407e-324])
print(torch.Tensor(2,3))
# out:tensor([[4.9407e-324, 4.9407e-324, 4.9407e-324],
#         [4.9407e-324, 4.9407e-324, 4.9407e-324]])
print(torch.IntTensor(2,3))
# out:tensor([[-1153427456,         733,   -81441600],
#         [ 1072143930,  -588085446,  1071206672]], dtype=torch.int32)
print(torch.FloatTensor(2,3))
# out:tensor([[-2.9309e-03,  1.0272e-42, -8.5829e+35],
#         [ 1.8095e+00, -5.4613e+17,  1.6978e+00]], dtype=torch.float32)

4、rand/rand_like,randint

随机初始化,也是推荐最常使用的。

print(torch.rand(3,3))              # rand()方法随机产生0-1的数据,此时产生一个3*3的二维张量(第一维长度为3,第二维长度为3)
# out:tensor([[0.0664, 0.6562, 0.3293],
#         [0.4063, 0.8417, 0.0114],
#         [0.0279, 0.3318, 0.5429]])
a = torch.rand(3,3)
print(torch.rand_like(a))           # 作用:接受的是一个shape,会将a的shape直接读出来,再传入rand()方法
# out:tensor([[0.5812, 0.8895, 0.3767],
#         [0.3151, 0.2174, 0.5673],
#         [0.4537, 0.9913, 0.7640]])
print(torch.randint(1,10,[3,3]))    # randint()方法只能随机产生整数,此时产生一个所有元素都位于1-10的3*3的二维张量
# out:tensor([[7, 1, 3],
#         [2, 2, 8],
#         [2, 8, 6]])

如果想要均匀采样0-10的tensor,要使用x = 10*torch.rand(d1,d2),randint()只能采样整数。 

5、randn

会产生正态0,1分布的随机数。

print(torch.randn(3,3))
# out:tensor([[ 0.9438,  0.8224, -0.9046],
#         [-0.0314,  1.2954, -0.6943],
#         [ 1.0301, -0.3824, -1.0747]])
print(torch.normal(mean=torch.full([10],0.), std=torch.arange(1,0,-0.1)))
# out:tensor([-0.4060, -0.5174,  0.1747, -0.7274, -0.0309,  0.4580, -0.6965, -0.2976,
#         -0.1198,  0.0581])

normal(mean, std, *, generator=None, out=None)

返回值:一个张量,张量中每个元素是从相互独立的正态分布中随机生成的。每个正态分布的均值和标准差对应着mean中的一个值和std中的一个值。

注意:张量mean和std的形状不一定相同,但是元素个数必须相同。如果二者形状不一致,返回张量的形状和mean的一致

generator=None:用于采样的伪随机数发生器

out:输出张量的形状

6、full

print(torch.full([2,3],7))      # 创建一个全为7的2*3二维向量
# out:tensor([[7, 7, 7],
#         [7, 7, 7]])
print(torch.full([],7))         # 创建一个全为7的标量
# out:tensor(7)
print(torch.full([2],7))        # 创建一个全为7的1*2一维向量
# out:tensor([7, 7])

7、arange/range

生成递增、递减等差数列的API。

print(torch.arange(0,10))       # 生成一个从0开始,不到10的等差数列
# out:tensor([0, 1, 2, 3, 4, 5, 6, 7, 8, 9])
print(torch.arange(0,10,2))
# out:tensor([0, 2, 4, 6, 8])
print(torch.range(0,10))        # 不推荐使用这个
# out:tensor([ 0.,  1.,  2.,  3.,  4.,  5.,  6.,  7.,  8.,  9., 10.])
# C:\Users\Lenovo\AppData\Local\Temp\ipykernel_10204\2132562954.py:3: UserWarning: torch.range is deprecated and will be removed in a future release because its behavior is inconsistent with Python's range builtin. Instead, use torch.arange, which produces values in [start, end).
#   print(torch.range(0,10))

8、linspace/logspace

生成一个等差的数列。

print(torch.linspace(0,10,steps=4))         # 后面的数是指生成元素的个数
# out:tensor([ 0.0000,  3.3333,  6.6667, 10.0000])
print(torch.linspace(0,10,steps=10))
# out:tensor([ 0.0000,  1.1111,  2.2222,  3.3333,  4.4444,  5.5556,  6.6667,  7.7778,
#          8.8889, 10.0000])
print(torch.linspace(0,10,steps=11))
# out:tensor([ 0.,  1.,  2.,  3.,  4.,  5.,  6.,  7.,  8.,  9., 10.])
print(torch.logspace(0,-1,steps=10))        # 生成10个10的0次方到10的-1次方的数
# out:tensor([1.0000, 0.7743, 0.5995, 0.4642, 0.3594, 0.2783, 0.2154, 0.1668, 0.1292,
#         0.1000])
print(torch.logspace(0,1,steps=10))
# out:tensor([ 1.0000,  1.2915,  1.6681,  2.1544,  2.7826,  3.5938,  4.6416,  5.9948,
#          7.7426, 10.0000])

9、Ones/zeros/eye

生成全0,全1,是对角矩阵的。

print(torch.ones(3,3))      # 生成一个全一3*3的二维张量
# out:tensor([[1., 1., 1.],
#              [1., 1., 1.],
#              [1., 1., 1.]])
print(torch.zeros(3,3))     # 生成一个全零3*3的二维张量
# out:tensor([[0., 0., 0.],
#             [0., 0., 0.],
#             [0., 0., 0.]])
print(torch.eye(3,4))       # 生成一个近似对角矩阵
# out:tensor([[1., 0., 0., 0.],
#         [0., 1., 0., 0.],
#         [0., 0., 1., 0.]])
print(torch.eye(3))         # 生成一个对角矩阵
# out:tensor([[1., 0., 0.],
#         [0., 1., 0.],
#         [0., 0., 1.]])
a=torch.zeros(3,3)
print(torch.ones_like(a))
# out:tensor([[1., 1., 1.],
#         [1., 1., 1.],
#         [1., 1., 1.]])

10、randperm

随机打散

print(torch.randperm(10))       # 随机生成一个0-9长度为10的索引
a=torch.rand(2,3)
b=torch.rand(2,2)
idx=torch.randperm(2)
print(idx)
print(idx)
print(a[idx])                   # 这个必须和下面一句idx保持一致
print(b[idx])
print(a,b)

补充

如果a=tensor([[[0.0787, 0.8906, 0.0690], [0.1323, 0.5660, 0.2708]]]),a[0] = tensor([[0.0787, 0.8906, 0.0690], [0.1323, 0.5660, 0.2708]]),获取a中第0个元素,就是第一维度的第0个元素;a[0][0]=tensor([0.0787, 0.8906, 0.0690]),获取a中第二维度的第0个元素的第0个元素。

a = torch.randn(2,3)
print(a)
# out:tensor([[ 1.7312,  1.8919,  0.3483],
#         [ 0.6409,  1.5857, -1.4704]])
print(a.shape)          # 获取tensor的具体形状
# out:torch.Size([2, 3])
print(a.size(0))        # 获取shape的第0个元素
# out:2
print(a.size(1))        # 获取shape的第1个元素
# out:3
print(a.shape[1])       # 获取shape的第1个元素,但是注意括号的区别
# out:3
tensorData.numel()  # 具体占用内存大小

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1526341.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

粤嵌6818开发板通过MobaXterm使用SSH连接开发板

链接:https://pan.baidu.com/s/18ISP4Ub1HtQx6jCvTQTUHw?pwdfjmu 提取码:fjmu 1.把SSH_config.tar.bz 下载到开发板中 2.解压 SSH_config.tar.bz 解压命令:tar -xzvf SSH_config.tar.bz 3.配置SSH 进入SSH/openssh目录&am…

【深度长文】聊一聊 Java AbstractQueuedSynchronizer 以及在 ReentrantLock 中的应用

文章目录 AQS 原理简述内部数据结构公平锁 vs. 非公平锁ReentrantLock 非公平锁ReentrantLock 公平锁 AQS 源码分析加锁过程addWaiteracquireQueuedshouldParkAfterFailedAcquirecancelAcquire 解锁过程unparkSuccessor AbstractQueuedSynchronizer (AQS) 是 Java 并发包中&…

【Qt问题】解决已经下载好的qt怎么添加或卸载其他组件

问题描述: 使用一段时间Qt以后发现需要用到某个组件,比如Qt Webengine这个组件等,而此时我又不可能把Qt卸载了,重新安装一次。 解决办法: 其实Qt提供了安装或卸载其他组件的方式,以下是操作步骤&#xff…

nuxt3项目总结

nuxt3项目总结 仓库 前言 大半年的时间,项目从秋天到春天,从管理后台到APP再到数据大屏,技术栈从vue3到uniApp再到nuxt3,需求不停的改,注释掉代码都快到项目总体的三分之一。 一、准备-搭建项目架子 1.1 创建一个…

windows无法启动HV主机服务 服务(位于本地计算机上) 错误 1068:依赖服务或组无法启动

背景: LZ本地装了VMware Workstation虚拟机,里面装了Oracle, 又在Docker里装了PostgreSQL, 操作系统是Windows10 专业版 如果启动VM,就报这个错Device/Credential Guard 不兼容 参考这个博客,就可以解决 与Device/Credetial Guard不兼容 我用到的是方法二, 但是想用Docker时, …

吴恩达机器学习笔记 二十四 决策树模型 学习过程 什么时候停止分裂 如何选择结点特征

案例:识别小猫,上面这个分类的特征 x 采用分类值(几个离散的值) 决策树最顶端的结点称根结点(root node),除了根结点和叶子结点之外的叫决策结点(decision node),最底层的叫叶子结点(leaf node)&#xff0c…

JVM的双亲委派模型和垃圾回收机制

jvm的作用是解释执行java字节码.java的跨平台就是靠jvm实现的.下面看看一个java程序的执行流程. 1. jvm中的内存区域划分 jvm也是一个进程,进程在运行过程中,要行操作系统申请一些资源.这些内存空间就支撑了后续java程序的执行. jvm从系统申请了一大块内存,这块内存在java程序使…

蓝桥杯2022年第十三届省赛真题-选数异或

solution1&#xff08;55/100 只保留最后一次的位置&#xff0c;其实有点问题&#xff0c;能骗一点分数 #include<iostream> #include<map> using namespace std; const int maxn 1e5 10; int a[maxn]; int main(){int n, m, x, l, r, t, flag;map<int, int…

知识分享:宣传海报中的APP下载二维码如何制作?

近期&#xff0c;在北京地铁西直门站内&#xff0c;出现了一组十分醒目的海报&#xff0c;海报上加大、加粗的趣味文字深深地共情了每一个苦命的打工人。 比如&#xff1a; 查询我的精神状态 老板画的饼有多大&#xff1f; 为什么早上的会那么好睡&#xff1f; 再比如&#x…

云计算与APP开发,如何利用云端服务提升应用性能?

随着移动应用程序&#xff08;APP&#xff09;的普及&#xff0c;如何提升应用性能成为了开发者们关注的重点之一。而云计算技术的发展为APP开发者提供了全新的解决方案。本文将探讨云计算与APP开发的结合&#xff0c;以及我们公司提出的解决方案&#xff0c;帮助开发者利用云端…

人工智能如何撬动新质生产力发展?

全国两会期间&#xff0c;“新质生产力”成为高频词&#xff0c;引发高度关注。新质生产力是由技术革命性突破、生产要素创新性配置、产业深度转型升级催生的当代先进生产力。而人工智能被视为形成新质生产力的重要引擎。 随着人工智能&#xff08;AI&#xff09;技术跨越奇点…

24.2 SpringCloud电商进阶开发

24.2 SpringCloud电商进阶开发 1. 定时任务1.1 使用场景1.2 CRON表达式1.3 代码实战*****************************************************************************************************1. 定时任务 1.1 使用场景

数学建模-多目标规划算法(美赛建模)

&#x1f49e;&#x1f49e; 前言 hello hello~ &#xff0c;这里是viperrrrrrr~&#x1f496;&#x1f496; &#xff0c;欢迎大家点赞&#x1f973;&#x1f973;关注&#x1f4a5;&#x1f4a5;收藏&#x1f339;&#x1f339;&#x1f339; &#x1f4a5;个人主页&#xff…

拆解Spring boot:Springboot为什么如此丝滑而简单?源码剖析解读自动装配

&#x1f389;&#x1f389;欢迎光临&#xff0c;终于等到你啦&#x1f389;&#x1f389; &#x1f3c5;我是苏泽&#xff0c;一位对技术充满热情的探索者和分享者。&#x1f680;&#x1f680; &#x1f31f;持续更新的专栏《Spring 狂野之旅&#xff1a;从入门到入魔》 &a…

关于Zookeeper分布式锁

背景 之前说到分布式锁的实现有三种 1、基于数据库实现的分布式锁 2、Redis分布式锁 3、Zookeeper分布式锁 前者redis分布式锁博客已具体介绍&#xff0c;此博客最终决定补齐关于Zookeeper分布式锁的实现原理。 简述 Zoopkeeper&#xff0c;它是一个为分布式的协调服务&…

linux下dlib静态库和动态库编译

本文讲述的linux系统下如何编译dlib的静态库和动态库方法。 dlib源码下载地址 dlib官网&#xff1a;dlib C LibraryGitHub - davisking/dlib: A toolkit for making real world machine learning and data analysis applications in C dlib源码的目录结构如下&#xff1a; 编…

某网乱序拼图验证码快速破解还原

注意,本文只提供学习的思路,严禁违反法律以及破坏信息系统等行为,本文只提供思路 本文的验证码网址如下,使用base64解码获得 aHR0cHM6Ly93d3cuZGluZ3hpYW5nLWluYy5jb20vYnVzaW5lc3MvY2FwdGNoYQ== ———————————————— 数据集如下,每张图片会切割成四个部分,…

git基础命令(二)

目录 git revert 撤消上一次提交的更改但是会创建一个新的提交来撤消该提交所做的更改git show 显示提交详细信息git mv 重命名文件git rm 从工作树和索引中移除文件git clean 从工作树中移除未跟踪文件git checkout 将文件恢复到工作树git reset 撤销更改、移动 HEAD 指针以及…

理论学习:with torch.no_grad()

如果不加上“with torch.no_grad():”&#xff0c;模型参数会发生改变吗&#xff1f; 如果不使用with torch.no_grad():&#xff0c;在进行模型推理&#xff08;即计算outputs_cls net(inputs[batch_size//2:])这一步&#xff09;时&#xff0c;模型参数不会发生改变&#xf…

【Godot4.2】求沿任意直线对称的点的坐标

概述 求一个点沿任意直线对称的点的坐标&#xff0c;这是一个简单的初中几何问题&#xff0c;如果用传统的求解思路&#xff0c;就是用公式&#xff0c;解方程组。但是作为Godot的使用者&#xff0c;要深谙向量的魅力。 我们绘制如下的图来分析&#xff1a; 对称轴L可以被理…