Tensor.view(*shape)-->Tensor
- 返回一个新的张量同之前的张量具有相同的数据,但是具有不同的形状;
- 返回的张量同之前的张量共享相同的数据,必须具有相同数目的元素,可能具有不同的形状;
- 对于经过view操作的张量,新的尺寸必须同原始的张量大小和步长兼容;
- 每一个新的观察维度必须或者是一个原始维度的子空间;
- 或者跨越原始维度,满足以下条件:
- 不满足上述条件,在不拷贝原始张量的情况下将不会view成功;
- 当不了解是否一个view可以执行时,推荐使用reshape();
- reshape()返回一个view如果形状是兼容的,且复制原始的张量,等效于调用contiguous();
参数
- shape(torch.Size or int)---要求的尺寸
实例
import torch
x=torch.randn(4,4)
x.size()
#torch.Size([4,4]}
y=x.view(16)
y.size()
#torch.Size([16])
z=x.view(-1,8) #the size -1 is inferred from other dimensions
z.size()
#torch.Size([2,8])
a=torch.randn(1,2,3,4)
a.size()
#torch.Size([1,2,3,4])
b=a.transpose(1,2) #swap 2nd and 3rd dimension
b.size()
#torch.Size([1,3,2,4])
c=a.view(1,3,2,4) #Does not change tensor layout in memeory
c.size()
#torch.Size([1,3,2,4])
torch.equal(b,c)
#Flase
view(dtype)-->Tensor
- 返回一个同原始张量具有相同数据的新张量,但是具有不同的数据类型;
- 如果dtype的单元尺寸不同于原始张量dtype的尺寸;
- 那么输出的最后一个维度的大小将按比例缩放;
- 比如:如果dtype的单元尺寸两倍于原始dtype的单元尺寸;
- 那么原始张量中的最后一个维度中的单元,两两一组进行合并;
- 新张量的最后一个维度的尺寸将会是原始张量的最后一个维度的一半;
- 如果新的张量的dtype单元尺寸是原始张量的dtype单元尺寸的一半;
- 那么原始张量中的最后一个维度将一分为2;
- 新张量的最后一个维度的尺寸将会使原始张量最后一个维度的2倍;
- 以上实例描述可能得话,必须满足以下条件:
- self.dim()必须大于0;
- self.stride(-1)必须为1;
- 还有,如果dtype的单元尺寸大于原始张量的dtype的尺寸,以下条件必须同样满足:
- self.size(-1)必须是对dtype单元尺寸的比率可整除的;
- self.storage_offset()必须是对dtype单元尺寸的比率可整除的;
- 所有维度的步长,除了最后一个维度外,必须是对dtype单元尺寸的比率可整除的;
- 如果以上条件任一不满足,将会出错;
- torchscript不支持上述描述的这种重载,在torchscript中使用将会引起未定义的错误;
参数
- dtype(torch.dtype)---要求的dtype类型
实例
import torch
x=torch.randn(4,4)
x
#tensor([[ 0.9482, -0.0310, 1.4999, -0.5316],
# [-0.1520, 0.7472, 0.5617, -0.8649],
# [-2.4724, -0.0334, -0.2976, -0.8499],
# [-0.2109, 1.9913, -0.9607, -0.6123]])
x.dtype
#torch.float32
y=x.view(torch.int32)
y
# tensor([[ 1064483442, -1124191867, 1069546515, -1089989247],
# [-1105482831, 1061112040, 1057999968, -1084397505],
# [-1071760287, -1123489973, -1097310419, -1084649136],
# [-1101533110, 1073668768, -1082790149, -1088634448]],
# dtype=torch.int32)
y[0,0]=1000000000
x
# tensor([[ 0.0047, -0.0310, 1.4999, -0.5316],
# [-0.1520, 0.7472, 0.5617, -0.8649],
# [-2.4724, -0.0334, -0.2976, -0.8499],
# [-0.2109, 1.9913, -0.9607, -0.6123]])
x.view(torch.cfloat)
# tensor([[ 0.0047-0.0310j, 1.4999-0.5316j],
# [-0.1520+0.7472j, 0.5617-0.8649j],
# [-2.4724-0.0334j, -0.2976-0.8499j],
# [-0.2109+1.9913j, -0.9607-0.6123j]])
x.view(torch.cfloat).size()
#torch.Size([4,2])
x.view(torch.uint8)
# tensor([[ 0, 202, 154, 59, 182, 243, 253, 188, 185, 252, 191, 63, 240, 22,
# 8, 191],
# [227, 165, 27, 190, 128, 72, 63, 63, 146, 203, 15, 63, 22, 106,
# 93, 191],
# [205, 59, 30, 192, 112, 206, 8, 189, 7, 95, 152, 190, 12, 147,
# 89, 191],
# [ 43, 246, 87, 190, 235, 226, 254, 63, 111, 240, 117, 191, 177, 191,
# 28, 191]], dtype=torch.uint8)
x.view(torch.uint8).size()
#torch.Size([4,16])