有同学后台留言问为什么view
有时可对张量进行形变操作,有时就会报错?另外它和reshape
功能好像一致,有什么区别呢?本文就带你了解PyTorch
中视图的概念。
在PyTorch
中对张量进行形变操作时,很多同学也会使用view
方法,但是经过一系列变化后,你可能会发现你的张量错乱了,而且不能继续形变。或者你可能都不知道你的张量发生了变化,一直在处理错误数据…
tensor.view
方法
该方法可以改变张量结构,生成一个不同结构但共享一个存储空间的张量。也就代表view
是浅拷贝的关系,修改其中一个张量,另一个张量也会同步进行更改。
# 生成一个2行3列的矩阵
t = torch.arange(6).reshape(2, 3)
t
# tensor([[0, 1, 2],
# [3, 4, 5]])
# 将t.view(3, 2)的结果赋值给te
te = t.view(3, 2)
te
# tensor([[0, 1],
# [2, 3],
# [4, 5]])
这时我们对张量t
进行修改,然后我们打印te
,会发现te中的值也发生了变化:
# 对t的0号索引位置进行修改1
t[0] = 1
# 打印te,同步变化
te
# tensor([[1, 1],
# [1, 3],
# [4, 5]])
tensor.view
方法会返回一个“视图”的结果,该结果和原张量对象共享一块数据存储空间,而不会生成一个新的对象,大家在使用时要格外注意。若想生成新的对象,建议使用深拷贝clone
方法。
视图是什么?
视图是数据的一个别称或引用(它们物理内存在同一位置),通过该别称或引用便可访问、操作原有数据,但原有数据不会产生拷贝。如果我们对视图进行修改,它可以改变原始数据,这样就避免了重新创建张量的高内存开销。
与之对应的概念就是副本。副本是一个数据的完整的拷贝,如果我们对副本进行修改,它不会影响到原始数据,因为它们的物理内存不在同一位置。
view
与reshape
的区别
它们功能看似一样,那么两者都存在的意义是什么呢?先给出结论:
view
:只适用于满足连续性条件的Tensor
,并且该操作不会开辟新的内存空间,只是原数据的别称或引用,返回值是视图。reshape
:当Tensor
满足连续性时,与view
方法相同,返回的是视图;当Tensor
不满足连续性时,返回的是副本。
这里的关键词就是连续性
。我们使用代码进行说明:
a = torch.arange(6).reshape(2, 3)
print(a.shape)
# torch.Size([2, 3])
# is_contiguous()判断是否连续
print(a.is_contiguous())
# True
可以看出,在利用torch.arange
函数进行Tensor
创建时,获取的Tensor
元素地址是连续内存空间保存的。如果对的Tensor
进行转置操作:
b = a.permute(1, 0)
print(b.shape)
# torch.Size([3, 2])
print(b.is_contiguous())
# False
我们发现经过转置以后,Tensor
会变成非连续保存类型uncontiguous
。那么,变成非连续保存类型后,就不能使用view
对它进行形变操作,否则就会报错:
b.view(2, 3)
# RuntimeError
但这时我们可以使用reshape
对其进行形变,并且会新开建一块地址进行储存:
c = b.reshape(2, 3)
c
# tensor([[0, 3, 1],
# [4, 2, 5]])
# 改变原始张量a的数据
a[0][1] = 222
a
# tensor([[ 0, 222, 2],
# [ 3, 4, 5]])
# 此时c不会改变
c = b.reshape(2, 3)
c
# tensor([[0, 3, 1],
# [4, 2, 5]])
# 但是b的数据会变,因为b和a还共有同一储存地址
b
# tensor([[ 0, 3],
# [222, 4],
# [ 2, 5]])
是不是很神奇?其实view
可以做的,reshape
都可以做。reshape
相当于先开辟了一个新地址,这个地址储存了和之前数据一样的连续性数据,再进行了view
操作,就是使用contiguous
方法:
# 先开辟一个新地址将数据复制,再进行view操作:
b.contiguous().view(2, 3)
b
# tensor([[0, 3, 1],
# [4, 2, 5]])
reshape
方法的内部执行过程:
- 如果张量是满足连续,那么它就直接调用
view
方法 - 如果张量不连续,就先调用
contiguous
方法进行拷贝,再使用view
方法进行转换
view
的存在可以明确表示对张量的操作只能是视图操作而非拷贝操作。这对于代码的可读性以及后续可能的bug
查找比较友好。
而如果您一定要对张量进行形变,建议直接使用reshape
。
这就是reshape
与view
的区别,还需同学们多多梳理理解,在实际使用时避坑。
Pytorch张量操作大全:
Pytorch使用教学1-Tensor的创建
Pytorch使用教学2-Tensor的维度
Pytorch使用教学3-特殊张量的创建与类型转化
Pytorch使用教学4-张量的索引
Pytorch使用教学5-视图view与reshape的区别
Pytorch使用教学6-张量的分割与合并
Pytorch使用教学7-张量的广播
Pytorch使用教学8-张量的科学运算
Pytorch使用教学9-张量的线性代数运算
Pytorch使用教学10-张量操作方法大总结