Pytorch中对tensor进行reshape的两种常用方法 .view() & .reshape()

介绍

在使用Pytorch时,我们经常需要对一些tensor进行形状的改变以满足神经网络对输入数据的维度要求,我们最常用的两种方式就是.view() 以及 .reshape(), 除此之外,还有一种方法是.resize_(), 这种方法不仅可以改变数据的形状,同时还可以做到数据的部分截取。

在这篇博文中,我会将前两种方式,即.view().reshape(),作为主要的介绍对象。

1.view()

我们通过调用.view()方法返回的结果是原始张量数据的另一个视图,即返回的张量与原始张量共享基础数据(但是不是共享内存地址!)。同时当我们使用.view()对原始张量进行reshape, 一个必要的条件是原始的张量必须在内存空间中连续分布(contiguous)。比如当我们在调用.view()方法前使用了诸如.permute() 或者.transpose()等张量维度调换的操作,就会产生该张量在内存空间分布不连续的情况,从而当我们进行.view()操作时,Pytorch会报如下错误

RuntimeError: view size is not compatible with input tensor's size and stride (at least one dimension spans across two contiguous subspaces). Use .reshape(...) instead.

当我们遇到如上情况时,我们可以先将tensor进行tensor.contiguous()变换后再进行.view(),这样就不会报错了。或者也可以用.reshape()方法来代替.view()方法,同样也是可以的。下面我们就来看一看.reshape()方法。

2.reshape()

从作用上来说,.reshape()方法和.view()方法是一致的,都是想要在不改变数据总量的情况下改变原有张量的形状。但是正如前文所说,使用.view()方法进行形状重构需要保证原始tensor在内存空间中分布连续,不然无法进行重构。而.reshape()方法却不需要这个条件,因为.reshape()方法既可以返回原始tensor的视图(view)也可以返回原始tensor的一个copy, 具体哪种情况取决于这个原始tensor的内存空间分布是否连续。即如果发现这个原始tensor因为经过.permute().transpose()等操作变得在内存空间不连续,那么.reshape()方法会返回copy,而如果是正常情况,使用.reshape()也和.view()一样返回view。

以上是我的个人理解,如果存在错误欢迎大家批评指正。

你可能感兴趣的:(Pytorch,Pytorch,tensor,reshape)