Pytorch张量的主要方法之间的区别(Tensor、tensor、from_numpy、as_tensor)

Pytorch张量的主要方法之间的区别(Tensor、tensor、from_numpy、as_tensor)_第1张图片

 

Pytorch张量是torch.tensor  Pytorch类的实例

一个张量的抽象概念和一个Pytorch张量的区别在于Pytorch张量给了我们一个具体的实现,我们可以使用和编码它。

如上图,使用了四个不同的方法构造张量,并检查了他们的dtype。

t1与t2的唯一区别在于方法名中t的大小写,大写字母T(Tensor)是类构造函数,第二种小写是工厂函数。

torch.as_tensor 和 torch.from_numpy 也是工厂函数

 

构造函数在构造一个张量时使用全局缺省值,而工厂函数则根据输入推断数据类型。通过torch.get_default_dtype()可以查看dtype的全局缺省值是float32。

工厂函数是根据传入的数据选择一个dtype。如下图所示:

Pytorch张量的主要方法之间的区别(Tensor、tensor、from_numpy、as_tensor)_第2张图片

 

修改数组值,但不修改张量,如下:

Pytorch张量的主要方法之间的区别(Tensor、tensor、from_numpy、as_tensor)_第3张图片

 

t1和t2不受数组改变的影响;

t3和t4,两个张量包含了更改后数组中的相同数据。t3和t4可以映射数组的情况。

这种差异是由每个创建选项中分配内存的方式造成的。

t1和t2在内存中创建一个额外的数据副本,t3和t4是数组在内存中共享数据。不同之处就是在于对内存的共享。

torch.as_tensor()和torch.from_numpy()  函数使得numpy数组与Pytorch张量之间切换可以非常快,因为创建新的Pytorch张量时,数据是共享的,而不是后台复制的。共享数据比复制数据更有效使用更少的内存。因为数据没有写到内存中的两个位置,而是只有一个位置。

 

 

我们应该使用哪一种呢???

torch.tensor()是经常使用的。如果想做内存优化,使用torch.as_tensor(),这个为什么要比torch.from_numpy()好呢?

因为,torch.as_tensor()函数可以接受任何像Python数据结构这样的数组。

 

 

 

 

 

 

 

你可能感兴趣的:(pyTorch,深度学习)