刚接触深度学习的同学,很多开源项目代码中,张量tensor与数组array都有使用,不清楚两者有什么区别,以及怎么使用,如何相互转换等。博主起初也有类似的疑惑,经过查阅资料以及实践,逐渐有了深入了解,本文将记录并分享自己对两者的理解,可供参考。
提示:以下是本篇文章正文内容,下面案例可供参考
torch.Tensor()也就是torch.FloatTensor()的另一种简写,torch.Tensor()会生成**单精度浮点类型(32位)**的张量,如下所示:
#使用torch.FloatTensor()定义一个张量,查看类型
>>> import torch
>>> I = torch.Tensor([2, 3])
tensor([2., 3.])
>>> I.type()
'torch.FloatTensor'
>>>
与torch.Tensor()同级类似的还有torch.IntTensor(),torch.LongTensor(),torch.DoubleTensor(),分别为短整型、长整型、双精度浮点型(64位)。
torch.tensor()中的数据类型决定生成张量的类型,如下所示:
>>> I = torch.tensor([2, 3])
>>> I.type()
'torch.LongTensor'
>>>
>>> I = torch.tensor([1., 2.])
>>> I.type()
'torch.FloatTensor'
>>>
可以通过torch.set_default_tensor_type(t)设置默认的tensor类型,如要使用torch.tensor()建立一个双精度浮点类型的张量,如下所示:
>>> torch.set_default_tensor_type(torch.DoubleTensor) #指定默认类型
>>> torch.tensor([1.2, 3]).dtype
torch.float64
在深度学习pytorch框架中,torch.tensor是存储和变换数据的重要工具。在torch中,为tensor计算提供了GPU加速、梯度自动求导等功能,这使得深度学习这种拥有庞大计算量的工程提高了计算效率,可以说torch.tensor专为深度学习设计的。
numpy产生的数组类型为numpy.ndarray,
1、与torch.tensor()不同,另外打印数组类型的方式也有区别,umpy中没有x.type()的用法,只能使用type(x);
2、numpy.ndarray类型的数据只能放在cpu中计算,而tensor可以放在GPU计算,也可以CPU计算。如下所示:
>>> import numpy as np
>>> A = np.array([[1, 2], [2, 4]])
>>> A
array([[1, 2],
[2, 4]])
>>> type(A)
<class 'numpy.ndarray'>
>>>
Pytorch中的Tensor又包括CPU上的数据类型和GPU上的数据类型,两种数据类型之间也可以进行相互转换。
训练时,我们需要先把图像数据读取转换为np.array()类型的数组,然后把np.array()转换为torch.tensor,用于深度学习训练加速。我们使用**numpy()和from_numpy()**将Tensor和NumPy中的数组相互转换。
注意这两个函数所产生的的Tensor和NumPy中的数组共享相同的内存(所以他们之间的转换很快),改变其中一个时另一个也会改变,
还有一个常用的将NumPy中的array转换成Tensor的方法就是torch.tensor(),
需要注意的是,此方法总是会进行数据拷贝(就会消耗更多的时间和空间),
所以返回的Tensor和原来的数据不再共享内存。
代码如下(示例):
>>> a = torch.ones(5)
>>> a
tensor([1., 1., 1., 1., 1.])
>>> a.type()
'torch.FloatTensor'
>>> b = a.numpy()
>>> b
array([1., 1., 1., 1., 1.], dtype=float32)
>>>
代码如下(示例):
>>> a = np.ones(5)
>>> a
array([1., 1., 1., 1., 1.])
>>> type(a)
<class 'numpy.ndarray'>
>>>
>>> b = torch.from_numpy(a)
>>> b
tensor([1., 1., 1., 1., 1.], dtype=torch.float64)
>>>
**注意:该方法总是会进行数据拷贝,返回的Tensor和原来的numpy数据不再共享内存。**验证代码如下:
>>> a = np.ones(5)
>>> a
array([1., 1., 1., 1., 1.])
>>> type(a)
<class 'numpy.ndarray'>
>>>
>>> b = torch.from_numpy(a)
>>> b
tensor([1., 1., 1., 1., 1.], dtype=torch.float64)
>>>
>>> c = torch.tensor(a)
>>> c
tensor([1., 1., 1., 1., 1.], dtype=torch.float64)
>>> a += 1
>>> a
array([2., 2., 2., 2., 2.]) #a的值加1,改变
>>> c
tensor([1., 1., 1., 1., 1.], dtype=torch.float64) #c的值未变,因为是拷贝,不共享内存
>>> b
tensor([2., 2., 2., 2., 2.], dtype=torch.float64) #b的值已经改变,与a的值一样,虽然类型不一样
>>>
本文主要记录介绍torch.tensor与numpy.array之间的区别,以及应用场景,相互转换的方法,讲述了更多的细节,这些知识点在深度学习模型训练中非常有用,属于基础知识。博主后续会继续更新分享深度学习笔记,记录提炼知识点,总结学习经验及项目经验。如果本文对您的理解有帮助,请点赞+关注+收藏!