张量的学习:
张量是一种特殊的数据结构,张量可以在GPU或者其他软件中运行
import torch
import numpy as np
1、直接生成张量
data=[[1,2],[3,4]]
x_data=torch.tensor(data)
注:torch.tensor() 单一数据元素的多维矩阵 当 requires_grad=False 不计算梯度 =True时,计算梯度
2、通过numpy数组来生成张量
np_array=np.array(data)
x_np=torch.from_numpy(np_array)
注:torch.from_numpy( ) 把数组转换成张量,二者可以共享内存
3、通过已有的张量来生成新的张量
x_ones=torch.ones_like(x_data) #保留x_data 的属性
print(f"ones tensor: \n{x_ones}\n")
x_rand=torch.rand_like(x_data,dtype=torch.float) # 重写x_data的数据类型由整形转换为浮点型
print(f"ones tensor: \n{x_rand }\n")
注:torch.one_like() 生成全1的张量
torch.zeros_like() 生成全0的张量
torch.rande_like() 生成随机数填充的张量
4、通过指定的数据维度来生成张量
shape=(2,3,)
rand_tensor=torch.rand(shape)
ones_tensor=torch.ones(shape)
zeros_tensor=torch.zeros(shape)
print(f"Random Tensor:\n{rand_tensor}\n")
print(f"Random Tensor:\n{ones_tensor}\n")
print(f"Random Tensor:\n{zeros_tensor}\n")
注:torch.rand() 生成随机数
tensor=torch.rand(3,4)
print(f"shape of tensor:{tensor.shape}")
print(f"datatype of tensor:{tensor.dtype}")
print(f"device tensor is stored on: {tensor.device}")
5、判断当前环境gpu是否可用,然后将tensor导入GPU中运行
if torch.cuda.is_available():
tensor=tensor.to('cuda')
6、张量的索引与切片
tensor=torch.ones(4,4)
tensor[:,1]=0 #将第一列的数据全部赋值为0
print(tensor)
注:张量的拼接
x1 = torch.tensor([[11,21,31],[21,31,41]],dtype=torch.int)
x1.shape # torch.Size([2, 3])
# x2
x2 = torch.tensor([[12,22,32],[22,32,42]],dtype=torch.int)
x2.shape # torch.Size([2, 3])
'inputs为2个形状为[2 , 3]的矩阵 '
inputs = [x1, x2]
print(inputs)
# x=torch.cat(inputs, dim=0).shape
y=torch.cat(inputs,dim=2)
print(y)
torch.cat(inputs,dim=?) 将一组张量按照指定的维度进行拼接 dim需要进行相应的变换
torch.stack(inputs,dim=?)沿着维度对输入张量序列进行拼接 0<=dim 7、张量的乘法和矩阵的乘法 8、自动的赋值运算 9、Tensor与numpy的转化 10、修改张量的值,则numpy array 数组值也会随之改变 tensor.matmul 两个张量的矩阵乘法t1=torch.cat([tensor,tensor,tensor],dim=1)
print(t1)
# 逐个元素相乘
print(f"tensor.mul(tensor):\n{tensor.mul(tensor)}\n")
# 等价写法
print(f"tensor @ tensor.T:\n{tensor @ tensor.T}\n")
print(tensor,"\n")
tensor.add_(5)
print(tensor)
t=torch.ones(5)
print(f"t:{t}")
n=t.numpy()
print(f"n:{n}")
t.add(1)
print(f"t:{t}")
print(f"n:{n}")
n=np.ones(5)
t=torch.from_numpy(n)
np.add(n,1,out=n)
print(f"t:{t}")
print(f"n:{n}")