本文转载自@shuqiaoS大佬在脚本之家发布的文章。
Python查看Tensor尺寸及查看数据类型的实现_python_脚本之家 (jb51.net)
查看Tensor尺寸及查看数据类型
Pytorch基本数据类型Tensor
查看Tensor的尺寸&查看数据类型
# x.shape
input = torch.randn(20,16,50,32)
input.shape
input.type()
注意,在shape后面不要加括号,否则会报错。
Python 和 Pytorch 数据类型对应
Python | Pytorch |
Int | IntTensor of size() |
float | FloatTensor of size() |
Int array | IntTensor of size[d1,d2,...] |
Float array | FloatTensor of size[d1,d2,...] |
string | -- |
以上数据存储在CPU中
如果使用.cuda()会返回一个GPU上的引用。
import torch
a = torch.tensor([1,2])
c=a.cuda
print("\n a:",a)
print("\n c:",c)
print("\n type c:",type(c))
创建tensor的方法
import torch
import numpy
a = numpy.array([1,2,3,4])
b = torch.from_numpy(a)
print(b)
c = torch.tensor([1,2,3,4])
print(c)
d = torch.Tensor([4,5,6,7])
print(d)
e = torch.Tensor(2,3)
print(e)
一些常用的生成tensor方法
import torch
a = torch.rand(3, 3) # 生成指定大小的,元素范围[0,1]的tensor
print(a)
b = torch.rand_like(a) # 生成与对象tensor大小一致的tensor
print(b)
c = torch.randint(1,10,(3,3)) # 生成(3,3)大小,[1,10)范围的tensor(整型)
print(c)
d = torch.randn(2, 4) # 生成均值为0,方差为1的随机tensor
print(e)
f = torch.arange(0, 10) # 生成顺序tensor
print(f)
g = torch.linspace(0, 9, steps=8)# 生成[0,9],等分成8个tensor
print(g)
print(torch.ones(3,1),
torch.zeros(4,5),
torch.eye(6)) # 生成全1,全0,单位矩阵tensor
tensor的切片与索引
import torch
a = torch.rand(3, 7) #生成指定大小的,元素范围[0,1]的tensor
print(a)
print("*"*100)
print(a[0]) #取一行
print("*"*100)
print(a[:2,4:]) #指定一块子区域
print("*"*100)
print(a[:,2]) #取一列
print("*"*100)
print(a[:,0:7:2]) #[0,7]行隔2行取样
print("*"*100)
print(a.index_select(1,torch.tensor([2,6]))) #指定切片位置
print("*"*100)
mask = a.ge(0.8)
print(torch.masked_select(a,mask)) #通过掩码条件切片(注意切片后会被flatten)
print(mask) #看看mask矩阵
tensor的维度变换
import torch
a = torch.rand(3,4,2) # 生成指定大小的,元素范围[0,1]的tensor
print(a)
# view方法:变换tensor的形状
print(a.view(3,8)) # 压缩维度
print(a.view(3,2,2,2)) # 扩展维度
# unsqueeze方法:在制定地方插入一维
print(a.unsqueeze(1))
# squeeze方法会消除一维(只有在原维度为1时才有用)
print(a.squeeze(1))
b = torch.rand(3,1,2) # 生成指定大小的,元素范围[0,1]的tensor
print(b.squeeze(1))
tensor的叠加和分割
import torch
# cat操作
a = torch.rand(4,1,3)
b = torch.rand(3,1,3)
c = torch.cat((a,b)) # 合并tensor(其它dimension必须一致)
print(c)
print(c.shape)
# stack 操作
d = torch.rand(4,1)
e = torch.rand(4,1)
f = torch.stack((d,e)) # 合并tensor,与cat不同的是,stack会增加一个更高的维度
print(f)
print(f.shape)
g = torch.rand(5,2,1)
h,i = g.split([1,4])
print(h)
print(i)
tensor 的数学运算
import torch
a = torch.zeros(4,3)
b = torch.ones(3)
# print(a+b) # 会报错
# print(torch.add(a,b)) # 结果全是1,broadcast运算逻辑
c = torch.tensor([1,2,3],[4,5,6],[7,8,9])
d = torch.eye(3)
# print(torch.add(c,d))
# print(c+d)
# print(c*d)
# print(c/d)
# print(c**2)
# print(c**0.5)
#矩阵乘法
print(torch.matmul(torch.ones(3,3),torch.ones(3,3)))
print(torch.ones(3,3)@torch.ones(3,3)) # 用@的效果是一样的
# 高维度的矩阵相乘
e = torch.rand(4,3,2,3)
f = torch.rand(4,3,3,5)
g = e@f
print(g)
print(g.shape) # 可以看到,本质上也是二维矩阵相乘的规律
#clamp算法
print(c.clamp(4)) # 把小于4的值全部都替换为4
tensor 的统计相关操作
import torch
#norm方法(求范数)
a = torch.arange(10,dtype=float)
b = a.view(2,5)
print(a.norm(1))
print(b.norm(1))
print(a.norm(2,dtype=float)) #同理求二范数
print(b)
print(b.norm(1,dim=1,dtype=float)) #求指定维度的范数
#求最大、最小、平均、求和
print(a.sum())
print(a.min())
print(a.max())
print(a.mean())
#top N的值
c = torch.tensor([1,2,3,3,4,4,4,5,5,5,5,6,8,8],dtype=float)
print(c.topk(3))
print(c.topk(3, largest=False)) #找到前N最小的值
print(c.kthvalue(4)) #找到第k小的值
#比较
print(a>4)
print(a!=8)
#where
cond = torch.tensor([[1,2],[3,4]],dtype=float) #用where组合2个tensor
d = torch.zeros(2,2)
e = torch.ones(2,2)
print(torch.where(cond>2,d,e))