一、张量拼接与切分
1.1 torch.cat()
功能:将张量按维度dim进行拼接
torch.cat(tensors,dim=0,out=None)
import torch
t=torch.ones((2,3))
t_0=torch.cat([t,t],dim=0)
t_1=torch.cat([t,t],dim=1)
t_2=torch.cat([t,t,t],dim=2)
print("t_0:{} shape:{}\nt_1:{} shape:{}".format(t_0,t_0.shape,t_1,t_1.shape))
结果:t_0返回 4x3 张量
t_1返回 2x6 张量
t_2 2x9
1.2 torch.stack()
功能:在新创建的维度dim上进行拼接
torch.stack(tensors,dim=0,out=None)
代码示例
t=torch.ones((2,3))
t_stack1=torch.stack([t,t],dim=2)
t_stack2=torch.stack([t,t],dim=0)
t_stack3=torch.stack([t,t,t],dim=0)
print('\nt_stack:{} shape:{}'.format(t_stack,t_stack.shape))
结果:
t_stack1 返回 2x3x2 ([[[1,1],[1,1],[1,1]],[[1,1],[1,1],[1,1]]])
t_stack2 返回 2x2x3 ([[[1,1,1],[1,1,1]],[[1,1,1],[1,1,1]]])
t_stack3 返回 3x2x3 ([[[1,1,1],[1,1,1]],[[1,1,1],[1,1,1]],[[1,1,1],[1,1,1]]])
1.3 torch.chunk()
功能:将张量按维度dim进行平均切分
返回值:张量列表
注意事项:若不能整除,最后一份张量小于其他张量
torch.chunk(input,chunks,dim=0)
代码实现
a=torch.ones((2,5))
list_of_tensors=torch.chunk(a,dim=1,chunks=2)
for idx,t in enumerate(list_of_tensors):
print('第{}个张量,shape is {}'.format(idx+1,t,t.shape))
#结果:(2,5)返回两个张量,第一个2x3,第二个2x2
#(2,7)2x3,2x2,2x2
1.4 torch.split()
功能:将张量按维度dim进行切分
返回值:张量列表
torch.split(tensor,
split_size_or_sections,
dim=0)
t=torch.ones((2,5))
list_of_tensors=torch.split(t,[2,1,2],dim=1)
for idx,t in enumerate(list_of_tensors):
print('第{}个张量,shape is {}'.format(idx+1,t,t.shape))
#[2,1,2] 求和等于指定维度长度
二、张量索引
2.1 torch.index_select()
功能:在维度dim上,按index索引数据
返回值:依index索引数据拼接的张量
t=torch.randint(0,9,size=(3,3))
idx=torch.tensor([0,2],dtype=torch.long)#torch.long 64位整型
t_select=torch.index_select(t,dim=0,index=idx)#索引第0维度上的第0个和第2个
print('t:\n{}\nt_select:\n{}\n'.format(t,t_select))
2.2 torch.masked_select()
功能:按mask中的True进行索引
返回值:一维张量
t=torch.randint(0,9,size=(3,3))
mask=t.ge(5)#ge 大于等于 gt大于 le小于等于 lt小于
t_select=torch.mask_select(t,mask)#索引第0维度上的第0个和第2个
print('t:\n{}\nmask:\nt_select:\n{}\n'.format(t,mask,t_select))
#t_select 一维张量 大于等于5的数
三、张量变换
3.1 torch.reshape()
功能:变换张量形状
注意事项:当张量在内存中是连续时,新张量与input共享数据内存
t=t.torch.randperm(8)#生成从0到n-1的随机排列
t_reshape=torch.reshape(t,(2,4))#(-1,4)-1这个维度不关心 通过8/4得到
print('t:{}\nt_reshape:\n{}'.format(t,t_shape))
t[0]=1024
print('t:{}\nt_reshape:\n{}'.format(t,t_shape))
print('t.data 内存地址:{}'.format(id(t.data)))
print('t_reshape.data内存地址:{}'.format(id(t_reshape.data)))
#结果 地址一样 内存共享
3.2 torch.transpose()
功能:交换张量的两个维度
t=torch.rand((2,3,4))#在区间[0,1),生成均匀分布
t_transpose=torch.transpose(t,dim0=1,dim1=2)
print('t.shape:{}\nt_transpose.shape:{}'.format(t.shape,t_transpose.shape))
#[2,3,4]转为[2,4,3]
3.3 torch.t()
功能:2维张量转置,对矩阵而言,等价于torch.transpose(input,0,1)
3.4 torch.squeeze()
功能:压缩长度为1的维度(轴)
t=torch.rand((1,2,3,1))
t_sq=torch.squeeze(t)
t_0=torch.squeeze(t,dim=0)
t_1=torch.squeeze(t,dim=1)
print(t.shape)#torch.Size([1,2,3,1])
print(t_sq.shape)#torch.Size([2,3])
print(t_0.shape)#torch.Size([2,3,1])
print(t_1.shape)#torch.Size([1,2,3])