对不起我脑子不太记事儿每次变换都得想想想所以干脆汇总一下算了,当然也有一些不是torch包里面的但是没有关系hhh 官方文档里有一堆不太常用的,这里整理的都是自己比较常用的
torch.zeros(10,4)就是创建[10,4]的全零张量
torch.stack(tensors, dim=0, out=None)
tensors
:要堆叠的输入张量的列表或元组。dim
:指定要堆叠的新维度的索引。默认是0。out
:可选参数,用于指定结果张量的输出e.g
假设我们有两个张量 tensor1
和 tensor2
,它们的形状都是 (3, 4)
,并且我们想将它们堆叠在一个新的维度上,创建一个新的形状为 (2, 3, 4)
的张量。
# 创建两个张量
tensor1 = torch.tensor([[1, 2, 3, 4], [5, 6, 7, 8], [9, 10, 11, 12]])
tensor2 = torch.tensor([[-1, -2, -3, -4], [-5, -6, -7, -8], [-9, -10, -11, -12]])
# 使用torch.stack将它们堆叠在一个新的维度上
stacked_tensor = torch.stack((tensor1, tensor2), dim=0)
torch.transpose(input, dim0, dim1)
input
:要进行维度交换的输入张量。dim0
:要交换的第一个维度的索引。dim1
:要交换的第二个维度的索引。假设我们有一个形状为 (3, 4)
的张量,现在想要交换它的维度,创建一个新的张量,使其形状为 (4, 3)
。
# 创建一个形状为 (3, 4) 的张量
input_tensor = torch.tensor([[1, 2, 3, 4], [5, 6, 7, 8], [9, 10, 11, 12]])
# 使用 torch.transpose 进行维度交换
transposed_tensor = torch.transpose(input_tensor, 0, 1)
# 开始,结尾,间隔;和索引比较像
arr = torch.arange(10,100,10) #[10, 20, 30, 40, 50, 60, 70, 80, 90]
根据提供的x,y轴的范围得到一张网格的里面的点的xy坐标
new_tensor = torch.unsqueeze(input, dim)
input
是要插入新维度的输入张量。dim
是要插入新维度的位置,通常是一个非负整数。y = torch.tensor([[1, 2], [3, 4],[5, 6]]) # torch.Size[3,2]
y_new_1 = torch.unsqueeze(y, 0) #torch.Size[1, 3, 2]
y_new_2 = torch.unsqueeze(y, 1) # torch.Size[3, 1, 2]
y_new_3 = torch.unsqueeze(y, 2) # torch.Size[3, 2, 1]
[:, :, :None]最后一维扩一维
A;2d,B:1d B[i*cols+j] = A[i,j] 把二阶张量变成一阶
permute(): 矩阵转置
x = torch.tensor([1.0, 2.0, 3.0])
exp_x = torch.exp(x) # [e^1.0, e^2.0, e^3.0]
tensor[idx]:根据索引获取张量中的元素。
tensor[start:end]:切片操作。
tensor[:, 1]:选取指定列。
tensor[condition]:使用布尔条件进行索引。
torch.autograd.Variable:创建自动求导的变量。
backward():计算梯度。
grad:访问梯度值。
no_grad():上下文管理器,用于禁用梯度计算。
将张量封装为 torch.nn.Parameter
对象后,它会被自动注册为模型的可训练参数,并在反向传播(backpropagation)期间更新它的值。这对于构建神经网络模型非常有用,因为神经网络的权重和偏置通常需要在训练期间进行优化。
# 创建一个普通的张量
tensor_data = torch.tensor([1.0, 2.0, 3.0])# 将张量包装为一个模型参数·1
parameter = nn.Parameter(tensor_data)# 打印参数
print(parameter) #Parameter containing: tensor([1., 2., 3.], requires_grad=True)
一起使用的是register_buffer
用于将张量注册为模型的缓冲区(buffer)
注册为缓冲区的张量不会被视为模型的可训练参数,也不会在反向传播期间更新。它们用于保存模型的固定状态信息,例如统计信息(均值、方差等)、预训练的权重或任何其他不需要进行梯度更新的张量。
register_buffer
的主要作用是将这些张量添加到模型的状态字典中,以便在保存和加载模型时一并保存和加载。这对于确保模型的一致性和可重现性非常有用。
class CustomModel(nn.Module):
def __init__(self):
super(CustomModel, self).__init__()
# 创建一个常量张量作为缓冲区
self.register_buffer('constant_tensor', torch.tensor([1.0, 2.0, 3.0]))
# 创建模型实例
model = CustomModel()
# 打印模型缓冲区
for name, buffer in model.named_buffers():
print(name, buffer)