新建tensor的几种方法
a = torch.FloatTensor([2, 3.3]) # 尽量少用这种方式,容易和给shape的情况看混淆
b = torch.tensor([2, 3.3]) # 现有list时尽量用这种方式
注意小写的tensor只接受现有的数据;而大写的Tensor相当于就是FloatTensor,既可以接收现有的数据,也可以接受shape来创建指定形状的Tensor。
a = np.array([2, 3.3])
a = torch.from_numpy(a) # torch.DoubleTensor
3.仅指定维度的初始化
a = torch.empty(2, 3)
b = torch.FloatTensor(2, 3)
c = torch.IntTensor(2, 3)
4.随机初始化
# 采样自0~1均匀分布
a = torch.rand(3, 3)
# 形如*_like接受一个Tensor,将这个Tensor的shape读取出来之后在送入*所表示的函数
# 下面的rand_like(a)即将a的shape=3,3读出来传给torch.rand()函数
b = torch.rand_like(a) # 相当于执行了torch.rand(3,3)
# 在区间[1,10)上随机采样,生成shape=2,2的LongTensor
c = torch.randint(1, 10, [2, 2])
# 采样自N(0,1)
d = torch.randn(3, 3)
5.使用相同元素构建
# shape=2,3,所使用的相同的元素为7
b = torch.full([2, 3], 7)
6.指定参数的正态分布
# 指定均值和标准差
a = torch.normal(mean=torch.full([10], 0), std=torch.arange(1, 0, -0.1))
7.固定间隔
# 1. arange
# 注意torch.range()是包含结尾的,但是已经被弃用了,一律用arange就好。
c = torch.arange(0, 8, 2) # tensor([0, 2, 4, 6])
# 2.linespace
# 注意linespace和arange的区别,前者的最后一个参数是生成的Tensor中元素的数量,而后者的最后一个参数是步长。
tensor([0.0000, 2.6667, 5.3333, 8.0000])
# 3.logspace
# 从10的n次方取到10的m次方,指数是等差的,也就是元素值是等比的。
e = torch.logspace(0, -1, 5) # tensor([1.0000, 0.5623, 0.3162, 0.1778, 0.1000])
8.特殊矩阵
# 1.全0
a = torch.zeros([3, 4])
# 2.全1
b = torch.ones([3, 4])
# 3.对角阵
c = torch.eye(3, 4) # 只能是二维的,传入dim=2的shape
9.随机索引序列(randperm)
# 使用randperm可以生成一个从0开始的、已经打乱的连续索引Tensor,用它可以对其它Tensor做shuffle。特别是在有几个需要保持一致顺序的Tensor时,用相同的索引Tensor就能保证shuffle之后的Tensor在那个维度上的顺序一致了。
# 两个Tensor的shape[0]是相同的,都是3
a = torch.rand(3, 1)
b = torch.rand(3, 1)
print(a, b, sep='\n')
print("-" * 20)
# 制造一个[0,3)的索引序列
idx = torch.randperm(3)
print(idx)
print("-" * 20)
# 给a,b做shuffle,保证第一个维度在shuffle后的对应关系不变
a_sf = a[idx]
b_sf = b[idx]
print(a_sf, b_sf, sep='\n')
运行结果:
tensor([[0.2253],
[0.6864],
[0.9565]])
tensor([[0.7317],
[0.0779],
[0.3842]])
--------------------
tensor([2, 1, 0])
--------------------
tensor([[0.9565],
[0.6864],
[0.2253]])
tensor([[0.3842],
[0.0779],
[0.7317]])