pytorch学习笔记(一)---创建Tensor的多种方法

一.创建Tensor的多种方法

使用numpy创建

import torch
import numpy as np
#利用numpy创建
a = np.array([1, 2])
a_torch = torch.from_numpy(a)
print(type(a), type(a_torch))

输出

使用list创建

a = torch.FloatTensor([2, 3.3])  # 尽量少用这种方式,容易和给shape的情况看混淆
b = torch.tensor([2, 3.3])  # 现有list时尽量用这种方式

注意小写的tensor只接受现有的数据;而大写的Tensor相当于就是FloatTensor,既可以接收现有的数据,也可以接受shape来创建指定形状的Tensor。

仅指定维度初始化

前面都提供了里面元素的具体值,也可以按照shape来创建,而先不为其提供具体值

# 生成2行3列的数据
a = torch.empty(2, 3)
b = torch.FloatTensor(2, 3)
c = torch.IntTensor(2, 3)

修改tensor的默认类型

使用torch.tensor传入浮点数元素,或者使用torch.Tensor仅指定维度时,生成的默认是FloatTensor,也可以修改默认设置使其默认是其它类型的。

    print(torch.tensor([1, 2.2]).type())
torch.set_default_tensor_type(torch.DoubleTensor)
print(torch.tensor([1, 2.2]).type())

使用相同元素构建

# shape=2,3,所使用的相同的元素为7
b = torch.full([2, 3], 7)

arange

c = torch.arange(0, 8, 2)  # tensor([0, 2, 4, 6])

全0

a = torch.zeros([3, 4])

全1

b = torch.ones([3, 4])

对角阵

c = torch.eye(2, 3) # 只能是二维的,传入dim=2的shape
d = torch.eye(3 )# 也可以只给一个参数n,得到的就是n阶的对角方阵。
print(c)
print(d)

输出:
tensor([[1., 0., 0.],
[0., 1., 0.]])
tensor([[1., 0., 0.],
[0., 1., 0.],
[0., 0., 1.]]

randperm

使用randperm可以生成一个从0开始的、已经打乱的连续索引Tensor,用它可以对其它Tensor做shuffle。特别是在有几个需要保持一致顺序的Tensor时,用相同的索引Tensor就能保证shuffle之后的Tensor在那个维度上的顺序一致了。

import torch
# 两个Tensor的shape[0]是相同的,都是3
a = torch.rand(3, 1)
b = torch.rand(3, 1)
print(a, b, sep='\n')
print("-" * 20)

# 制造一个[0,3)的索引序列
idx = torch.randperm(3)
print(idx)
print("-" * 20)

# 给a,b做shuffle,保证第一个维度在shuffle后的对应关系不变
a_sf = a[idx]
b_sf = b[idx]
print(a_sf, b_sf, sep='\n')

输出:
tensor([[0.2253],
[0.6864],
[0.9565]])
tensor([[0.7317],
[0.0779],
[0.3842]])


tensor([2, 1, 0])


tensor([[0.9565],
[0.6864],
[0.2253]])
tensor([[0.3842],
[0.0779],
[0.7317]])


二.生成随机数Tensor的方法汇总(标准分布、正态分布……)

在使用PyTorch做实验时经常会用到生成随机数Tensor的方法,比如:

torch.rand()

torch.randn()

torch.normal()

torch.linespace()

在很长一段时间里我都没有区分这些方法生成的随机数究竟有什么不同,由此在做实验的时候经常会引起一些莫名其妙的麻烦。

所以在此做一个总结,以供大家阅读区分,不要重蹈我的覆辙。

均匀分布

torch.rand(*sizes, out=None) → Tensor

返回一个张量,包含了从区间[0, 1)的均匀分布中抽取的一组随机数。张量的形状由参数sizes定义。

参数:

  • sizes (int…) - 整数序列,定义了输出张量的形状
  • out (Tensor, optinal) - 结果张量

例子:

torch.rand(2, 3)
0.0836 0.6151 0.6958
0.6998 0.2560 0.0139
[torch.FloatTensor of size 2x3]

标准正态分布

torch.randn(*sizes, out=None) → Tensor

返回一个张量,包含了从标准正态分布(均值为0,方差为1,即高斯白噪声)中抽取的一组随机数。张量的形状由参数sizes定义。

参数:

  • sizes (int…) - 整数序列,定义了输出张量的形状
  • out (Tensor, optinal) - 结果张量

例子:

torch.randn(2, 3)
0.5419 0.1594 -0.0413
-2.7937 0.9534 0.4561
[torch.FloatTensor of size 2x3]

离散正态分布

torch.normal(means, std, out=None) → → Tensor

返回一个张量,包含了从指定均值means和标准差std的离散正态分布中抽取的一组随机数。

标准差std是一个张量,包含每个输出元素相关的正态分布标准差。

参数:

  • means (float, optional) - 均值
  • std (Tensor) - 标准差
  • out (Tensor) - 输出张量

例子:

torch.normal(mean=0.5, std=torch.arange(1, 6))
-0.1505
-1.2949
-4.4880
-0.5697
-0.8996
[torch.FloatTensor of size 5]

线性间距向量

torch.linspace(start, end, steps=100, out=None) → Tensor

返回一个1维张量,包含在区间start和end上均匀间隔的step个点。

输出张量的长度由steps决定。

参数:

  • start (float) - 区间的起始点
  • end (float) - 区间的终点
  • steps (int) - 在start和end间生成的样本数
  • out (Tensor, optional) - 结果张量

例子:

torch.linspace(3, 10, steps=5)
3.0000
4.7500
6.5000
8.2500
10.0000
[torch.FloatTensor of size 5]


原文: https://blog.csdn.net/SHU15121856/article/details/87731878

你可能感兴趣的:(pytorch)