内容全部来自李沐老师的《动手深度学习》,感谢李老师
这是我边学边敲的
主要数据结构:n维数组
0-d(标量)表示类别:1.0
1-d(向量)一个特征向量:[1.0,2.7,3.4]
2-d(矩阵)一个样本的特征矩阵:[[1.0,2.7,3.4]
[5.0,0.2,4.6]
[4.3,8.5,0.2]]
3-d (RGB图片):宽X高X通道
4-d(一个RGB图片批量):批量大小X宽X高X通道
5-d(一个视频批量):批量大小X时间X宽X高X通道
创建数组需要:
形状:例如3*4矩阵
每个元素的数据类型:例如32位浮点数
每个元素的值:例如全是0,或者随机数(正态、均匀)
一个元素:[1,2]
一行:[1,:]
一列:[:1]
子区域:[1:3,1:]3开区间
子区域:[::3,::2]3代表每3行一跳,2每两列一跳
张量表示一个数值组成的数组,这个数组可能有多个维度
x=torch.arange(12)#0-11
x #print
tensor([ 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11])
可以通过张量的shape属性来访问张量的形状和张量中元素的总数
x.shape#维度长度
x.numel()#元素的种数,标量
torch.Size([12])
12
要改变一个张量的形状而不改变元素的数量和值,可以用reshape
x=x.reshape(3,4)#3行4列
x
tensor([[ 0, 1, 2, 3],#每行连续
[ 4, 5, 6, 7],
[ 8, 9, 10, 11]])
使用全0、全1、其他常量或者从特定分布中随机采样的数字
torch.zeros((2,3,4))
tensor([[[0., 0., 0., 0.],
[0., 0., 0., 0.],
[0., 0., 0., 0.]],
[[0., 0., 0., 0.],
[0., 0., 0., 0.],
[0., 0., 0., 0.]]])
torch.ones((2,3,4))
tensor([[[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.]],
[[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.]]])
通过提供包含数值的Python列表(or嵌套列表)来为所需张量中的每个元素赋予确定值
torch.tensor([[2,1,4,3],[1,2,3,4],[4,3,2,1]])#列表嵌套列表
tensor([[2, 1, 4, 3],
[1, 2, 3, 4],
[4, 3, 2, 1]])#注意这个是二维的数组
torch.tensor([[2,1,4,3],[1,2,3,4],[4,3,2,1]]).shape
torch.Size([3, 4])#out
torch.tensor([[[2,1,4,3],[1,2,3,4],[4,3,2,1]]])
tensor([[[2, 1, 4, 3],
[1, 2, 3, 4],
[4, 3, 2, 1]]])#三维的
torch.tensor([[[2,1,4,3],[1,2,3,4],[4,3,2,1]]]).shape
torch.Size([1, 3, 4])#out
#第一层(最外层)中括号里面包含了1个中括号(以逗号进行分割),(1,3,4)中的2
#第二层中括号里面包含了三个中括号(以逗号进行分割),(1,3,4)中的3
#第三层中括号里面包含了四个数(以逗号进行分割),(1,3,4)中的4
常见的标准算是运算符(±*/和**)都可以被升级为按元素运算
x=torch.tensor([1.0,2,4,8])#有1.0就变成浮点数组
y=torch.tensor([2,2,2,2])
x+y, x-y, x*y,x/y,x**y#**运算是求幂运算符
(tensor([ 3., 4., 6., 10.]),
tensor([-1., 0., 2., 6.]),
tensor([ 2., 4., 8., 16.]),
tensor([0.5000, 1.0000, 2.0000, 4.0000]),
tensor([ 1., 4., 16., 64.]))#对应运算
按元素方式应用更多的计算
torch.exp(x)
tensor([2.7183e+00, 7.3891e+00, 5.4598e+01, 2.9810e+03])
可以把多个张量连接在一起
x=torch.arange(12,dtype=torch.float32).reshape((3,4))#生成0-11元素,reshape成3,4
y=torch.tensor([[2.0,1,4,3],[1,2,3,4],[4,3,2,1]])
torch.cat((x,y),dim=0),#连接,在第0维合并,这里是行
torch.cat((x,y),dim=1)#列合并
(tensor([[ 0., 1., 2., 3.],
[ 4., 5., 6., 7.],
[ 8., 9., 10., 11.],
[ 2., 1., 4., 3.],
[ 1., 2., 3., 4.],
[ 4., 3., 2., 1.]]),
tensor([[ 0., 1., 2., 3., 2., 1., 4., 3.],
[ 4., 5., 6., 7., 1., 2., 3., 4.],
[ 8., 9., 10., 11., 4., 3., 2., 1.]]))
通过 逻辑运算符 构建二元张量
x==y
tensor([[False, True, False, True],#逐个比较
[False, False, False, False],
[False, False, False, False]])
对张量中的所有元素进行求和会产生一个只有一个元素的张量
x.sum()
tensor(66.)#一个元素的tensor
形状不同,仍可以调用广播机制(broadcasting mechanism)来执行按元素操作**#容易出错**
a=torch.arange(3).reshape((3,1))
b=torch.arange(2).reshape((1,2))
a,b
(tensor([[0],
[1],
[2]]),
tensor([[0, 1]]))
a+b#形状不一,维度一样,但可以复制维度再运算
tensor([[0, 1],
[1, 2],
[2, 3]])
可以用[-1]选择最后一个元素,可以用[1:3]选择第二个和第三个元素
x[-1],x[1:3]
(tensor([ 8., 9., 10., 11.]),#最后一行
tensor([[ 4., 5., 6., 7.],#第一行
[ 8., 9., 10., 11.]]))#第二行(0行开始)
除了读取外,还可以通过指定索引来将元素写入矩阵
x[1,2]=9#第一行第二列 ->1,2的值修改为9
x
tensor([[ 0., 1., 2., 3.],
[ 4., 5., 9., 7.],
[ 8., 9., 10., 11.]])
为多个元素赋值相同的值,我们只需要索引所有元素,然后为它们赋值。
x[0:2,:]=12#列用:全选
x
tensor([[12., 12., 12., 12.],
[12., 12., 12., 12.],#第0行到第1行全部赋值为12
[ 8., 9., 10., 11.]])
一些操作可能会导致为新结果分配内存
before =id(y)
y=y+x
id(y)==before
False#新的y的id不一样
执行原地操作
z=torch.zeros_like(y)
print('id(z):',id(z))
z[:]=x+y
print(z)
print('id(z):',id(z))
id(z): 1512695759872
tensor([[26., 25., 28., 27.],
[25., 26., 27., 28.],
[20., 21., 22., 23.]])
id(z): 1512695759872#z内存没有发生变化
如果再后续计算中没有重复使用x,也可以使用x[:]=x+y or x+=y来减少操作的内存开销
before =id(x)
x+=y
id(x)==before
True
转化为NumPy张量
a =x.numpy()
b=torch.tensor(a)
type(a),type(b)
(numpy.ndarray, torch.Tensor)
将大小为1的张量转换为python标量
a=torch.tensor([3.5])
a,a.item(),float(a),int(a)
(tensor([3.5000]), 3.5, 3.5, 3)