作者主页(文火冰糖的硅基工坊):https://blog.csdn.net/HiWangWenBing
本文网址:https://blog.csdn.net/HiWangWenBing/article/details/119463478
目录
第1章 Tensor运算概述
1.1 概述
1.3 “in place“运算
1.4 Tensor的广播机制: 不同维度的张量运算
1.5 环境准备
1.6 张量的线性代数运算
第2章 向量的点乘(是基础):dot()
2.1 定义
2.2 向量内积的几何意义
2.3 代码示例
第3章 向量的叉乘
3.1 定义
3.2 几何意义
3.3 代码示例
第4章 矩阵的内积运算(对应):inner()
4.1 矩阵内积的定义
4.2 代码示例
第5章 矩阵的外积运算: matmul()
5.1 矩阵外积(矩阵乘积)的定义 (矩阵相乘)
5.2代码示例
PyTorch提供了大量的张量运算,基本上可以对标Numpy多维数组的运算,以支持对张量的各种复杂的运算。
这些操作运算中大多是对数组中每个元素执行相同的函数运算,并获得每个元素函数运算的结果序列,这些序列生成一个新的同维度的数组。
https://www.runoob.com/numpy/numpy-linear-algebra.html
1.2 运算分类
(1)算术运算:加、减、系数乘、系数除
(2)函数运算:sin,cos
(3)取整运算:上取整、下取整
(4)统计运算:最大值、最小值、均值
(5)比较运算:大于,等于,小于、排序
(6)线性代数运算:矩阵、点乘、叉乘
“in place“运算不是某个特定的函数运算,而是每个函数都有自己的“in place“运算的版本。
xxx_():执行完该操作,直接修改tensor自身的值。
基本上,每个函数都有自己的in place版本。
如
torch.cos() =》torch.cos_()
torch.floor() =》torch.floor_()
import numpy as np
import torch
print("Hello World")
print(torch.__version__)
print(torch.cuda.is_available())
(1)点乘:dot(a,b)
(2)内积: inner(a,b)
(3)叉乘:matmul(a,b)
备注:
点乘与内积的异同:
点乘与叉乘:
概括地说,向量的内积(点乘/数量积)。
对两个向量执行点乘运算,就是对这两个向量对应位一一相乘之后求和的操作,如下所示,对于向量a和向量b:
注意:
(1)可用于计算计算两个向量之间的夹角.
θ=arccos(a∙b/|a||b|)
(2)b向量在a向量方向上的投影与a相乘
|a| = 所有元素的平方和开根号,实际上就是向量a的长度。
|b| = 所有元素的平方和开根号,实际上就是向量b的长度。
a.b = a1*b1 + a2*b2 ..... an*bn
(3)是否正交指示:
如果点乘的结果为0,则表示a在b上的投影为0,表示a和b是正交的。
如果正交,表示这两个向量不相干。
#向量的点乘(点积)运算
a = torch.Tensor([1,2,3])
b = torch.Tensor([1,1,1])
print(a)
print(b)
print(torch.dot(a,b)) # 等价于 1*0+2*1+3*0
输出:
tensor([1., 2., 3.])
tensor([1., 1., 1.])
tensor(6.)
#向量的点乘(点积)运算
a = torch.Tensor([1,2,3])
b = torch.Tensor([1,1,1])
print(a)
print(b)
print(torch.vdot(a,b)) # 等价于 1*0+2*1+3*0
输出:
tensor([1., 2., 3.])
tensor([1., 1., 1.])
tensor(6.)
两个向量的外积,又叫叉乘、叉积向量积,其运算结果是一个向量而不是一个标量。
并且两个向量的外积与这两个向量组成的坐标平面垂直。
定义:向量a与b的外积a×b是一个向量,其长度等于|a×b| = |a||b|sin∠(a,b),其方向正交于a与b。并且,(a,b,a×b)构成右手系。
特别地,0×a = a×0 = 0.此外,对任意向量a,自身相乘a×a=0。
对于向量a和向量b:
a和b的外积公式为(得到的是原先维度的向量):
在三维几何中,向量a和向量b的外积结果是一个向量,有个更通俗易懂的叫法是法向量,该向量垂直于a和b向量构成的平面。
在3D图像学中,外积的概念非常有用,可以通过两个向量的外积,生成第三个垂直于a,b的法向量,从而构建X、Y、Z坐标系。如下图所示:
# 向量的叉乘(乘积)运算
a = torch.Tensor([1,2,3])
b = torch.Tensor([1,1,1])
print(a)
print(b)
print(torch.multiply(a,b))
输出:
tensor([1., 2., 3.])
tensor([1., 1., 1.])
tensor([1., 2., 3.])
两个相同维度的矩阵a和b,a和b矩阵的内积时相同位置的向量的内积。
(1)向量向量内积
(2)向量矩阵的内积:
# 矩阵的内积运算
a = torch.Tensor([1,2,3])
b = torch.Tensor([0,1,0])
print(a)
print(b)
print(torch.inner(a,b)) # 等价于 1*0+2*1+3*0
print("")
a = torch.Tensor([[0,1,0], [0,2,0]])
b = torch.Tensor([[0,3,0], [0,4,0]])
print(a)
print(b)
print(torch.inner(a,b)) # 等效于每个向量两两内积
输出:
tensor([1., 2., 3.])
tensor([0., 1., 0.])
tensor(2.)
tensor([[0., 1., 0.],
[0., 2., 0.]])
tensor([[0., 3., 0.],
[0., 4., 0.]])
tensor([[3., 4.],
[6., 8.]])
矩阵相乘最重要的方法是一般矩阵乘积。它只有在第一个矩阵的列数(column)和第二个矩阵的行数(row)相同时才有意义。
(1)向量的乘积
(2)矩阵的乘积
# 外积
a = torch.Tensor([1,2,3]) # 相当于1* N
b = torch.Tensor([0,1,0]) # 相当于N * 1
print(a)
print(b)
print(torch.matmul(a,b)) # 等价于 1*0+2*1+3*0
print("")
a = torch.Tensor([[1,2,3], [4,5,6]])
b = torch.Tensor([[0,1], [1,1], [1,1]])
print(a)
print(b)
print(torch.matmul(a,b)) # X * N VS N * Y => X * Y
输出:
tensor([1., 2., 3.])
tensor([0., 1., 0.])
tensor(2.)
tensor([[1., 2., 3.],
[4., 5., 6.]])
tensor([[0., 1.],
[1., 1.],
[1., 1.]])
tensor([[ 5., 6.],
[11., 15.]])
作者主页(文火冰糖的硅基工坊):https://blog.csdn.net/HiWangWenBing
本文网址:https://blog.csdn.net/HiWangWenBing/article/details/119463478