[PyTroch系列-12]:PyTorch基础 - 张量线性运算(点乘、叉乘)

作者主页(文火冰糖的硅基工坊):https://blog.csdn.net/HiWangWenBing

本文网址:https://blog.csdn.net/HiWangWenBing/article/details/119463478


目录

 第1章 Tensor运算概述

1.1 概述

1.3  “in place“运算 

1.4 Tensor的广播机制: 不同维度的张量运算

1.5 环境准备

1.6 张量的线性代数运算

第2章 向量的点乘(是基础):dot()

2.1 定义

2.2 向量内积的几何意义

2.3 代码示例

第3章 向量的叉乘

3.1 定义

3.2 几何意义

3.3 代码示例

第4章  矩阵的内积运算(对应):inner()

4.1 矩阵内积的定义

4.2 代码示例

第5章 矩阵的外积运算: matmul()

5.1 矩阵外积(矩阵乘积)的定义 (矩阵相乘)

5.2代码示例



 第1章 Tensor运算概述

1.1 概述

PyTorch提供了大量的张量运算,基本上可以对标Numpy多维数组的运算,以支持对张量的各种复杂的运算。

这些操作运算中大多是对数组中每个元素执行相同的函数运算,并获得每个元素函数运算的结果序列,这些序列生成一个新的同维度的数组。

https://www.runoob.com/numpy/numpy-linear-algebra.html

1.2 运算分类

(1)算术运算:加、减、系数乘、系数除

(2)函数运算:sin,cos

(3)取整运算:上取整、下取整

(4)统计运算:最大值、最小值、均值

(5)比较运算:大于,等于,小于、排序

(6)线性代数运算:矩阵、点乘、叉乘

1.3  “in place“运算 

“in place“运算不是某个特定的函数运算,而是每个函数都有自己的“in place“运算的版本。

xxx_():执行完该操作,直接修改tensor自身的值。

基本上,每个函数都有自己的in place版本。

torch.cos() =》torch.cos_()

torch.floor() =》torch.floor_()

1.4 Tensor的广播机制: 不同维度的张量运算

1.5 环境准备

import numpy as np
import torch
 
print("Hello World")
print(torch.__version__)
print(torch.cuda.is_available())

1.6 张量的线性代数运算

(1)点乘:dot(a,b)

(2)内积: inner(a,b)

(3)叉乘:matmul(a,b)

备注:

点乘与内积的异同:

  • 相同点:点乘与内积的基本操作相同:每个元素相乘后再相加。
  • 不同点:点乘只支持两个一维张量点乘,而内积支持多维张量的内积

点乘与叉乘:

  • 相同点:点乘是基础,即对应元素相乘后相加。
  • 不同点:点乘只支持两个一维张量点乘,而叉乘支持多维张量,每一个维度上的数据都是一次点乘。

第2章 向量的点乘(是基础):dot()

2.1 定义

概括地说,向量的内积(点乘/数量积)。

对两个向量执行点乘运算,就是对这两个向量对应位一一相乘之后求和的操作,如下所示,对于向量a和向量b:

 [PyTroch系列-12]:PyTorch基础 - 张量线性运算(点乘、叉乘)_第1张图片

注意:

  •  这里要求一维向量a和向量b的行列数相同。
  • 点乘的结果是一个标量(数量而不是向量)

2.2 向量内积的几何意义

[PyTroch系列-12]:PyTorch基础 - 张量线性运算(点乘、叉乘)_第2张图片

(1)可用于计算计算两个向量之间的夹角.

   θ=arccos⁡(a∙b/|a||b|)

(2)b向量在a向量方向上的投影与a相乘

[PyTroch系列-12]:PyTorch基础 - 张量线性运算(点乘、叉乘)_第3张图片

 |a| = 所有元素的平方和开根号,实际上就是向量a的长度。

 |b| = 所有元素的平方和开根号,实际上就是向量b的长度。

a.b = a1*b1 + a2*b2 ..... an*bn

(3)是否正交指示:

如果点乘的结果为0,则表示a在b上的投影为0,表示a和b是正交的。

如果正交,表示这两个向量不相干。

2.3 代码示例

#向量的点乘(点积)运算
a = torch.Tensor([1,2,3])
b = torch.Tensor([1,1,1])
print(a)
print(b)

print(torch.dot(a,b)) # 等价于 1*0+2*1+3*0
输出:

tensor([1., 2., 3.])
tensor([1., 1., 1.])
tensor(6.)

#向量的点乘(点积)运算
a = torch.Tensor([1,2,3])
b = torch.Tensor([1,1,1])
print(a)
print(b)

print(torch.vdot(a,b)) # 等价于 1*0+2*1+3*0
输出:

tensor([1., 2., 3.])
tensor([1., 1., 1.])
tensor(6.)

第3章 向量的叉乘

3.1 定义

两个向量的外积,又叫叉乘、叉积向量积,其运算结果是一个向量而不是一个标量。

并且两个向量的外积与这两个向量组成的坐标平面垂直

定义:向量ab的外积a×b是一个向量,其长度等于|a×b| = |a||b|sin∠(a,b),其方向正交于ab。并且,(a,b,a×b)构成右手系。 
特别地,0×a = a×0 = 0.此外,对任意向量a,自身相乘a×a=0

对于向量a和向量b:

a和b的外积公式为(得到的是原先维度的向量):

[PyTroch系列-12]:PyTorch基础 - 张量线性运算(点乘、叉乘)_第4张图片

3.2 几何意义

在三维几何中,向量a和向量b的外积结果是一个向量,有个更通俗易懂的叫法是法向量,该向量垂直于a和b向量构成的平面。

在3D图像学中,外积的概念非常有用,可以通过两个向量的外积,生成第三个垂直于a,b的法向量,从而构建X、Y、Z坐标系。如下图所示:

[PyTroch系列-12]:PyTorch基础 - 张量线性运算(点乘、叉乘)_第5张图片

3.3 代码示例

# 向量的叉乘(乘积)运算
a = torch.Tensor([1,2,3])
b = torch.Tensor([1,1,1])
print(a)
print(b)

print(torch.multiply(a,b))
输出:

tensor([1., 2., 3.])
tensor([1., 1., 1.])
tensor([1., 2., 3.])

第4章  矩阵内积运算(对应):inner()

4.1 矩阵内积的定义

两个相同维度的矩阵a和b,a和b矩阵的内积时相同位置的向量的内积

(1)向量向量内积

[PyTroch系列-12]:PyTorch基础 - 张量线性运算(点乘、叉乘)_第6张图片

 (2)向量矩阵的内积:

 [PyTroch系列-12]:PyTorch基础 - 张量线性运算(点乘、叉乘)_第7张图片

4.2 代码示例

# 矩阵的内积运算
a = torch.Tensor([1,2,3])
b = torch.Tensor([0,1,0])
print(a)
print(b)

print(torch.inner(a,b)) # 等价于 1*0+2*1+3*0
print("")

a = torch.Tensor([[0,1,0], [0,2,0]])
b = torch.Tensor([[0,3,0], [0,4,0]])
print(a)
print(b)
print(torch.inner(a,b)) # 等效于每个向量两两内积
输出:

tensor([1., 2., 3.])
tensor([0., 1., 0.])
tensor(2.)

tensor([[0., 1., 0.],
        [0., 2., 0.]])
tensor([[0., 3., 0.],
        [0., 4., 0.]])
tensor([[3., 4.],
        [6., 8.]])

第5章 矩阵的外积运算: matmul()

5.1 矩阵外积(矩阵乘积)的定义 (矩阵相乘)

矩阵相乘最重要的方法是一般矩阵乘积。它只有在第一个矩阵的列数(column)和第二个矩阵的行数(row)相同时才有意义。

(1)向量的乘积

[PyTroch系列-12]:PyTorch基础 - 张量线性运算(点乘、叉乘)_第8张图片

(2)矩阵的乘积

[PyTroch系列-12]:PyTorch基础 - 张量线性运算(点乘、叉乘)_第9张图片

5.2代码示例

# 外积
a = torch.Tensor([1,2,3])  # 相当于1* N
b = torch.Tensor([0,1,0]) # 相当于N * 1
print(a)
print(b)
print(torch.matmul(a,b)) # 等价于 1*0+2*1+3*0

print("")

a = torch.Tensor([[1,2,3], [4,5,6]])
b = torch.Tensor([[0,1], [1,1], [1,1]])

print(a)
print(b)
print(torch.matmul(a,b)) # X * N VS N * Y => X * Y
输出:

tensor([1., 2., 3.])
tensor([0., 1., 0.])
tensor(2.)

tensor([[1., 2., 3.],
        [4., 5., 6.]])
tensor([[0., 1.],
        [1., 1.],
        [1., 1.]])
tensor([[ 5.,  6.],
        [11., 15.]])



作者主页(文火冰糖的硅基工坊):https://blog.csdn.net/HiWangWenBing

本文网址:https://blog.csdn.net/HiWangWenBing/article/details/119463478

你可能感兴趣的:(人工智能-深度学习,人工智能-PyTorch,深度学习,Pytorch,张量,Tensor,点积)