向量的点积与叉积

1. 向量的点积

点积是指两个维度相同的向量相乘,结果是对应坐标配对的乘积之和:
eg:
[ 1 2 ] ∙ [ 1 2 ] = 1 × 1 + 2 × 3 = 7 \left[\begin{array}{l} 1 \\ 2 \end{array}\right] \bullet\left[\begin{array}{l} 1 \\ 2 \end{array}\right]=1 \times 1+2 \times 3=7 [12][12]=1×1+2×3=7

留意:

  • v ⃗ ⋅ w ⃗ = w ⃗ ⋅ v ⃗ \vec{v} \cdot \vec{w}=\vec{w} \cdot \vec{v} v w =w v
  • 向量方向相同时结果为正,
  • 向量方向相反时结果为负,
  • 向量方向垂直结果为0.

几何意义:点积 v ⃗ ⋅ w ⃗ \vec{v} \cdot \vec{w} v w 的结果是向量 w ⃗ \vec{w} w v ⃗ \vec{v} v 上的正交投影长度乘以 v ⃗ \vec{v} v 的长度;本质是先投影再缩放.

2. 向量的叉积

几何意义:两个向量叉积的结果是第三个向量,结果向量垂直于原向量组成的平行四边形,长度等于平行四边形的面积,方向取决于原向量的相对位置,可以使用右手定则判断。
叉积 v ⃗ × w ⃗ \vec{v} \times \vec{w} v ×w 等同于寻找一个向量 p ⃗ \vec{p} p (更为熟知的叫法是法向量),满足下面的等式:
[ p 1 p 2 p 3 ] ⋅ [ x y z ] = det ⁡ ( [ x v 1 w 1 y v 2 w 2 z v 3 w 3 ] ) \begin{array}{l} \left[\begin{array}{l} p_{1} \\ p_{2} \\ p_{3} \end{array}\right] \cdot\left[\begin{array}{l} x \\ y \\ z \end{array}\right]=\operatorname{det}\left(\left[\begin{array}{lll} x & v_{1} & w_{1} \\ y & v_{2} & w_{2} \\ z & v_{3} & w_{3} \end{array}\right]\right)\end{array} p1p2p3 xyz =det xyzv1v2v3w1w2w3

⇓ \Downarrow

[ v 1 v 2 v 3 ] × [ w 1 w 2 w 3 ] = det ⁡ ( [ i ⃗ v 1 v 1 j ⃗ v 2 w 2 k ⃗ v 3 w 3 ] ) = [ v 2 w 3 − v 3 w 2 v 3 w 1 − v 1 w 3 v 1 w 2 − v 2 w 1 ] \left[\begin{array}{l} v_{1} \\ v_{2} \\ v_{3} \end{array}\right] \times\left[\begin{array}{l} w_{1} \\ w_{2} \\ w_{3} \end{array}\right]=\operatorname{det}\left(\left[\begin{array}{ccc} \vec{i} & v_{1} & v_{1} \\ \vec{j} & v_{2} & w_{2} \\ \vec{k} & v_{3} & w_{3} \end{array}\right]\right)=\left[\begin{array}{l} v_{2} w_{3}-v_{3} w_{2} \\ v_{3} w_{1}-v_{1} w_{3} \\ v_{1} w_{2}-v_{2} w_{1} \end{array}\right] v1v2v3 × w1w2w3 =det i j k v1v2v3v1w2w3 = v2w3v3w2v3w1v1w3v1w2v2w1
留意:

  • v ⃗ ⊥ v ⃗ × w ⃗ , w ⃗ ⊥ v ⃗ × w ⃗ \vec{v} \perp \vec{v} \times \vec{w}, \quad \vec{w} \perp \vec{v} \times \vec{w} v v ×w ,w v ×w
  • v ⃗ × v ⃗ = 0 → , 0 → × v ⃗ = 0 → \vec{v} \times \vec{v}=\overrightarrow{0}, \quad \overrightarrow{0} \times \vec{v}=\overrightarrow{0} v ×v =0 ,0 ×v =0
  • v ⃗ / / w ⃗ ⇔ v ⃗ × w ⃗ = 0 → \vec{v} / / \vec{w} \Leftrightarrow \vec{v} \times \vec{w}=\overrightarrow{0} v //w v ×w =0
  • v ⃗ × w ⃗ = − w ⃗ × v ⃗ \vec{v} \times \vec{w}=-\vec{w} \times \vec{v} v ×w =w ×v
  • ( λ v ⃗ ) × w ⃗ = λ ( v ⃗ × w ⃗ ) (\lambda \vec{v}) \times \vec{w}=\lambda(\vec{v} \times \vec{w}) (λv )×w =λ(v ×w )
  • ( v ⃗ + w ⃗ ) × l ⃗ = v ⃗ × l ⃗ + w ⃗ × l ⃗ (\vec{v}+\vec{w}) \times \vec{l}=\vec{v} \times \vec{l}+\vec{w} \times \vec{l} (v +w )×l =v ×l +w ×l

若 v ⃗ × w ⃗ > 0 , 则 v ⃗ 在 w ⃗ 顺时针方向 若 \vec{v} \times \vec{w}>0 , 则 \vec{v} 在 \vec{w} 顺时针方向 v ×w >0,v w 顺时针方向

若 v ⃗ × w ⃗ < 0 , 则 v ⃗ 在 w ⃗ 逆时针方向 若 \vec{v} \times \vec{w}<0 , 则 \vec{v} 在 \vec{w} 逆时针方向 v ×w <0,v w 逆时针方向

若 v ⃗ × w ⃗ > 0 , 则 v ⃗ 与 w ⃗ 同线,同向或反向 若 \vec{v} \times \vec{w}>0 , 则 \vec{v} 与 \vec{w} 同线,同向或反向 v ×w >0,v w 同线,同向或反向

你可能感兴趣的:(python空间关系判断,人工智能)