线性代数与矩阵论知识点总结

线性代数与矩阵论知识点总结

    • 1. 向量及其运算
    • 2. 矩阵及其运算
      • 2.1 各种矩阵
      • 2.2 基本运算
    • 3. 行列式
    • 4.线性方程组
    • 5. 特征值与特征向量
    • 6.二次型
    • 7. 矩阵分解

线性代数在ML和DL中扮演着非常重要的角色,虽然本科和研究生阶段修过线性代数与矩阵论,不过不用则废啊,最近还是想把这部分数据基础知识整理一下,加深理解,这样才能在机器学习与深度学习这条路上走的更远,包括微积分、最优化、随机过程、信息论等。

1. 向量及其运算

  • 矩阵内积:两个向量对应分量之和。
    x T y = ∑ i = 1 n x i y i x^Ty=\sum_{i=1}^nx_iy_i xTy=i=1nxiyi

  • 线性模型可用内积表达
    w 1 x 1 + . . . + w n x n + b w_1x_1+...+w_nx_n+b w1x1+...+wnxn+b
    w T x + b w^Tx+b wTx+b

  • 两个向量内积为0,则正交

  • 阿达马积:两个向量对应分量相乘,结果为相同维数向量
    x ⨀ y = ( x 1 y 1 , . . . , x n y n ) T x \bigodot y = (x_1y_1,...,x_ny_n)^T xy=(x1y1,...,xnyn)T
    阿达马积可以简化问题的表述,在反向传播算法、各种梯度下降法中广泛使用。

  • 向量的范数:向量模长的推广
    ∣ ∣ x ∣ ∣ p = ( ∑ i = 1 n ∣ x i ∣ p ) 1 / p ||x||_p=(\sum_{i=1}^n|x_i|^p)^{1/p} xp=(i=1nxip)1/p
    常用的是L1和L2范数

    • L1范数:所有分量绝对值之和
      ∣ ∣ x ∣ ∣ 1 = ∑ i = 1 n ∣ x i ∣ ||x||_1=\sum_{i=1}^n|x_i| x1=i=1nxi
    • L2范数(欧几里得范数)
      ∣ ∣ x ∣ ∣ 2 = ∑ i = 1 n ∣ x i ∣ 2 ||x||_2=\sqrt {\sum_{i=1}^n|x_i|^2} x2=i=1nxi2
      L1、L2范数被用于构造正则项
  • 向量内积、模、夹角关系:
    x T y = ∣ ∣ x ∣ ∣ ∣ ∣ y ∣ ∣ ⋅ c o s θ x^Ty=||x||||y|| \cdot cos\theta xTy=xycosθ

  • 欧氏距离:点之间的距离:两个向量相减之后的L2范数
    ∣ ∣ x − y ∣ ∣ ||x-y|| xy

  • 解析几何

    • 平面解析几何中,点到直线距离:
      d = ∣ a x + b y + c ∣ a 2 + b 2 d = { |ax+by+c|\over \sqrt{a^2+b^2} } d=a2+b2 ax+by+c
    • 空间解析几何中,点到直线距离:
      d = ∣ a x + b y + c z + d ∣ a 2 + b 2 + c 2 d = { |ax+by+cz+d|\over \sqrt{a^2+b^2+c^2} } d=a2+b2+c2 ax+by+cz+d
    • 推广到n维空间
      d = ∣ w T x + b ∣ ∣ ∣ w ∣ ∣ 2 d = {|w^Tx+b|\over||w||_2} d=w2wTx+b
      此公式在SVM的推导时会用到,回想起手推SVM,真的是太恐怖了
  • 线性相关性
    对于向量组 x 1 , . . . x l x_1,...x_l x1,...xl,如果存在一组不全为0的数 k 1 , . . . , k l k_1,...,k_l k1,...,kl,使得
    k 1 x 1 + k 2 x 2 + . . . + k l x l = 0 k_1x_1+k_2x_2+...+k_lx_l=0 k1x1+k2x2+...+klxl=0
    则称这组向量线性相关。如果不存在一组全不为0的数使得上式成立,则称这组向量线性无关,也就是线性独立。

    • 极大线性无关组
  • 向量空间

2. 矩阵及其运算

矩阵的应用非常广泛,数据结构中的二维数组即为矩阵,在ML和DL中使用非常广泛。

2.1 各种矩阵

  • 方阵
  • 对角矩阵
  • 对称矩阵
  • 上\下三角矩阵
  • 格拉姆矩阵
    [ x 1 T x 1 x 1 T x 2 ⋯ x 1 T x n x 2 T x 1 x 2 T x 2 ⋯ x 2 T x n ⋮ ⋮ ⋱ ⋮ x n T x 1 x n T x 2 ⋯ x n T x n ] (G) \left[ \begin{matrix} x_1^Tx_1 & x_1^Tx_2 & \cdots & x_1^Tx_n \\ x_2^Tx_1 & x_2^Tx_2 & \cdots & x_2^Tx_n \\ \vdots & \vdots & \ddots & \vdots \\ x_n^Tx_1 & x_n^Tx_2 & \cdots & x_n^Tx_n \\ \end{matrix} \right]\tag{G} x1Tx1x2Tx1xnTx1x1Tx2x2Tx2xnTx2x1Txnx2TxnxnTxn(G)

2.2 基本运算

  • 矩阵加减法
  • 矩阵乘法
  • 逆矩阵
  • 矩阵的范数

3. 行列式

4.线性方程组

5. 特征值与特征向量

6.二次型

7. 矩阵分解

你可能感兴趣的:(数学,线性代数,矩阵论,数学)