lyb深度学习学习笔记第一章:线性代数

准备全面从头复习一遍深度学习的内容,参考的书籍是deep learning花书。我目前阶段是金融数学的研究生,因此对于一些数学上比较熟悉的概率在此就简略带过,仅供参考。

一. 线性代数

相关概念:

标量、向量、矩阵张量

转置、广播、点乘、乘积

单位向量、正交、标准正交

单位矩阵、对角矩阵、对称矩阵、正交矩阵、方阵、奇异阵

线性空间、生成子空间、线性无关

范数、最大范数、Frobenius范数(矩阵L2)

  1. 特征值分解

    A v = λ v Av = \lambda v Av=λv

    v v v为特征向量, λ \lambda λ为对应的特征值

    A = V d i a g ( λ ) V − 1 A = Vdiag(\lambda)V^{-1} A=Vdiag(λ)V1

    每个实对称矩阵都存在特征值分解

    正定(半正定、负定、半负定)

    f ( x ) = X T A X , s . t ∣ ∣ X ∣ ∣ = 1 f(x)=X^TAX, s.t ||X||=1 f(x)=XTAX,s.tX=1最大值为最大的特征值,最小值为最小的特征值,因此对于正定阵 A = > X T A X ≥ 0 A=>X^TAX\geq0 A=>XTAX0

  2. 奇异值分解

    非方阵也适用

    A = U D V T A=UDV^T A=UDVT

    U , V U, V U,V为正交矩阵(左右奇异向量), D D D为对角奇异值矩阵(可以非方阵)

    A A A的左特征向量 U U U A A T AA^T AAT的特征向量, A A A的右特征向量 U U U A T A A^TA ATA的特征向量,奇异值是对应的特征值开方

  3. Moore-Penrose伪逆(略)

  4. 迹运算

    对角线元素和

    Frobenius范数 ∣ ∣ A ∣ ∣ F = T r ( A A T ) ||A||_F = \sqrt{Tr(AA^T)} AF=Tr(AAT)

    $Tr(ABC) = TR(CAB) $ 如果乘积定义良好

  5. 行列式

    d e t ( A ) det(A) det(A)为特征值乘积;意义为该矩阵变换所导致的空间变化量

  6. 主成分分析PCA

    N N N维原始向量x通过 l ∗ N l*N lN矩阵D映射到低维 l l l主成分空间c上,即 c = f ( x ) = D T x c = f(x) = D^{T}x c=f(x)=DTx, g ( c ) = D c g(c) = Dc g(c)=Dc,即 r ( x ) = D D T x r(x) = DD^Tx r(x)=DDTx

    通过解使得所有样本点通过复原函数 r ( x ) r(x) r(x)复原后的损失平方和最小(最小化L2),解得D为 X T X X^TX XTX的前 l l l个最大特征向量。

你可能感兴趣的:(机器学习,线性代数,深度学习)