人工智能数学基础——线性代数

    必备的数学知识是理解人工智能不可或缺的要素,所有的人工智能技术归根到底都建立在数学模型之上,而这些数学模型又都离不开线性代数(linear algebra)的理论框架。

    线性代数不仅仅是人工智能的基础,更是现代数学和以现代数学作为主要分析方法的众多学科的基础。从量子力学到图像处理都离不开向量和矩阵的使用。而在向量和矩阵背后,线性代数的核心意义在于提供了⼀种看待世界的抽象视角:万事万物都可以被抽象成某些特征的组合,并在由预置规则定义的框架之下以静态和动态的方式加以观察

    线性代数中最基本的概念是集合(set)。在数学上,集合的定义是由某些特定对象汇总而成的集体。集合中的元素通常会具有某些共性,因而可以用这些共性来表示。对于集合 { 香蕉,橘子,苹果 } 来说, 所有元素的共性是它们都是水果;对于集合 {猪,马,羊} 来说,所有元素的共性是它们都是动物。当然 { 香蕉,羊} 也可以构成一个集合,但这两个元素并没有明显的共性,这样的集合在解决实际问题中的作用也就相当有限。

“    香蕉”或是“羊”这样的具体概念显然超出了数学的处理范围,因而集合的元素需要进行进一步的抽象,用数字或符号来表示。如此一来,集合的元素既可以是单个的数字或符号,也可以是多个数字或符号以某种方式排列形成的组合。

    在线性代数中,由单独的数 a a 构成的元素被称为标量(scalar):一个标量 a a 可以是整数、实数或复数。如果多个标量 a1,a2,,an a 1 , a 2 , ⋯ , a n 按一定顺序组成一个序列,这样的元素就被称为向量(vector)。显然,向量可以看作标量的扩展。原始的一个数被替代为一组数,从而带来了维度的增加,给定表示索引的下标才能唯一地确定向量中的元素。

    每个向量都由若干标量构成,如果将向量的所有标量都替换成相同规格的向量,得到的就是如下的矩阵(matrix):

a11a21a31a12a22a32a13a23a33 [ a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33 ]

    相对于向量,矩阵同样代表了维度的增加,矩阵中的每个元素需要使用两个索引确定。同理,如果将矩阵中的每个标量元素再替换为向量的话,得到的就是张量(tensor)。直观地理解,张量就是高阶的矩阵。

    如果把三阶魔方的每一个小方块看作一个数,它就是个 3×3×3 3 × 3 × 3 的张量, 3×3 3 × 3 的矩阵则恰是这个魔方的一个面,也就是张量的一个切片。相比于向量和矩阵,张量是更加复杂,直观性也更差的概念。

    向量和矩阵不只是理论上的分析工具,也是计算机工作的基础条件。人类能够感知连续变化的世界,可计算机只能处理离散取值的二进制信息,因而来自模拟世界的信号必须在定义域和值域上同时进行数字化,才能被计算机存储和处理。从这个角度看,线性代数是用虚拟数字世界表示真实物理世界的工具

    在计算机存储中,标量占据的是零维数组向量占据的是一维数组,例如语音信号;矩阵占据的是二维数组,例如灰度图像;张量占据的是三维乃至更高维度的数组,例如 RGB 图像和视频。

    描述作为数学对象的向量需要有特定的数学语言,范数和内积就是代表。范数(norm)是对单个向量大小的度量,描述的是向量自身的性质,其作用是将向量映射为一个非负的数值。通用的 Lp L p 范数定义如下:

|x|p=(i|xi|p)1p | x | p = ( ∑ i | x i | p ) 1 p

    对⼀个给定向量, L1 L 1 范数计算的是向量所有元素绝对值的和, L2 L 2 范数计算的是向量长度, L L ∞ 范数计算的则是向量中最大元素的取值。

    范数计算的是单个向量的尺度,内积(inner product)计算的则是两个向量之间的关系。两个相同维数向量内积的表达式为:

x,y=ixi.yi ⟨ x , y ⟩ = ∑ i x i . y i

    即对应元素乘积的求和。内积能够表示两个向量之间的相对位置,即向量之间的夹角。一种特殊的情况是内积为 0,即 x,y=0 ⟨ x , y ⟩ = 0 。在二维空间上,这意味着两个向量的夹角为 90 度,即相互垂直。而在高维空间上,这种关系被称为正交(orthogonality)。如果两个向量正交,说明他们线性无关,相互独立,互不影响。

    在实际问题中,向量的意义不仅是某些数字的组合,更可能是某些对象或某些行为的特征。范数和内积能够处理这些表示特征的数学模型,进而提取出原始对象或原始行为中的隐含关系。

    如果有一个集合,它的元素都是具有相同维数的向量(可以是有限个或无限个), 并且定义了加法和数乘等结构化的运算,这样的集合就被称为线性空间(linear space),定义了内积运算的线性空间则被称为内积空间(inner product space)。在线性空间中,任意一个向量代表的都是 n 维空间中的一个点;反过来, 空间中的任意点也都可以唯一地用一个向量表示。两者相互等效。

    在线性空间上点和向量的相互映射中,一个关键问题是参考系的选取。在现实生活中,只要给定经度、纬度和海拔高度,就可以唯一地确定地球上的任何一个位置,因而经度值、纬度值、高度值构成的三维向量 (x, y, h) 就对应了三维物理空间中的⼀个点。

    人工神经网络要处理的通常是数以万计的特征,对应着维度同样数以万计的复杂空间,这时就需要正交基的概念了。

    在内积空间中,一组两两正交的向量构成这个空间的正交基(orthogonal basis),假若正交基中基向量的 L2 范数都是单位长度 1,这组正交基就是标准正交基(orthonormal basis)。正交基的作用就是给内积空间定义出经纬度。⼀旦描述内积空间的正交基确定了,向量和点之间的对应关系也就随之确定。

    需要注意的是,描述内积空间的正交基并不唯一。对二维空间来说,平面直角坐标系和极坐标系就对应了两组不同的正交基,也代表了两种实用的描述方式。

    线性空间的一个重要特征是能够承载变化。当作为参考系的标准正交基确定后,空间中的点就可以用向量表示。当这个点从一个位置移动到另一个位置时,描述它的向量也会发生改变。点的变化对应着向量的线性变换(linear transformation),而描述对象变化抑或向量变换的数学语言,正是矩阵。

    在线性空间中,变化的实现有两种方式:一是点本身的变化,二是参考系的变化。在第一种方式中,使某个点发生变化的方法是用代表变化的矩阵乘以代表对象的向量。可是反过来,如果保持点不变,而是换一种观察的角度,得到的也将是不同的结果,

    在这种情况下,矩阵的作用就是对正交基进行变换。因此,对于矩阵和向量的相乘,就存在不同意义:

Ax=y A x = y

    这个表达式既可以理解为向量 x 经过矩阵 A 所描述的变换,变成了向量 y y ;也可以理解为一个对象在坐标系 A 的度量下得到的结果为向量 x x ,在标准坐标系 I I (单位矩阵:主对角线元素为 1,其余元素为 0)的度量下得到的结果为向量 y。

    这表示矩阵不仅能够描述变化,也可以描述参考系本身。表达式 Ax A x 就相当于对向量 x x 做了一个环境声明,用于度量它的参考系是 A A 。如果想用其他的参考系做度量的话,就要重新声明。而对坐标系施加变换的方法,就是让表示原始坐标系的矩阵与表示变换的矩阵相乘。

    描述矩阵的⼀对重要参数是特征值(eigenvalue)和特征向量(eigenvector)。对于给定的矩阵 A A ,假设其特征值为 λ λ ,特征向量为 x x ,则它们之间的关系如下:

Ax=λx A x = λ x

    矩阵代表了向量的变换,其效果通常是对原始向量同时施加方向变化和尺度变化。可对于有些特殊的向量,矩阵的作用只有尺度变化而没有方向变化,也就是只有伸缩的效果而没有旋转的效果。对于给定的矩阵来说,这类特殊的向量就是矩阵的特征向量,特征向量的尺度变化系数就是特征值。

    矩阵特征值和特征向量的动态意义在于表示了变化的速度和方向。

    求解给定矩阵的特征值和特征向量的过程叫做特征值分解,但能够进行特征值分解的矩阵必须是 n 维方阵。将特征值分解算法推广到所有矩阵之上,就是更加通用的奇异值分解

你可能感兴趣的:(人工智能基础)