让向量、矩阵和张量的求导更简洁些吧

点击上方蓝色字体,关注我们

本文是我在阅读 Erik Learned-Miller 的《Vector, Matrix, and Tensor Derivatives》时的记录。 本文的主要内容是帮助你学习如何进行向量、矩阵以及高阶张量(三维及以上的数组)的求导。并一步步引导你来进行向量、矩阵和张量的求导。

1  简化、简化,还是简化(重要的事情说三遍)

在求解涉及到数组的导数时,大部分的困难是因为试图一次性做太多事情。比如说同时求解多个组成部分的导数,在求和符号存在的情况下求解导数,或者使用链式法则。在有丰富的求导经验之前,同时执行所有的这些操作,我们就很容易出错。

1.1 将矩阵计算分解为单个标量的计算

为了简化给定的计算,我们将矩阵的求导分解为每个单独标量元素的表达式,每个表达式只包含标量变量。在写出单个标量元素与其他标量值的表达式后,就可以使用微积分来计算。这比同时进行矩阵的求和以及求导要容易一些。(看起来有点晕,没关系,看后面的案例就清晰了)。

例如:假设我们有一个 阶列向量 ,它是由 维矩阵 和 阶列向量 计算得到:

假设我们计算 关于 的导数。要完完全全的求解导数,就需要计算 中的每一个元素对 中的每一个元素的(偏)导数。那么在本例中,因为 中有 个元素, 中有 个元素,所以一个包含 次运算。

比如说,我们要计算 的第 3 个元素对 的第 7 个元素的(偏)导数,这就是向量中的一个标量对其他向量中的一个标量求导:

在求导之前,首先要做的就是写下计算 的公式, 根据矩阵-向量乘法的定义, 等于矩阵 中的第 3 行和向量 的点积。

现在,我们将原始的矩阵方程式(1)简化成了标量方程式。此时再进行求导就简单多了。

1.2 去除求和符号

虽然可以直接在上述公式中求导,但是在包含求和符号( )或者连乘符号( )的方程式中求导很容易出错。在求导之前,最好先去掉求和符号,把各项相加的表达式写出来,确保每一项不出错。去掉求和符号的表达式如下所示(下标从 1 开始):

在这个表达式中,我们专门把 凸显出来,这是因为这一项正是我们要求导的项。显然,可以看出在求 对 的偏导数时,我们只需要关心 这一项即可。因为其他项都不包含 ,它们对 的偏导数均为 0。接下来就很清晰了:

在求导过程中,只关注 中的一个量和 中的一个量,能够把求导过程简化很多。如果以后进行求导时遇到问题,采取这种方式可以帮助我们把问题简化至最基础的程度,这样便于理清思绪、找出问题所在。

1.2.1 完成求导:雅可比矩阵

我们的最终目标是计算出 中的每个元素对 中每个元素的导数,共计 个。

下面的这个雅克比矩阵直观的表示了这些导数:

对于公式 来说, 对 的偏导数可以用 来表示。实际上对于所有的 和 来说,都有

即上述的偏导数矩阵等于:

显然,就是 本身嘛。

因此,我们最终可以得出,对于 , 对于 的偏导数为:

2 行向量的情况

现在关于神经网络的第三方包特别多,在使用这些包的时候,要特别关注权值矩阵、数据矩阵等的排列。例如:数据矩阵 中包含非常多的向量,每个向量代表一个输入,那到底是矩阵中的每一行代表一个输入,还是每一列代表一个输入呢?

在第一节中,我们介绍的示例中使用的向量 是列向量。不过当 是行向量时,求导的基本思想是一致的。

2.1 示例 2

在本例中, 是一个 阶行向量,它是由 阶行向量 和 维矩阵 和计算得到:

虽然 和 的元素数量和之前的列向量是一样的,但矩阵 相当于第一节使用的矩阵 的转置。并且本例中是矩阵 左乘 ,而不是之前的右乘。

在本例中,我们同样可以写出 的表达式:

同样地,

注意本例中的 的下标和第一节中的相反。如果我们写出完整的雅克比矩阵的话, 我们仍然可以得出完整的求导结果:

3 维度大于 2 的情况 让我们考虑另一个密切相关的情形,如下式:


在这种情形中, 沿着一个坐标变化,而 沿着两个坐标变化。因此,整个导数自然是一个三维数组。一般避免使用“三维矩阵”这种术语,因为矩阵乘法和其他矩阵操作在三维数组中的定义尚不明确。

在处理三维数组时,试图去找到一种展示它们的方法可能带来不必要的麻烦。直接将结果定义为公式会更简单一些,这些公式可用于计算三维中的任何元素。

我们继续从计算标量的导数开始,比如 中的一个元素 和 中的一个元素 。首先要做的还是写出 的表达式:

显然, 在 的表达式中没有起到任何作用,因此,

同时, 对 中第 3 列元素的求导结果是非零的,正如   表达式 中展示的 那样。例如 对 的偏导数为:

一般来说,当 中元素的下标等于 中元素的第二个下标时,其偏导数就是非零的,其他情况则为零。整理如下:

除此之外,三维数组中其他的元素都是 0。如果我们用 来表示 对 的导数,

那么, ,其余的情况等于 0 此时如果我们使用一个二维数组 来表示三维数组 ,

可以看出,三维数组 中的全部数据实际上都可以使用二维数组 来存储,也就是说, 中的非零部分其实是二维的,而非三维的。 以更加紧凑的方式来表示导数数组对于神经网络的高效实现来说,意义重大。

4 多维数据

前面提到的实例中,不论是 还是 都只是一个向量。当需要多条数据时,例如多个向量 组成一个矩阵 时,又该如何计算呢?

我们假设每个单独的 都是一个 阶行向量,矩阵 则是一个 的二维数组。而矩阵 和之前实例中的一样,为 的矩阵。此时 的表达式为:  


是一个 行 列的矩阵。因此, 中的每一行给出一个与输入 中对应行相关的行向量。按照之前的方式,可以写出如下表达式:  
从这个方程式可以看出,对于偏导数 ,只有当 的情况下不为0,其他情况均为0。因为 中的每一个元素都只对 与 中对应的那一行求导, 与 的不同行元素之间的导数均为0。 还可以进一步看出,计算偏导数  

 与 和 的行没关系。

实际上,矩阵 包含了所有的偏导数,我们只需要根据上述公式来找到我们想要的某个具体地偏导数。

如果用 来表示 中的第 行,用 来表示 中的第 行,那么  

5  链式法则

上面介绍了两个基本示例和求导方法,本节将上述方法和链式法则结合起来。

同样,假设 和 为两个列向量,  


在计算 对 的导数时,我们可以直观地将两个矩阵 和 的乘积视为另一个矩阵 ,则  


但是,我们想明确使用链式法则来定义中间量的过程,从而观察非标量求导是如何应用链式法则的。我们将中间量定义为


此时,


那么在求导时,我们使用链式法则:  
为了确保确切地清楚该式的含义,我们还是使用每次只分析一个元素的方法, 中的一个元素对 中的一个元素的导数为:  
链式法则的思想是当某个函数由复合函数表示,那么该复合函数的导师,可以用构成复合函数的各个函数的导数乘积来表示。

如果 中有M个元素,那么上式可以写成:  

回忆一下之前向量对向量的求导方法,我们可以发现,

整理可得:  

至此,我们用 和 中的元素表示出了求导表达式。

让向量、矩阵和张量的求导更简洁些吧_第1张图片

微信号:yikeAI14539

知乎:李是Lyapunov的李

添加微信号,加入交流群

你可能感兴趣的:(神经网络,算法,java,机器学习,python)