矩阵求导术(上)

对原文进行了重新整理排版:
转自知乎长躯鬼侠的专栏,(根据我的推测作者本科是清华大学电子工程系,现在卡内基梅隆大学(世界第一CS大学)计算机工程学博士生),在此献上我的膝盖.
原文地址:https://zhuanlan.zhihu.com/p/24709748


正文:

矩阵求导的技术,在统计学、控制论、机器学习等领域有广泛的应用。鉴于我看过的一些资料或言之不详、或繁乱无绪,本文来做个科普,分作两篇,上篇讲标量对矩阵的求导术,下篇讲矩阵对矩阵的求导术。本文使用小写字母x表示标量,粗体小写字母表示(列)向量,大写字母表示矩阵。

首先来琢磨一下定义,标量f对矩阵X的导数,定义为

f对逐元素求导排成与尺寸相同的矩阵。然而,这个定义在计算中并不好用,实用上的原因是对函数较复杂的情形难以逐元素求导;哲理上的原因是逐元素求导破坏了整体性。试想,为何要将f看做矩阵而不是各元素的函数呢?答案是用矩阵运算更整洁。所以在求导时不宜拆开矩阵,而是要找一个从整体出发的算法。

为此,我们来回顾,一元微积分中的导数(标量对标量的导数)与微分有联系:

多元微积分中的梯度(标量对向量的导数)也与微分有联系:

这里第一个等号是全微分公式,第二个等号表达了梯度与微分的联系:全微分是梯度向量与微分向量的内积

受此启发,我们将矩阵导数与微分建立联系:

其中代表迹(trace)是方阵对角线元素之和,满足性质:对尺寸相同的矩阵A,B,,即是矩阵,的内积。与梯度相似,这里第一个等号是全微分公式,第二个等号表达了矩阵导数与微分的联系:全微分是导数与微分矩阵的内积。


运算法则

然后来建立运算法则。回想遇到较复杂的一元函数如,我们是如何求导的呢?通常不是从定义开始求极限,而是先建立了初等函数求导和四则运算、复合等法则,再来运用这些法则。故而,我们来创立常用的矩阵微分的运算法则:

  1. 加减法:;矩阵乘法: ;转置:;迹:。
  2. 逆:。此式可在两侧求微分来证明。
  3. 行列式: ,其中表示的伴随矩阵,在可逆时又可以写作。此式可用Laplace展开来证明,详见张贤达《矩阵分析与应用》第279页。
  4. 逐元素乘法:,表示尺寸相同的矩阵,逐元素相乘。
  5. 逐元素函数: ,是逐元素标量函数运算, 是逐元素求导数。举个例子,

X=\left[\begin{matrix}x_{11} & x_{12} \\ x_{21} & x_{22}\end{matrix}\right], d \sin(X) = \left[\begin{matrix}\cos x_{11} dx_{11} & \cos x_{12} d x_{12}\\ \cos x_{21} d x_{21}& \cos x_{22} dx_{22}\end{matrix}\right] = \cos(X)\odot dX


迹技巧

我们试图利用矩阵导数与微分的联系 ,在求出左侧的微分后,该如何写成右侧的形式并得到导数呢?这需要一些迹技巧(trace trick):

  1. 标量套上迹:
  2. 转置:。
  3. 线性:。
  4. 矩阵乘法交换:,其中与尺寸相同。两侧都等于。
  5. 矩阵乘法/逐元素乘法交换:,其中,,尺寸相同。两侧都等于。

观察一下可以断言,若标量函数f是矩阵经加减乘法、逆、行列式、逐元素函数等运算构成,则使用相应的运算法则对f求微分,再使用迹技巧给套上迹并将其它项交换至左侧,对照导数与微分的联系,即能得到导数。

特别地,若矩阵退化为向量,对照导数与微分的联系 ,即能得到导数。

在建立法则的最后,来谈一谈复合:假设已求得,而是的函数,如何求呢?在微积分中有标量求导的链式法则,但这里我们不能随意沿用标量的链式法则,因为矩阵对矩阵的导数截至目前仍是未定义的。于是我们继续追本溯源,链式法则是从何而来?源头仍然是微分。我们直接从微分入手建立复合法则:先写出,再将用表示出来代入,并使用迹技巧将其他项交换至左侧,即可得到。

最常见的情形是,此时

df = \text{tr}\left(\frac{\partial f}{\partial Y}^T dY\right) = \text{tr}\left(\frac{\partial f}{\partial Y}^T AdXB\right) = \text{tr}\left(B\frac{\partial f}{\partial Y}^T AdX\right) = \text{tr}\left((A^T\frac{\partial f}{\partial Y}B^T)^T dX\right)

可得到


例子

接下来演示一些算例。特别提醒要依据已经建立的运算法则来计算,不能随意套用微积分中标量导数的结论,比如认为AX对X的导数为A,这是没有根据、意义不明的。

例1:

,求。其中是列向量,是矩阵是列向量,f是标量。

解:

先使用矩阵乘法法则求微分,,注意这里的,是常量,,,得到: 。

由于是标量,它的迹等于自身,,套上迹并做矩阵乘法交换:,注意这里我们根据交换了与。

对照导数与微分的联系,得到。

注意:这里不能用,导数与矩阵乘法的交换是不合法则的运算(而微分是合法的)。有些资料在计算矩阵导数时,会略过求微分这一步,这是逻辑上解释不通的。

例2:

,求。其中是列向量,是矩阵,是列向量,表示逐元素求指数,f是标量。

解:

先使用矩阵乘法、逐元素函数法则求微分:

再套上迹并做交换:

注意这里我们先根据交换了、与,再根据交换了与。

对照导数与微分的联系,得到

例3:

,求。其中是列向量,是矩阵,是矩阵,是对称矩阵,是逐元素函数,f是标量。

解:

先求,求微分,使用矩阵乘法、转置法则:,对照导数与微分的联系,得到,这里是对称矩阵。

为求,再将用表示出来代入,并使用矩阵乘法/逐元素乘法交换:,对照导数与微分的联系,得到。

例4【线性回归】:

, 求的最小二乘估计,即求的零点。其中是列向量,是矩阵,是列向量,l是标量。

解:

这是标量对向量的导数,不过可以把向量看做矩阵的特例。

先将向量模平方改写成向量与自身的内积:

求微分,使用矩阵乘法、转置等法则:

对照导数与微分的联系,得到。

的最小二乘估计为。

例5【方差的最大似然估计】:

样本,求方差的最大似然估计。

写成数学式是:,求的零点。其中是列向量,是样本均值,对称正定矩阵,l是标量,表示自然对数。

解:
首先求微分,使用矩阵乘法、行列式、逆等运算法则,

第一项是
第二项是\frac{1}{N}\sum_{i=1}^N(\boldsymbol{x}_i-\boldsymbol{\bar{x}})^Td\Sigma^{-1}(\boldsymbol{x}_i-\boldsymbol{\bar{x}}) = -\frac{1}{N}\sum_{i=1}^N(\boldsymbol{x}_i-\boldsymbol{\bar{x}})^T\Sigma^{-1}d\Sigma\Sigma^{-1}(\boldsymbol{x}_i-\boldsymbol{\bar{x}})

再给第二项套上迹做交换:
= = ,

其中先交换迹与求和,然后将 交换到左边,最后再交换迹与求和,并定义为样本方差矩阵。
得到。对照导数与微分的联系,有,其零点即的最大似然估计为。

例6【多元logistic回归】:

,求。其中是除一个元素为1外其它元素为0的列向量,是矩阵,是列向量,l是标量;表示自然对数,,其中表示逐元素求指数,代表全1向量。

解1:

首先将softmax函数代入并写成 = ,这里要注意逐元素log满足等式,以及满足。

求微分,使用矩阵乘法、逐元素函数等法则:。

再套上迹并做交换,注意可化简,这是根据等式,


=
= 。

对照导数与微分的联系,得到。

解2:

定义,则,先同上求出 ,再利用复合法则:dl = \text{tr}\left(\frac{\partial l}{\partial \boldsymbol{a}}^Td\boldsymbol{a}\right) = \text{tr}\left(\frac{\partial l}{\partial \boldsymbol{a}}^TdW \boldsymbol{x}\right) = \text{tr}\left(\boldsymbol{x}\frac{\partial l}{\partial \boldsymbol{a}}^TdW\right)
得到。

最后一例留给经典的神经网络。神经网络的求导术是学术史上的重要成果,还有个专门的名字叫做BP算法,我相信如今很多人在初次推导BP算法时也会颇费一番脑筋,事实上使用矩阵求导术来推导并不复杂。为简化起见,我们推导二层神经网络的BP算法。

例7【二层神经网络】:

,求和。其中是除一个元素为1外其它元素为0的的列向量,是矩阵,是矩阵,是列向量,l是标量;表示自然对数,同上,是逐元素sigmoid函数

解:

定义,,,则。在前例中已求出 。

使用复合法则,
=
= ,

使用矩阵乘法交换的迹技巧从第一项得到,从第二项得到 = 。

接下来对第二项继续使用复合法则来求,并利用矩阵乘法和逐元素乘法交换的迹技巧:

= = = ,

得到。为求,再用一次复合法则:dl_2 = \text{tr}\left(\frac{\partial l}{\partial\boldsymbol{a}_1}^Td\boldsymbol{a}_1\right) = \text{tr}\left(\frac{\partial l}{\partial\boldsymbol{a}_1}^TdW_1\boldsymbol{x}\right) = \text{tr}\left(\boldsymbol{x}\frac{\partial l}{\partial\boldsymbol{a}_1}^TdW_1\right),得到。

推广:

样本,,其中是列向量,是列向量,其余定义同上。

解1:
定义,,,则。

先同上可求出 。

使用复合法则, = = \text{tr}\left( \sum_{i=1}^N \frac{\partial l}{\partial \boldsymbol{a}_{2,i}}^T dW_2 \boldsymbol{h}_{1,i}\right) + \underbrace{\text{tr}\left( \sum_{i=1}^N \frac{\partial l}{\partial \boldsymbol{a}_{2,i}}^T W_2 d\boldsymbol{h}_{1,i}\right)}_{dl_2} + \text{tr}\left( \sum_{i=1}^N \frac{\partial l}{\partial \boldsymbol{a}_{2,i}}^T d \boldsymbol{b}_2\right)

从第一项得到得到,

从第二项得到,

从第三项得到到。

接下来对第二项继续使用复合法则,得到。

为求,

再用一次复合法则: = ,

得到,。

解2:

可以用矩阵来表示N个样本,以简化形式。
定义,,,,注意这里使用全1向量来扩展维度。先同上求出 。

使用复合法则, = \text{tr}\left( \frac{\partial l}{\partial A_2}^T dW_2 H_1 \right) + \underbrace{\text{tr}\left(\frac{\partial l}{\partial A_2}^T W_2 d H_1\right)}_{dl_2} + \text{tr}\left(\frac{\partial l}{\partial A_2}^T d \boldsymbol{b}_2 \boldsymbol{1}^T\right)

从第一项得到,
从第二项得到,
从第三项得到到。

接下来对第二项继续使用复合法则,得到。

为求, ,再用一次复合法则: = ,得到,。

你可能感兴趣的:(矩阵求导术(上))