矩阵求导法则

转载自:https://blog.csdn.net/dinkwad/article/details/72819832

矩阵求导的技术,在统计学、控制论、机器学习等领域有广泛的应用。鉴于我看过的一些资料或言之不详、或繁乱无绪,本文来做个科普,分作两篇,上篇讲标量对矩阵的求导术,下篇讲矩阵对矩阵的求导术。本文使用小写字母x表示标量,粗体小写字母xx 表示向量,大写字母X表示矩阵。

首先来琢磨一下定义,标量f对矩阵X的导数,定义为

∂f∂X:=[∂f∂Xij]∂f∂X:=[∂f∂Xij]

即f对X逐元素求导排成与X尺寸相同的矩阵。然而,这个定义在计算中并不好用,实用上的原因是在对较复杂的函数难以逐元素求导;哲理上的原因是逐元素求导破坏了整体性。试想,为何要将f看做矩阵X而不是各元素XijXij的函数呢?答案是用矩阵运算更整洁。所以在求导时不宜拆开矩阵,而是要找一个从整体出发的算法。为此,我们来回顾,一元微积分中的导数(标量对标量的导数)与微分有联系:df=f′(x)dxdf=f′(x)dx;多元微积分中的梯度(标量对向量的导数)也与微分有联系:

df=∑i∂f∂xidxi=∂f∂xTdxdf=∑i∂f∂xidxi=∂f∂xTdx

这里第一个等号是全微分公式,第二个等号表达了梯度∂f∂x∂f∂x与微分的联系;受此启发,我们将矩阵导数与微分建立联系:

df=∑i,j∂f∂XijdXij=tr(∂f∂XTdX)df=∑i,j∂f∂XijdXij=tr(∂f∂XTdX)

这里tr代表迹(trace)是方阵对角线元素之和,满足性质:对尺寸相同的矩阵A,B,tr(ATB)=∑i,jAijBijtr(ATB)=∑i,jAijBij,这用泛函分析的语言来说tr(ATB)tr(ATB)是矩阵A,B的内积,因此上式与原定义相容。

 

然后来建立运算法则。回想遇到较复杂的一元函数如f=log(2+sinx)ex√f=log⁡(2+sin⁡x)ex,我们是如何求导的呢?通常不是从定义开始求极限,而是先建立了初等函数求导和四则运算、复合等法则,再来运用这些法则。故而,我们来创立常用的矩阵微分的运算法则:

加减法:d(X±Y)=dX±dYd(X±Y)=dX±dY;矩阵乘法:d(XY)=dXY+XdYd(XY)=dXY+XdY;转置:d(XT)=(dX)Td(XT)=(dX)T;迹:dtr(X)=tr(dX)dtr(X)=tr(dX)。 
逆:dX−1=−X−1dXX−1dX−1=−X−1dXX−1。此式可在XX−1=IXX−1=I两侧求微分来证明。 
行列式:d|X|=tr(X#dX)d|X|=tr(X#dX),其中X#X#表示X的伴随矩阵,在X可逆时又可以写作d|X|=|X|tr(X−1dX)d|X|=|X|tr(X−1dX)。此式可用Laplace展开来证明,详见张贤达《矩阵分析与应用》第279页。 
逐元素乘法:d(X⊙Y)=dX⊙Y+X⊙dY,⊙d(X⊙Y)=dX⊙Y+X⊙dY,⊙表示尺寸相同的矩阵X,Y逐元素相乘。 
逐元素函数:dσ(X)=σ′(X)⊙dX,σ(X)=[σ(Xij)]dσ(X)=σ′(X)⊙dX,σ(X)=[σ(Xij)]是逐元素运算的标量函数。

我们试图利用矩阵导数与微分的联系df=tr(∂f∂XTdX)df=tr(∂f∂XTdX),在求出左侧的微分df后,该如何写成右侧的形式并得到导数呢?这需要一些迹技巧(trace trick):

标量套上迹:a=tr(a)a=tr(a)。 
转置:tr(AT)=tr(A)tr(AT)=tr(A)。 
线性:tr(A±B)=tr(A)±tr(B)tr(A±B)=tr(A)±tr(B)。 
矩阵乘法交换:tr(AB)=tr(BA)tr(AB)=tr(BA)。两侧都等于∑i,jAijBji∑i,jAijBji。 
矩阵乘法/逐元素乘法交换:tr(AT(B⊙C))=tr((A⊙B)TC)tr(AT(B⊙C))=tr((A⊙B)TC)。两侧都等于∑i,jAijBijCij∑i,jAijBijCij。

观察一下可以断言,若标量函数f是矩阵X经加减乘法、行列式、逆、逐元素函数等运算构成,则使用相应的运算法则对f求微分,再使用迹技巧给df套上迹并将其它项交换至dX左侧,即能得到导数。 
在建立法则的最后,来谈一谈复合:假设已求得∂f∂Y∂f∂Y,而Y是X的函数,如何求∂f∂X∂f∂X呢?在微积分中有标量求导的链式法则∂f∂x=∂f∂y∂y∂x∂f∂x=∂f∂y∂y∂x,但这里我们不能沿用链式法则,因为矩阵对矩阵的导数∂Y∂X∂Y∂X截至目前仍是未定义的。于是我们继续追本溯源,链式法则是从何而来?源头仍然是微分。我们直接从微分入手建立复合法则:先写出df=tr(∂f∂YTdY)df=tr(∂f∂YTdY),再将dY用dX表示出来代入,并使用迹技巧将其他项交换至dX左侧,即可得到∂f∂X∂f∂X。

接下来演示一些算例。特别提醒要依据已经建立的运算法则来计算,不能随意套用微积分中标量导数的结论,比如认为AX对X的导数为A,这是没有根据、意义不明的。

例1:f=aTXb,求∂f∂Xf=aTXb,求∂f∂X。

解:先使用矩阵乘法法则求微分:df=aTdXbdf=aTdXb,再套上迹并做交换:df=tr(aTdXb)=tr(baTdX)df=tr(aTdXb)=tr(baTdX),对照导数与微分的联系,得到∂f∂X=abT∂f∂X=abT。

注意:这里不能用∂f∂X=aT∂X∂Xb=?∂f∂X=aT∂X∂Xb=?,导数与乘常数矩阵的交换是不合法则的运算(而微分是合法的)。有些资料在计算矩阵导数时,会略过求微分这一步,这是逻辑上解释不通的。

例2【线性回归】:l=∥Xw−y∥2l=‖Xw−y‖2,求∂l∂w∂l∂w。

解:严格来说这是标量对向量的导数,不过可以把向量看做矩阵的特例。将向量范数写成l=(Xw−y)T(Xw−y)l=(Xw−y)T(Xw−y),求微分,使用矩阵乘法、转置等法则:dl=(Xdw)T(Xw−y)+(Xw−y)T(Xdw)=2(Xw−y)TXdwdl=(Xdw)T(Xw−y)+(Xw−y)T(Xdw)=2(Xw−y)TXdw。对照导数与微分的联系,得到∂l∂w=2XT(Xw−y)∂l∂w=2XT(Xw−y)。

例3【多元logistic回归】:l=−yTlogsoftmax(Wx),求∂l∂Wl=−yTlog⁡softmax(Wx),求∂l∂W。其中yy是除一个元素为1外其它元素为0的向量;softmax(a)=exp(a)1Texp(a)softmax(a)=exp⁡(a)1Texp⁡(a),其中exp(a)exp⁡(a)表示逐元素求指数,11代表全1向量。

解:首先将softmax函数代入并写成

l=−yT(log(exp(Wx))−1log(1Texp(Wx)))=−yTWx+log(1Texp(Wx))l=−yT(log⁡(exp⁡(Wx))−1log⁡(1Texp⁡(Wx)))=−yTWx+log⁡(1Texp⁡(Wx))

这里要注意向量除标量求逐元素log满足

log(b/c)=log(b)−1log(c)log⁡(b/c)=log⁡(b)−1log⁡(c)

以及yy满足yT1=1yT1=1。求微分,使用矩阵乘法、逐元素函数等法则:

dl=−yTdWx+1T(exp(Wx)⊙(dWx))1Texp(Wx)dl=−yTdWx+1T(exp⁡(Wx)⊙(dWx))1Texp⁡(Wx)

再套上迹并做交换,其中第二项的分子是

tr(1T(exp(Wx)⊙(dWx)))=tr((1⊙exp(Wx))TdWx)=tr(exp(Wx)TdWx)tr(1T(exp⁡(Wx)⊙(dWx)))=tr((1⊙exp⁡(Wx))TdWx)=tr(exp⁡(Wx)TdWx)

,故

dl=tr(−yTdWx+exp(Wx)TdWx1Texp(Wx))=tr(x(softmax(Wx)−y)TdW)dl=tr(−yTdWx+exp⁡(Wx)TdWx1Texp⁡(Wx))=tr(x(softmax(Wx)−y)TdW)

。对照导数与微分的联系,得到∂l∂W=(softmax(Wx)−y)xT∂l∂W=(softmax(Wx)−y)xT。

 

另解:定义a=Wxa=Wx,则l=−yTlogsoftmax(a)l=−yTlog⁡softmax(a),先如上求出∂l∂a=softmax(a)−y∂l∂a=softmax(a)−y,再利用复合法则:dl=tr(∂l∂aTda)=tr(∂l∂aTdWx)=tr(x∂l∂aTdW)dl=tr(∂l∂aTda)=tr(∂l∂aTdWx)=tr(x∂l∂aTdW),得到∂l∂W=∂l∂axT∂l∂W=∂l∂axT。

例4【方差的最大似然估计】:样本x1,…,xn∼N(μ,Σ)x1,…,xn∼N(μ,Σ),其中ΣΣ是对称正定矩阵,求方差ΣΣ的最大似然估计。写成数学式是:l=log|Σ|+1n∑ni=1(xi−x¯)TΣ−1(xi−x¯)l=log⁡|Σ|+1n∑i=1n(xi−x¯)TΣ−1(xi−x¯),求∂l∂Σ∂l∂Σ的零点。

解:首先求微分,使用矩阵乘法、行列式、逆等运算法则,第一项是dlog|Σ|=|Σ|−1d|Σ|=tr(Σ−1dΣ)dlog⁡|Σ|=|Σ|−1d|Σ|=tr(Σ−1dΣ),第二项是1n∑ni=1(xi−x¯)TdΣ−1(xi−x¯)=−1n∑ni=1(xi−x¯)TΣ−1dΣΣ−1(xi−x¯)1n∑i=1n(xi−x¯)TdΣ−1(xi−x¯)=−1n∑i=1n(xi−x¯)TΣ−1dΣΣ−1(xi−x¯)。再给第二项套上迹做交换:dl=tr((Σ−1−Σ−1SnΣ−1)dΣ)dl=tr((Σ−1−Σ−1SnΣ−1)dΣ),其中Sn:=1n∑ni=1(xi−x¯)(xi−x¯)TSn:=1n∑i=1n(xi−x¯)(xi−x¯)T定义为样本方差。对照导数与微分的联系,有∂l∂Σ=(Σ−1−Σ−1SnΣ−1)T∂l∂Σ=(Σ−1−Σ−1SnΣ−1)T,其零点即ΣΣ的最大似然估计为Σ=SnΣ=Sn。

最后一例留给经典的神经网络。神经网络的求导术是学术史上的重要成果,还有个专门的名字叫做BP算法,我相信如今很多人在初次推导BP算法时也会颇费一番脑筋,事实上使用矩阵求导术来推导并不复杂。为简化起见,我们推导二层神经网络的BP算法。

例5【二层神经网络】:

l=−yTlogsoftmax(W2σ(W1x))l=−yTlog⁡softmax(W2σ(W1x))

∂l∂W1和∂l∂W2∂l∂W1和∂l∂W2

其中yy是除一个元素为1外其它元素为0的向量,softmax(a)=exp(a)1Texp(a)softmax(a)=exp⁡(a)1Texp⁡(a)同例3,σ(⋅)σ(⋅)是逐元素sigmoidsigmoid函数σ(a)=11+exp(−a)σ(a)=11+exp⁡(−a)。

 

解:定义a1=W1x,h1=σ(a1),a2=W2h1a1=W1x,h1=σ(a1),a2=W2h1,则l=−yTlogsoftmax(a2)l=−yTlog⁡softmax(a2)。在例3中已求出∂l∂a2=softmax(a2)−y∂l∂a2=softmax(a2)−y。使用复合法则,注意此处h1,W2h1,W2都是变量:

dl=tr(∂l∂a2Tda2)=tr(∂l∂a2TdW2h1)+tr(∂l∂a2TW2dh1)dl=tr(∂l∂a2Tda2)=tr(∂l∂a2TdW2h1)+tr(∂l∂a2TW2dh1)

,使用矩阵乘法交换的迹技巧从第一项得到∂l∂W2=∂l∂a2hT1∂l∂W2=∂l∂a2h1T,从第二项得到∂l∂h1=WT2∂l∂a2∂l∂h1=W2T∂l∂a2。接下来求∂l∂a1∂l∂a1,继续使用复合法则,并利用矩阵乘法和逐元素乘法交换的迹技巧:

tr(∂l∂h1Tdh1)=tr(∂l∂h1T(σ′(a1)⊙da1))=tr((∂l∂h1⊙σ′(a1))Tda1)tr(∂l∂h1Tdh1)=tr(∂l∂h1T(σ′(a1)⊙da1))=tr((∂l∂h1⊙σ′(a1))Tda1)

得到∂l∂a1=∂l∂h1⊙σ′(a1)∂l∂a1=∂l∂h1⊙σ′(a1)。为求∂l∂W1∂l∂W1再用一次复合法则:

tr(∂l∂a1Tda1)=tr(∂l∂a1TdW1x)=tr(x∂l∂a1TdW1)tr(∂l∂a1Tda1)=tr(∂l∂a1TdW1x)=tr(x∂l∂a1TdW1)

得到

∂l∂W1=∂l∂a1xT

来讲矩阵对矩阵的求导术。使用小写字母x表示标量,粗体小写字母表示列向量,大写字母X表示矩阵。矩阵对矩阵的求导采用了向量化的思路,常应用于二阶方法求解优化问题。

首先来琢磨一下定义。矩阵对矩阵的导数,需要什么样的定义?第一,矩阵F(p×q)对矩阵X(m×n)的导数应包含所有mnpq个偏导数,从而不损失信息;第二,导数与微分有简明的联系,因为在计算导数和应用中需要这个联系;第三,导数有简明的从整体出发的算法。我们先定义向量(p×1)对向量(m×1)的导数\frac{\partial \boldsymbol{f}}{\partial \boldsymbol{x}} = \begin{bmatrix} \frac{\partial f_1}{\partial x_1} & \frac{\partial f_2}{\partial x_1} & \cdots & \frac{\partial f_p}{\partial x_1}\\ \frac{\partial f_1}{\partial x_2} & \frac{\partial f_2}{\partial x_2} & \cdots & \frac{\partial f_p}{\partial x_2}\\ \vdots & \vdots & \ddots & \vdots\\ \frac{\partial f_1}{\partial x_m} & \frac{\partial f_2}{\partial x_m} & \cdots & \frac{\partial f_p}{\partial x_m}\\ \end{bmatrix}(m×p),有;再定义矩阵的(按列优先)向量化(mn×1),并定义矩阵F对矩阵X的导数(mn×pq)。导数与微分有联系。几点说明如下:

  1. 按此定义,标量f对矩阵X(m×n)的导数是mn×1向量,与上篇的定义不兼容,不过二者容易相互转换。为避免混淆,用记号表示上篇定义的m×n矩阵,则有。虽然本篇的技术可以用于标量对矩阵求导这种特殊情况,但使用上篇中的技术更方便。读者可以通过上篇中的算例试验两种方法的等价转换。
  2. 标量对矩阵的二阶导数,又称Hessian矩阵,定义为(mn×mn),是对称矩阵。对向量或矩阵求导都可以得到Hessian矩阵,但从矩阵出发更方便。
  3. ,求导时矩阵被向量化,弊端是这在一定程度破坏了矩阵的结构,会导致结果变得形式复杂;好处是多元微积分中关于梯度、Hessian矩阵的结论可以沿用过来,只需将矩阵向量化。例如优化问题中,牛顿法的更新,满足
  4. 在资料中,矩阵对矩阵的导数还有其它定义,比如(mp×nq),它能兼容上篇中的标量对矩阵导数的定义,但微分与导数的联系(dF等于中每个m×n子块分别与dX做内积)不够简明,不便于计算和应用。

 

然后来建立运算法则。仍然要利用导数与微分的联系,求微分的方法与上篇相同,而从微分得到导数需要一些向量化的技巧:

  1. 线性:。
  2. 矩阵乘法:,其中表示Kronecker积,A(m×n)与B(p×q)的Kronecker积是(mp×nq)。此式证明见张贤达《矩阵分析与应用》第107-108页。
  3. 转置:,A是m×n矩阵,其中(mn×mn)是交换矩阵(commutation matrix)。
  4. 逐元素乘法:,其中(mn×mn)是用A的元素(按列优先)排成的对角阵。

 

观察一下可以断言,若矩阵函数F是矩阵X经加减乘法、行列式、逆、逐元素函数等运算构成,则使用相应的运算法则对F求微分,再做向量化并使用技巧将其它项交换至vec(dX)左侧,即能得到导数。

再谈一谈复合:假设已求得,而Y是X的函数,如何求呢?从导数与微分的联系入手,,可以推出链式法则。

 

和标量对矩阵的导数相比,矩阵对矩阵的导数形式更加复杂,从不同角度出发常会得到形式不同的结果。有一些Kronecker积和交换矩阵相关的恒等式,可用来做等价变形:

  1. 。可以对求导来证明,一方面,直接求导得到;另一方面,引入,有,用链式法则得到。
  2. ,A是m×n矩阵,B是p×q矩阵。可以对做向量化来证明,一方面,;另一方面,。

 

接下来演示一些算例。

例1:,X是m×n矩阵,求。

解:先求微分:,再做向量化,使用矩阵乘法的技巧,注意在dX右侧添加单位阵:,对照导数与微分的联系得到。

特例:如果X退化为向量,  ,则根据向量的导数与微分的关系  ,得到  。

 

例2:,X是n×n矩阵,求和。

解:使用上篇中的技术可求得。为求,先求微分:,再做向量化,使用转置和矩阵乘法的技巧,对照导数与微分的联系,得到,注意它是对称矩阵。在是对称矩阵时,可简化为。

 

例3:,A是l×m,X是m×n,B是n×p矩阵,exp()为逐元素函数,求。

解:先求微分:,再做向量化,使用矩阵乘法的技巧:,再用逐元素乘法的技巧:,再用矩阵乘法的技巧:,对照导数与微分的联系得到。

 

例4【一元logistic回归】:,求和。其中是取值0或1的标量,是向量。

解:使用上篇中的技术可求得,其中 为sigmoid函数。为求,先求微分:,其中为sigmoid函数的导数,对照导数与微分的联系,得到。

推广:样本,,求和。有两种方法,方法一:先对每个样本求导,然后相加;方法二:定义矩阵,向量,将写成矩阵形式,进而可以求得,。

 

例5【多元logistic回归】:,求和。

解:上篇例3中已求得。为求,先求微分:定义,d\text{softmax}(\boldsymbol{a}) = \frac{\exp(\boldsymbol{a})\odot d\boldsymbol{a}}{\boldsymbol{1}^T\exp(\boldsymbol{a})} - \frac{\exp(\boldsymbol{a}) (\boldsymbol{1}^T(\exp(\boldsymbol{a})\odot d\boldsymbol{a}))}{(\boldsymbol{1}^T\exp(\boldsymbol{a}))^2},这里需要化简去掉逐元素乘法,第一项中,第二项中,故有,其中,代入有,做向量化并使用矩阵乘法的技巧,得到。

 

最后做个总结。我们发展了从整体出发的矩阵求导的技术,导数与微分的联系是计算的枢纽,标量对矩阵的导数与微分的联系是,先对f求微分,再使用迹技巧可求得导数,特别地,标量对向量的导数与微分的联系是;矩阵对矩阵的导数与微分的联系是,先对F求微分,再使用向量化的技巧可求得导数,特别地,向量对向量的导数与微分的联系是。

 

 

参考资料:

  1. 张贤达. 矩阵分析与应用. 清华大学出版社有限公司, 2004.
  2. Fackler, Paul L. "Notes on matrix calculus." North Carolina State University(2005).
  3. Petersen, Kaare Brandt, and Michael Syskind Pedersen. "The matrix cookbook." Technical University of Denmark 7 (2008): 15.
  4. HU, Pili. "Matrix Calculus: Derivation and Simple Application." (2012).

 

你可能感兴趣的:(深度学习)