对于函数 Y = X W Y = XW Y=XW( 注: X X X是一个 m × n m \times n m×n的矩阵, W W W是一个 n × k n \times k n×k的矩阵, Y Y Y是一个 m × k m \times k m×k的矩阵。这里的 W W W通常代表模型的权重,而 X X X代表输入数据。)
如何求 ∂ Y ∂ W \frac{\partial Y}{\partial W} ∂W∂Y呢,通常我们只关心其一个特定的切片,即 ∂ Y i j ∂ W r s \frac{\partial Y_{ij}}{\partial W_{rs}} ∂Wrs∂Yij。
对于单个元素 Y i j Y_{ij} Yij而言,其是矩阵 X X X的第 i i i行和矩阵 W W W的第 j j j列的点积。因此:
Y i j = ∑ p = 1 n X i p ⋅ W p j Y_{ij} = \sum_{p=1}^{n} X_{ip} \cdot W_{pj} Yij=p=1∑nXip⋅Wpj
当我们对 Y i j Y_{ij} Yij关于 W r s W_{rs} Wrs求导时,我们只关心 W r s W_{rs} Wrs这一项,其他项的导数为0。因此:
∂ Y i j ∂ W r s = ∂ ∂ W r s ( ∑ p = 1 n X i p ⋅ W p j ) \frac{\partial Y_{ij}}{\partial W_{rs}} = \frac{\partial}{\partial W_{rs}} \left( \sum_{p=1}^{n} X_{ip} \cdot W_{pj} \right) ∂Wrs∂Yij=∂Wrs∂(p=1∑nXip⋅Wpj)
∂ Y i j ∂ W r s = X i r ⋅ ∂ W s j ∂ W r s \frac{\partial Y_{ij}}{\partial W_{rs}} = X_{ir} \cdot \frac{\partial W_{sj}}{\partial W_{rs}} ∂Wrs∂Yij=Xir⋅∂Wrs∂Wsj
由于 ∂ W s j ∂ W r s \frac{\partial W_{sj}}{\partial W_{rs}} ∂Wrs∂Wsj只有当 s = r s = r s=r且 j = s j = s j=s时才为1,否则为0,因此:
∂ Y i j ∂ W r s = X i r ⋅ δ s j \frac{\partial Y_{ij}}{\partial W_{rs}} = X_{ir} \cdot \delta_{sj} ∂Wrs∂Yij=Xir⋅δsj
其中 δ s j \delta_{sj} δsj是Kronecker delta 函数,当 s = j s = j s=j时为1,否则为0
因此, ∂ Y ∂ W \frac{\partial Y}{\partial W} ∂W∂Y的每个元素 ∂ Y i j ∂ W r s \frac{\partial Y_{ij}}{\partial W_{rs}} ∂Wrs∂Yij都是一个 m × n × k m \times n \times k m×n×k的张量,其中 i i i和 j j j分别索引 Y Y Y的行和列,而 r r r和 s s s分别索引 W W W的行和列。
然而,通常我们不会将 ∂ Y ∂ W \frac{\partial Y}{\partial W} ∂W∂Y视为一个张量,而是将其简化为一个矩阵。因为在实际应用中,我们通常对整个矩阵 W W W进行更新,而不是单独更新它的每个元素。因此,我们可以将 ∂ Y ∂ W \frac{\partial Y}{\partial W} ∂W∂Y的所有元素 ∂ Y i j ∂ W r s \frac{\partial Y_{ij}}{\partial W_{rs}} ∂Wrs∂Yij合并成一个 m × k × n m \times k \times n m×k×n的张量,然后将其简化为一个 m × n m \times n m×n的矩阵,即 X X X。这是因为在矩阵乘法中, Y Y Y的每个元素 Y i j Y_{ij} Yij只依赖于 X X X的第 i i i行和 W W W的第 j j j列,所以 ∂ Y ∂ W \frac{\partial Y}{\partial W} ∂W∂Y实际上是一个 m × n m \times n m×n的矩阵,而不是一个 m × n × k m \times n \times k m×n×k的张量,最终有:
∂ Y ∂ W = X \frac{\partial Y}{\partial W} = X ∂W∂Y=X
可通过此网站 https://www.matrixcalculus.org/ 验证矩阵求导的正确性。
在神经网络的链式求导过程,我们求 Y Y Y对 W W W的梯度,通常还会乘以 Y Y Y本身对应的梯度 g r a d y grad_y grady, g r a d y grad_y grady 是 m × k m \times k m×k的矩阵,这时候我们需要对 ∂ Y ∂ W \frac{\partial Y}{\partial W} ∂W∂Y转置。
Softmax函数的定义是:
p i = e z i ∑ j e z j p_i = \frac{e^{z_i}}{\sum_j e^{z_j}} pi=∑jezjezi
对于Softmax函数的导数 ∂ p i ∂ z j \frac{\partial p_i}{\partial z_j} ∂zj∂pi, 可以通过以下方式计算:
∂ p i ∂ z j = ∂ ∂ z j ( e z i ∑ k e z k ) \frac{\partial p_i}{\partial z_j} = \frac{\partial}{\partial z_j} \left( \frac{e^{z_i}}{\sum_k e^{z_k}} \right) ∂zj∂pi=∂zj∂(∑kezkezi)
使用商的求导法则,我们得到:
∂ p i ∂ z j = e z i ⋅ ∂ ∂ z j ( ∑ k e z k ) − ∂ ∂ z j ( e z i ) ⋅ ∑ k e z k ( ∑ k e z k ) 2 \frac{\partial p_i}{\partial z_j} = \frac{e^{z_i} \cdot \frac{\partial}{\partial z_j}(\sum_k e^{z_k}) - \frac{\partial}{\partial z_j}(e^{z_i}) \cdot \sum_k e^{z_k}}{(\sum_k e^{z_k})^2} ∂zj∂pi=(∑kezk)2ezi⋅∂zj∂(∑kezk)−∂zj∂(ezi)⋅∑kezk
简化后,我们得到:
∂ p i ∂ z j = e z i ⋅ δ i j − e z i ⋅ e z j ( ∑ k e z k ) 2 \frac{\partial p_i}{\partial z_j} = \frac{e^{z_i} \cdot \delta_{ij} - e^{z_i} \cdot e^{z_j}}{(\sum_k e^{z_k})^2} ∂zj∂pi=(∑kezk)2ezi⋅δij−ezi⋅ezj
其中 δ i j \delta_{ij} δij是Kronecker delta函数,当 i = j i = j i=j时为1,否则为0。
进一步简化,我们得到:
∂ p i ∂ z j = p i ⋅ ( 1 − δ i j ) − p i ⋅ p j \frac{\partial p_i}{\partial z_j} = p_i \cdot (1 - \delta_{ij}) - p_i \cdot p_j ∂zj∂pi=pi⋅(1−δij)−pi⋅pj
最终,我们得到Softmax函数的导数为:
∂ p i ∂ z j = { p i ( 1 − p j ) , if i = j ; − p i p j , if i ≠ j \frac{\partial p_i}{\partial z_j} = \begin{cases} p_i (1 - p_j) \text{ , if } i = j; \newline -p_i p_j \text{ , if } i \neq j \end{cases} ∂zj∂pi={pi(1−pj) , if i=j;−pipj , if i=j
Softmax函数的导数是一个矩阵,其中每个元素都是输出概率的函数。
ReLU(Rectified Linear Unit)函数是深度学习中常用的一种激活函数,其数学表达式为:
f ( x ) = max ( 0 , x ) f(x) = \max(0, x) f(x)=max(0,x)
其反向传播公式为:
∂ f ( x ) ∂ x = { 0 , if x ≤ 0 ; 1 , if x > 0 \frac{\partial f(x)}{\partial x} = \begin{cases} 0 \text{ , if } x \leq 0; \newline 1 \text{ , if } x > 0 \end{cases} ∂x∂f(x)={0 , if x≤0;1 , if x>0
MSE(Mean Squared Error)函数是深度学习中常用的一种损失函数,其公式如下:
M S E = 1 n ∑ i = 1 n ( y i − y ^ i ) 2 MSE = \frac{1}{n} \sum_{i=1}^{n} (y_i - \hat{y}_i)^2 MSE=n1i=1∑n(yi−y^i)2
其中, n n n是数据点的数量, y i y_i yi是第 i i i个数据点的真实值, y ^ i \hat{y}_i y^i是第 i i i个数据点的预测值。
在反向传播过程中,MSE 损失函数单个预测值 y ^ i \hat{y}_i y^i的梯度可以表示为:
∂ M S E ∂ y ^ i = − 2 n ( y i − y ^ i ) \frac{\partial MSE}{\partial \hat{y}_i} = -\frac{2}{n} (y_i - \hat{y}_i) ∂y^i∂MSE=−n2(yi−y^i)