Softmax求导

在神经网络中,我们经常可以看到以下公式,用于计算结点的激活值:

Softmax求导_第1张图片

直接甩出Softmax的公式:

n表示类别数,z表示输出向量,zj表示向量z的第j个值。

对Softmax求导:

显然是目标是

根据求导的链式法则:

 

所以核心问题就转换为求 ,在接触到这个式子的时候,考虑到一个问题,为什么这里是对求导而不是对求导,

接下来举例说明:

Softmax求导_第2张图片

从图中可以得到

z4 = w41*o1+w42*o2+w43*o3

z5 = w51*o1+w52*o2+w53*o3

z6 = w61*o1+w62*o2+w63*o3

那么我们可以经过softmax函数得到:

中,仅包含了,也包含了也一样,不仅包含了,也包含了,如果只使用求导,

会有大量的不参与计算,所以要使用,对分情况讨论即可。

Softmax求导_第3张图片

Softmax求导_第4张图片

接下来进行求导:

  
                                               

时:


                                                         

由(2)可得:

时:

 

可得:

根据(2)可得:

 

因此可得出:

参考

详解softmax函数以及相关求导过程

【深度学习】:超详细的Softmax求导

Deep Learning基础--Softmax求导过程卷积神经网络系列之softmax loss对输入的求导推导

卷积神经网络系列之softmax loss对输入的求导推导

你可能感兴趣的:(深度学习,新手,机器学习,神经网络,机器学习,人工智能,深度学习)