softmax 理解

softmax理解

  • 1、softmax由来
  • 2、常见softmax公式
  • 3、softmax推导

1、softmax由来

softmax是根据hardmax得来,hardmax: z=max(x,y),而softmax是 z = l o g ( e x + e y ) z=log(e^x+e^y) z=log(ex+ey)当x>>y时softmax下的 z=x.

为了更加清楚理解:我们固定y=1,比较一下,softmax与hardmax图像:
softmax 理解_第1张图片
softmax 理解_第2张图片
由图像可以知道softmax比hardmax平滑(大概猜出为什么叫softmax了),这给了它特性,可导,可导对神经网络更新参数非常重要。同时softmax让相互比较的数都指数化,这会让提高分数之间的差异( x = 10 , y = 20 , y − x = 10 ; e 20 − e 10 = 485143169 x=10,y=20,y-x=10;e^{20}-e^{10}=485143169 x=10,y=20,yx=10e20e10=485143169)让最大值占主导地位。

2、常见softmax公式

常见softmax公式

3、softmax推导

softmax函数的正推原理——softmax前世今生系列(1)

你可能感兴趣的:(机器学习,深度学习)