在前面的文章中已经介绍了介绍了一系列激活函数 (Sigmoid
、Tanh
、ReLU
、Leaky ReLU
、PReLU
、Swish
、ELU
、SELU
、GELU
、Softmax
、Softplus
、Mish
、Maxout
、HardSigmoid
、HardTanh
、Hardswish
、HardShrink
、SoftShrink
、TanhShrink
、RReLU
、CELU
、ReLU6
、GLU
、SwiGLU
、GTU
、Bilinear
、ReGLU
、GEGLU
、Softmin
、Softmax2d
、Logsoftmax
、Identity
、LogSigmoid
、Bent Identity
、Absolute
、Bipolar
、Bipolar Sigmoid
、Sinusoid
、Cosine
、Arcsinh
、Arccosh
、Arctanh
、LeCun Tanh
、TanhExp
、Gaussian
、GCU
、ASU
、SQU
、NCU
、DSU
、SSU
、SReLU
、BReLU
、PELU
、Phish
、RBF
、SQ-RBF
、ISRU
、ISRLU
、SQNL
、PLU
、APL
、Inverse Cubic
、Soft Exponential
、ParametricLinear
、Piecewise Linear Unit
、CLL
、SquaredReLU
、ModReLU
、CosReLU
、SinReLU
、Probit
、Smish
、Multiquadratic
、InvMultiquadratic
、PSmish
、ESwish
、CoLU
、ShiftedSoftPlus
、Logit
、Softsign
、ELiSH
、Hard ELiSH
、Serf
、FReLU
、QReLU
、m-QReLU
、FReLU
、CReLU
、KAF
、Siren
、ARiA
、m-arcsinh
、PAU
、DELU
)。在这篇文章中,会接着上文提到的众多激活函数继续进行介绍,给大家带来更多不常见的激活函数的介绍。这里放一张激活函数的机理图:
论文链接:Parametric Deformable Exponential Linear Units for deep neural networks
PDELU称为一种参数可变
的指数线性单元
,并从理论上验证了它对提高
学习过程的收敛速度
是有效的。通过灵活的映射形状
,所提出的PDELU可以将激活响应的平均值推向接近于0
的水平,从而保证深度神经网络训练时下降
最为迅速。其数学表达式和数学图像分别如下所示:
P D E L U ( x ) = { x , if x > 0 α ( [ 1 + ( 1 − t ) x ] 1 1 − t − 1 ) , if x ≤ 0 PDELU (x)=\begin{cases} x, & \text{if } x > 0 \\ \alpha([1+(1-t)x]^{\frac{1}{1-t}} - 1), & \text{if } x \leq 0\\ \end{cases} PDELU(x)={x,α([1+(1−t)x]1−t1−1),if x>0if x≤0
参数介绍:
损失函数共同学习
。不同的通道具有不同
的 α \alpha α 值,使得神经网络在学习最优权值
时具有更大的灵活性。控制变形程度
的,可指定为找到最佳变形指数
函数。当 0 < t < 1 0 < t < 1 0<t<1 时,负区域
上指数衰减
到0的速度比ELU
衰减的更快
。特点:
较为灵活
。参数 t t t 控制着曲线的形状
。随着 t t t 的增大,负半轴的响应变得更大
、更平坦
,当 t = 1 t = 1 t=1 时,PDELU与原ELU完全相同。灵活的学习激活函数
,具有可调参数 α \alpha α。自适应激活函数可以有效
地避免过拟合
,充分利用深度
和广度架构
的强大学习能力。训练时间较长
,而在不同分类模型中,不同激活函数的性能比较,PDELU在GoogleNet
的性能最好
,其它模型表现一般
。PDELU虽然在一定情况下具有不错的效果,但是其模型普遍性较差。。。。使用的时候需要注意。。。
论文链接:Trainable Activations for Image Classification
Cosine Linear Unit (CosLU) 是一种具有可训练参数
并使用余弦函数
的激活函数。其数学表达式和数学图像分别如下所示:
C o s L U ( x ) = ( x + α cos ( β x ) ) σ ( x ) CosLU(x) = (x + \alpha \cos(\beta x))\sigma(x) CosLU(x)=(x+αcos(βx))σ(x)
其中, σ ( x ) \sigma(x) σ(x) 表示 Sigmoid 激活函数,且 α \alpha α 和 β \beta β 都是可训练的参数。参数 α \alpha α 控制余弦振幅
,从而确定余弦
对整个激活函数的影响
,参数 β \beta β 控制余弦频率
。
CosLU 只是在这篇论文中提出,没有得到广泛使用。。。使用的时候需要注意!!!
到此,使用 激活函数总结(三十八) 已经介绍完毕了!!! 如果有什么疑问欢迎在评论区提出,对于共性问题可能会后续添加到文章介绍中。如果存在没有提及的激活函数
也可以在评论区提出,后续会对其进行添加!!!!
如果觉得这篇文章对你有用,记得点赞、收藏并分享给你的小伙伴们哦。