在前面的文章中已经介绍了介绍了一系列激活函数 (Sigmoid
、Tanh
、ReLU
、Leaky ReLU
、PReLU
、Swish
、ELU
、SELU
、GELU
、Softmax
、Softplus
、Mish
、Maxout
、HardSigmoid
、HardTanh
、Hardswish
、HardShrink
、SoftShrink
、TanhShrink
、RReLU
、CELU
、ReLU6
、GLU
、SwiGLU
、GTU
、Bilinear
、ReGLU
、GEGLU
、Softmin
、Softmax2d
、Logsoftmax
、Identity
、LogSigmoid
、Bent Identity
、Absolute
、Bipolar
、Bipolar Sigmoid
、Sinusoid
、Cosine
、Arcsinh
、Arccosh
、Arctanh
、LeCun Tanh
、TanhExp
、Gaussian
、GCU
、ASU
、SQU
、NCU
、DSU
、SSU
、SReLU
、BReLU
、PELU
、Phish
、RBF
、SQ-RBF
、ISRU
、ISRLU
、SQNL
、PLU
、APL
、Inverse Cubic
、Soft Exponential
、ParametricLinear
、Piecewise Linear Unit
、CLL
、SquaredReLU
、ModReLU
、CosReLU
、SinReLU
、Probit
、Smish
、Multiquadratic
、InvMultiquadratic
、PSmish
、ESwish
、CoLU
、ShiftedSoftPlus
、Logit
、Softsign
、ELiSH
、Hard ELiSH
、Serf
、FReLU
、QReLU
、m-QReLU
、FReLU
、CReLU
、KAF
、Siren
、ARiA
、m-arcsinh
、PAU
、DELU
、PDELU
、CosLU
、NFN
、Hermite
、AHAF
、SERLU
、ShiLU
、ReLUN
、SSFG
、Gumbel Cross Entropy
)。在这篇文章中,会接着上文提到的众多激活函数继续进行介绍,给大家带来更多不常见的激活函数的介绍。这里放一张激活函数的机理图:
论文链接:Trainable Activations for Image Classification
ScaledSoftSign
是 SoftSign 激活函数的修改版,具有可训练
的参数。其数学表达式和数学图像分别如下所示:
S c a l e d S o f t S i g n ( x ) = α x β + ∣ x ∣ ScaledSoftSign(x) = \frac{\alpha x}{\beta + |x|} ScaledSoftSign(x)=β+∣x∣αx
特点:
更高的复杂度
,但是同样地也会带来计算上
的困难,破坏了原有激活函数简单
、快捷
的特点。该函数也是在预印本上发表,尚未经过有效性的验证。。。。。
论文链接:Trainable Activations for Image Classification
Normalized Linear Combination of Activations(NormLinComb)激活函数是一种具有可训练参数
并使用其他激活函数的归一化
线性组合的激活函数。其数学表达式和数学图像分别如下所示:
N o r m L i n C o m b ( x ) = ∑ i = 0 n w i F i ( x ) ∣ ∣ W ∣ ∣ NormLinComb(x) = \frac{\sum\limits_{i=0}^{n} w_i \mathcal{F}_i(x)}{\mid \mid W \mid \mid} NormLinComb(x)=∣∣W∣∣i=0∑nwiFi(x)
特点:
可训练参数
,可以根据任务训练该参数,但是同样地会带来计算复杂度
的提升多个激活函数特点
,但是最终并不一定
能得到较好
的效果。使用的时候需要注意。。。。该函数也是在预印本上发表,尚未经过有效性的验证。。。。。
到此,使用 激活函数总结(四十三) 已经介绍完毕了!!! 如果有什么疑问欢迎在评论区提出,对于共性问题可能会后续添加到文章介绍中。如果存在没有提及的激活函数
也可以在评论区提出,后续会对其进行添加!!!!
如果觉得这篇文章对你有用,记得点赞、收藏并分享给你的小伙伴们哦。