激活函数总结(三十七):激活函数补充(PAU、DELU)

激活函数总结(三十七):激活函数补充

  • 1 引言
  • 2 激活函数
    • 2.1 Padé激活函数
    • 2.2 DELU激活函数
  • 3. 总结

1 引言

在前面的文章中已经介绍了介绍了一系列激活函数 (SigmoidTanhReLULeaky ReLUPReLUSwishELUSELUGELUSoftmaxSoftplusMishMaxoutHardSigmoidHardTanhHardswishHardShrinkSoftShrinkTanhShrinkRReLUCELUReLU6GLUSwiGLUGTUBilinearReGLUGEGLUSoftminSoftmax2dLogsoftmaxIdentityLogSigmoidBent IdentityAbsoluteBipolarBipolar SigmoidSinusoidCosineArcsinhArccoshArctanhLeCun TanhTanhExpGaussianGCUASUSQUNCUDSUSSUSReLUBReLUPELUPhishRBFSQ-RBFISRUISRLUSQNLPLUAPLInverse CubicSoft ExponentialParametricLinearPiecewise Linear UnitCLLSquaredReLUModReLUCosReLUSinReLUProbitSmishMultiquadraticInvMultiquadraticPSmishESwishCoLUShiftedSoftPlusLogitSoftsignELiSHHard ELiSHSerfFReLUQReLUm-QReLUFReLUCReLUKAFSirenARiAm-arcsinh)。在这篇文章中,会接着上文提到的众多激活函数继续进行介绍,给大家带来更多不常见的激活函数的介绍。这里放一张激活函数的机理图:
在这里插入图片描述

2 激活函数

2.1 Padé激活函数

论文链接:Padé Activation Units: End-to-end Learning of Flexible Activation Functions in Deep Networks

深度网络学习的性能在很大程度上取决于与每个神经元相关的非线性激活函数的选择。但是,决定最佳激活并非易事,选择取决于体系结构、超参数甚至数据集。通常,这些激活是在训练前手动固定的。在这里,我们演示了如何通过使用灵活的参数有理函数来消除首先选择固定激活函数的依赖。由此产生的Padé激活单元PAU)既可以近似常见的激活函数,也可以在提供紧凑表示的同时学习新的激活函数。其数学表达式和数学图像分别如下所示:
例如:给定 f(x),Padé近似值是形式为 m、n 的多项式 P(x)、Q(x) 上的有理函数 F(x)
F ( x ) = P ( x ) Q ( x ) = ∑ j = 0 m a j x j 1 + ∑ k = 1 n b k x k F(x)=\frac{P(x)}{Q(x)}=\frac{\sum_{j=0}^{m}a_jx^j}{1+\sum_{k=1}^{n}b_kx^k} F(x)=Q(x)P(x)=1+k=1nbkxkj=0majxj
下图显示了使用有理函数可以很好地逼近典型的致动函数。
激活函数总结(三十七):激活函数补充(PAU、DELU)_第1张图片

特点:

  • Padé激活单元PAU)既可以近似常见的激活函数,也可以在提供紧凑表示的同时学习新的激活函数
  • PAU为具有可证明鲁棒性近似铺平了道路

PAU算法在深度学习任务上取得了极好的效果,有需要的人可以进行尝试。。。不过该激活函数应该需要一个较大的服务器来跑算法。。。

2.2 DELU激活函数

论文链接:Trainable Activations for Image Classification

DELU是一种可训练的激活函数。其数学表达式和数学图像分别如下所示:
D E L U ( x ) = { S i L U ( x ) , if  x ≤ 0 ( n + 0.5 ) x + ∣ e − x − 1 ∣ , if  x > 0 DELU(x) = \begin{cases} SiLU(x), & \text{if } x \leq 0 \\ (n+0.5)x+|e^{-x}-1|, & \text{if } x > 0\\ \end{cases} DELU(x)={SiLU(x),(n+0.5)x+ex1∣,if x0if x>0
激活函数总结(三十七):激活函数补充(PAU、DELU)_第2张图片
优点:

  • 可训练:DELU激活函数是可训练的,其参数n是一个可训练参数
  • 平滑:这个函数使用了SiLU的左边部分,因此得到了一个位于零左边缓冲区,这使得您可以从接近零的函数得到一个平滑的输出。右边的部分类似于普通的ReLU,但更加平滑,因为它使用了 ∣ e − x − 1 ∣ |e^{−x}−1| ex1∣

注意:当前该版本为预印版本,还未出版发表。。。 因此其实际效果有待验证。。

3. 总结

到此,使用 激活函数总结(三十七) 已经介绍完毕了!!! 如果有什么疑问欢迎在评论区提出,对于共性问题可能会后续添加到文章介绍中。如果存在没有提及的激活函数也可以在评论区提出,后续会对其进行添加!!!!

如果觉得这篇文章对你有用,记得点赞、收藏并分享给你的小伙伴们哦。

你可能感兴趣的:(深度学习,机器学习,深度学习,python,激活函数)