激活函数总结(十七):激活函数补充(PELU、Phish)

激活函数总结(十七):激活函数补充

  • 1 引言
  • 2 激活函数
    • 2.1 Parametric Exponential Linear Unit(PELU)激活函数
    • 2.2 Phish激活函数
  • 3. 总结

1 引言

在前面的文章中已经介绍了介绍了一系列激活函数 (SigmoidTanhReLULeaky ReLUPReLUSwishELUSELUGELUSoftmaxSoftplusMishMaxoutHardSigmoidHardTanhHardswishHardShrinkSoftShrinkTanhShrinkRReLUCELUReLU6GLUSwiGLUGTUBilinearReGLUGEGLUSoftminSoftmax2dLogsoftmaxIdentityLogSigmoidBent IdentityAbsoluteBipolarBipolar SigmoidSinusoidCosineArcsinhArccoshArctanhLeCun TanhTanhExpGaussianGCUASUSQUNCUDSUSSUSReLUBReLU)。在这篇文章中,会接着上文提到的众多激活函数继续进行介绍,给大家带来更多不常见的激活函数的介绍。这里放一张激活函数的机理图:
在这里插入图片描述

2 激活函数

2.1 Parametric Exponential Linear Unit(PELU)激活函数

Parametric Exponential Linear Unit(PELU)是一种 Exponential Linear Unit(ELU)的变种激活函数,它引入了可学习的参数,允许网络自适应地调整激活函数的形状。其数学表达式为和数学图像分别如下所示:
f a , b ( x ) = { a ( e x b − 1 ) , for  x < 0 a b x , for  0 ≤ x f_{a,b}(x)= \begin{cases} a(e^{\frac{x}{b}} - 1), & \text{for } x < 0 \\ \frac{a}{b}x, & \text{for } 0 \leq x \\ \end{cases} fa,b(x)={a(ebx1),bax,for x<0for 0x激活函数总结(十七):激活函数补充(PELU、Phish)_第1张图片
优点:

  • 非线性特性: PELU 引入了非线性特性,使得网络能够更好地适应数据中的复杂模式。
  • 可学习参数: PELU 允许学习参数,这意味着网络可以根据数据和任务需求自适应地调整激活函数的形状。
  • 避免梯度消失: 对于负的输入,PELU 引入了指数项,这有助于在一些情况下避免梯度消失问题。
  • 平滑性: PELU 在负的输入范围内是平滑的,这有助于梯度计算和反向传播的稳定性。

缺点:

  • 计算复杂性: 相对于一些简单的激活函数(如 ReLU)而言,PELU 的计算复杂性较高,尤其是因为它涉及指数计算
  • 参数选择: 学习参数需要额外的调整调优,这可能需要更多的实验。

需要注意的是,PELU 激活函数可以作为一种探索性尝试,具有自适应形状的特点可能对某些问题有益。然而,在使用之前,您应该仔细考虑其优点和缺点,并在实验中评估其在具体任务和数据上的性能。

2.2 Phish激活函数

论文链接:Phish: A Novel Hyper-Optimizable Activation Function

Phish 是一种新颖的激活函数。它是一个GELUTanH复合函数,其数学表达式为和数学图像分别如下所示:
f ( x ) = x ∗ T a n H ( G E L U ( x ) ) f(x) = x*TanH(GELU(x)) f(x)=xTanH(GELU(x))激活函数总结(十七):激活函数补充(PELU、Phish)_第2张图片
优点:

  • 连续可微:在观察到的域上的微分图中没有明显的不连续性
  • 新颖:该激活函数是2022年提出的
  • 有效性:实验结果表明Phish激活函数具有较好的效果。

缺点:

  • 缺乏验证:虽然论文中说明具有较好效果,但是未经过广泛验证

虽然该算法在论文中呈现出较好的效果,但是当前仍未经过有效验证。。。。

3. 总结

到此,使用 激活函数总结(十七) 已经介绍完毕了!!! 如果有什么疑问欢迎在评论区提出,对于共性问题可能会后续添加到文章介绍中。如果存在没有提及的激活函数也可以在评论区提出,后续会对其进行添加!!!!

如果觉得这篇文章对你有用,记得点赞、收藏并分享给你的小伙伴们哦。

你可能感兴趣的:(深度学习,机器学习,人工智能,python,激活函数)