在前面的文章中已经介绍了介绍了一系列激活函数 (Sigmoid
、Tanh
、ReLU
、Leaky ReLU
、PReLU
、Swish
、ELU
、SELU
、GELU
、Softmax
、Softplus
、Mish
、Maxout
、HardSigmoid
、HardTanh
、Hardswish
、HardShrink
、SoftShrink
、TanhShrink
、RReLU
、CELU
、ReLU6
、GLU
、SwiGLU
、GTU
、Bilinear
、ReGLU
、GEGLU
、Softmin
、Softmax2d
、Logsoftmax
、Identity
、LogSigmoid
、Bent Identity
、Absolute
、Bipolar
、Bipolar Sigmoid
)。在这篇文章中,会接着上文提到的众多激活函数继续进行介绍,给大家带来更多不常见的激活函数的介绍。这里放一张激活函数的机理图:
最后,对于文章中没有提及到的激活函数,大家可以通过评论指出,作者会在后续的文章中进行添加补充。
Sinusoid(正弦)激活函数是一种周期性
激活函数,它使用正弦函数
来将输入映射到输出,输出范围在 -1 到 1
之间,具有周期为 [-2π,2π]
。正弦函数在输入值变化时以曲线波动
的方式增加和减小,从而引入了一定的非线性
性质。其数学表达式和数学图像分别如下所示:
f ( x ) = s i n ( x ) f(x) = sin(x) f(x)=sin(x)
优点:
周期性
函数,可以在某些情况下对数据的周期性特征
建模。如果输入数据具有明显的周期性,那么Sinusoid激活函数可能能够更好地捕捉这些模式。非线性
的,可以引入一定的非线性变换,增加神经网络的表达能力
。在某些数据中,非线性激活函数可能有助于更好地拟合数据分布。缺点:
非周期性
的数据特征(在不同的周期内的输出会有类似
的值)。非常接近零
,导致梯度消失
的问题。这可能会影响训练的稳定性和效率。更加耗时
,尤其是在大规模的神经网络中,这可能会影响模型的训练和推理速度。虽然理论上而言:Sinusoid激活函数因其周期性
的特性会被一些特殊问题应用,但是在当前深度学习
模型的背景下很难得到广泛应用。。。
Cosine(余弦)激活函数是一种使用余弦函数将输入映射到输出的周期性
非线性激活函数。其数学表达式和数学图像分别如下所示:
f ( x ) = c o s ( x ) f(x)=cos(x) f(x)=cos(x)
这里Cosine激活函数的优缺点
同Sinusoid激活函数!!! 同样地,Cosine激活函数在当前深度学习
模型的背景下很难得到广泛应用。。。
Arc系列激活函数通常指的是一些反三角函数
(也称为逆三角函数)作为激活函数,这些函数可以将输入映射到某种角度或弧度
范围内。这些函数的常见代表包括反正弦
(Arcsinh)、反余弦
(Arccosh)、反正切
(Arctanh)等。其数学表达式和数学图像分别如下所示:
A r c s i n h ( x ) = arcsin ( x ) Arcsinh(x)= \arcsin(x) Arcsinh(x)=arcsin(x)
A r c c o s h ( x ) = arccos ( x ) Arccosh(x)= \arccos(x) Arccosh(x)=arccos(x)
A r c t a n h ( x ) = arctan ( x ) Arctanh(x)= \arctan(x) Arctanh(x)=arctan(x)
优点:
角度或弧度
范围内。这在某些任务中可能有用,例如处理角度信息的问题。非线性
的,可以引入一定的非线性变换,增加神经网络的表达能力。缺点:
不符合
神经网络激活函数的常见范围要求,如 [0, 1] 或 [-1, 1]。梯度消失
问题。更加耗时
,尤其是在大规模的神经网络中,可能影响模型的训练和推理速度。关于Arcsinh和Arccosh激活函数几乎没有人提及相关资料,可能存在一定问题
!!!,Arctanh提及较多但是现在也很少被应用。。。。
到此,使用 激活函数总结(十二) 已经介绍完毕了!!! 如果有什么疑问欢迎在评论区提出,对于共性问题可能会后续添加到文章介绍中。如果存在没有提及的激活函数
也可以在评论区提出,后续会对其进行添加!!!!
如果觉得这篇文章对你有用,记得点赞、收藏并分享给你的小伙伴们哦。