激活函数总结sigmoid,tanh,relu,Leaky ReLU,RRelu,ELU,PRelu,SELU,swish
本文总结深度学习的损失函数及其优缺点。激活函数是深度学习模型的重要成分,目的是将线性输入转换为非线性。常见的激活函数有sigmoid,tanh,ReLU等1.sigmoidSigmoid非线性函数将输入映射到【0,1】之间。它的数学公式为:历史上,sigmoid函数曾非常常用,然而现在它已经不太受欢迎,实际很少使用了,因为它主要有两个缺点:函数饱和使梯度消失sigmoid神经元在值为0或1的时候接