sigmoid和softmax区别

Softmax

Softmax是对一个向量进行归一化的过程,每个元素的输出都与整个向量相关。softmax通常作为最后一层的激活函数,用于分类任务,并且搭配交叉熵损失共同使用,用于分类任务。因此很多框架都将其包含在交叉熵损失函数内部。

Sigmoid

Sigmoid是一个非线性映射,通常用在神经网络内部做激活函数(尤其是在早期神经网络),每个元素都进行独立的运算。sigmoid通常作为神经网络中间层的激活函数,实现网络的非线性映射。也可用于多类别预测任务,对每一个标签分别预测。

sigmoid和softmax区别_第1张图片

 

你可能感兴趣的:(算法,深度学习,机器学习)