sigmod、softmax

一、共同点

1、取值范围都是0~1区间,表示概率,概率自然是这个取值范围

2、都可以用来作为分类任务的输出层函数

二、不同点

1、sigmod作为输出层函数时解决的二分类任务,输出值是一个小数;除此之外可以用作隐层的激活函数,

另提一点,激活函数是解释神经网络非线性的核心原因。

2、softmax是二分类任务的推广,用于解决多分类问题,输出值是一组小数,有几类就有几个小数,相加为1。

原文链接:https://blog.csdn.net/sinat_19559525/article/details/80350687

你可能感兴趣的:(sigmod、softmax)