机器学习值softmax

softmax这个函数用于多分类任务,在我们使用中经常和交叉熵联合起来,至于交叉熵计算loss,以后看到了会写,

先放图

softmax函数图形如下



没图

这个函数不同于sigmoid函数,函数图形不好画

放公式

机器学习值softmax_第1张图片
这个

这个公式看上去可能有复杂,实际上wiki解释就是,将一组n维向量转化为0,1之间的另外一组向量。

这个函数同sigmoid函数一样适用于分类任务,将线性回归后tensor输入到softmax,会得到一个对应分类的概率,

根据所给出概率实现分类任务,不同于sigmoid的二分类,softmax对任意的维度都适用,至于分类任务太多,效果好不好我也没有实践过。好了,简单介绍了softmax,有兴趣的还可以深入


欢迎大家留言讨论

你可能感兴趣的:(机器学习值softmax)