logistic和softmax代价函数

这两种代价函数都能够把 (,) 上的误差/置信度/代价映射到 (0,1) 之间。

logistic函数

输入为标量 z

σ(z)=ez1+ez=11+ez

常用于二分类问题的代价项。也称为sigmoid函数。
logistic和softmax代价函数_第1张图片

softmax函数

输入为矢量 z={zk}k=1:K

σ(z)k=ezkΣKk=1ezk

常用于多类分类问题的代价项。

下图示出 K=5 时,softmax函数的输入(蓝色柱)和输出(红色曲线)

你可能感兴趣的:(cnn,深度学习,目标检测)