sigmoid、softmax和交叉熵损失函数

这几个概念看似简单,但很多人应该还是模模糊糊,并没有十分搞清楚,主要疑惑的点应该就是下面几个问题。

  • 1.sigmoid和softmax的关系?
    参考
  • 2.二分类时,最后的输出层应该是1个神经元还是2个神经元?
    参考
  • 3.多分类包括了两种(单标签多分类,例如常见的mnist十分类,每一个样本都只可能属于0-9中的其中一个,多标签多分类,一个样本可以属于多个标签)
    参考

你可能感兴趣的:(深度学习)