Keras/TensorFlow 交叉熵损失函数中的 from_logits 参数

文章目录

  • 1. from_logits 的两种使用方法。
  • 2. 交叉熵的底层操作。
  • 3. logit 与 sigmoid 互为反函数。


1. from_logits 的两种使用方法。

在 Keras 的二元交叉熵损失函数(tf.keras.losses.BinaryCrossentropy,下面简称为 bce)中,有 from_logits 这个参数。在使用时需要分下面 2 种情况:

  1. 如果输入给 bce 的是一个 logit 值(值域范围 [-∞, +∞] ),则应该设置 from_logits=True 。
  2. 如果输入给 bce 的是一个概率值 probability (值域范围 [0, 1] ),则应该设置为 from_logits=False 。

两种使用方法的对比如下图。
Keras/TensorFlow 交叉熵损失函数中的 from_logits 参数_第1张图片
从上面的对比图可以看出,from_logits=True 是一个简便操作,它让使用者省去了转换概率这个步骤。

2. 交叉熵的底层操作。

在计算交叉熵时,实际要经过 2 个步骤:1. 把数值转换为概率值。2. 对这个概率值取对数,得到交叉熵。如下图。
Keras/TensorFlow 交叉熵损失函数中的 from_logits 参数_第2张图片

3. logit 与 sigmoid 互为反函数。

实际上,logit 是一个函数,并且它和 sigmoid 互为反函数。sigmoid 会把 logit 值转换为 [0, 1] 之间的概率值,而 logit 则会把概率值转换为 [-∞, +∞] 之间的 logit 值。
在 Scipy 中,sigmoid 函数也叫做 expit 函数。下图是 sigmoid 和 logit 函数的对比。关于 sigmoid 函数的更多内容,详见 Scipy 链接 → Scipy 的 sigmoid 函数页面链接
Keras/TensorFlow 交叉熵损失函数中的 from_logits 参数_第3张图片
最后,Keras 中的多类别交叉熵损失函数 Categorical Crossentropy,也有 from_logits 这个参数,其使用方法和二元交叉熵损失函数相同。不过因为它处理的是多分类问题,在计算概率时,要用 softmax 函数。

你可能感兴趣的:(深度学习,深度学习,tensorflow,keras)