学习笔记:tensorflow和keras中的交叉熵损失

学习笔记:tensorflow和keras中的交叉熵损失

  • tensorflow
tf.nn.softmax_cross_entropy_with_logits(labels,logits)

logits未经过softmax/sigmoid,该函数会对logits进行softmax或sigmoid
labels是onehot形式

tf.nn.sparse_softmax_cross_entropy_with_logits(labels,logits)

label是onehot形式

  • keras

1.二分类

tf.keras.losses.BinaryCrossEntropy(from_logits=True) 

当from_logits=True时,表示logits未经过sigmoid/softmax,该函数会对logits执行此操作
当from_logits=False时,表示logits已经经过sigmoid/softmax,该函数不会再执行sigmoid/softmax操作。默认为False
2.多分类

tf.keras.losses.catergorical_entropy()
tf.keras.sparse_catergorical_crossentropy()

你可能感兴趣的:(tensorflow)