tf loss总结

1.tf.nn.sparse_softmax_cross_entropy_with_logits()

这是一个TensorFlow中经常需要用到的函数。官方文档里面有对它详细的说明,传入的logits为神经网络输出层的输出,shape为[batch_size,num_classes],传入的label为一个一维的vector,长度等于batch_size,每一个值的取值区间必须是[0,num_classes),其实每一个值就是代表了batch中对应样本的类别。今天我们就从实际的项目代码里入手,看看这个函数在实际项目中是如何应用的。
2.tf.nn.softmax_cross_entropy_with_logits()

f.nn.sparse_softmax_cross_entropy_with_logits()输入的label格式为一维的向量,而如果你的label已经是one-hot格式,则可以使用tf.nn.softmax_cross_entropy_with_logits()函数来进行softmax和loss的计算。
 

你可能感兴趣的:(tensorflow)