为什么模型loss为负

一般loss为负是在loss采用交叉熵的情况下:
可以将softmax 改为 log_softmax

你可能感兴趣的:(pytorch深度学习)