torch Loss函数(常用)

1.cross_entropy F.cross_entropy 函数对应的类是torch.nn.CrossEntropyLoss,在使用时会自动添加logsoftmax然后计算loss(其实就是nn.LogSoftmax() 和nn.NLLLoss() 类的融合) 该函数用于计算多分类问题的交叉熵loss。

2.binary_cross_entropy_with_logits F.binary_cross_entropy_with_logits()对应的类是torch.nn.BCEWithLogitsLoss,在使用时会自动添加sigmoid,然后计算loss。(其实就是nn.sigmoid和nn.BCELoss的合体) 用于计算二分类多标签问题的交叉熵。

你可能感兴趣的:(pytorch学习,深度学习,pytorch,神经网络)