为啥损失函数很多用的都是交叉熵(cross entropy)

nn.CrossEntropyLoss()函数计算交叉熵损失

用法:

output是网络的输出,size=[batch_size, class]

#如网络的batch size为128,数据分为10类,则size=[128, 10]

target是数据的真实标签,是标量,size=[batch_size]

#如网络的batch size为128,则size=[128]

crossentropyloss=nn.CrossEntropyLoss()
crossentropyloss_output=crossentropyloss(output,target)为啥损失函数很多用的都是交叉熵(cross entropy)_第1张图片

你可能感兴趣的:(算法学习,深度学习,pytorch,神经网络)