交叉熵相关理论网上好多,这篇只记录一下在分割中怎么用torch.nn.BCELoss 和torch.nn.CrossEntropyLoss,也方便自己以后使用。
1、二分类用nn.BCELoss
output:
定义: 网络的输出
数值: 需要经过sigmoid()函数归一化到[0,1]
shape: [bs,*] # *表示长宽高等任意维度
target:
定义: 标签
数值: 0或者1
shape: [bs,*], 与output相同
loss_func = nn.BCELoss() #定义交叉熵损失函数
loss = loss_func(output, target) #计算loss
资料参考:https://pytorch.org/docs/master/nn.html#bceloss
nn.
CrossEntropyLoss
output:
定义: 网络的输出
数值: 任意范围, 不需要添加softmax(), sigmoid() 或者 argmax()等函数。
shape: [bs, C,*] # C表示类别数, *表示长宽高等任意维度
target:
定义: 标签
数值: 0,1,..., C-1. #如4分类,则数值为0,1,2,3
shape: [bs,*], #比output少了通道维,不需要转为onehot类型
loss_func = nn.CrossEntropyLoss() #定义损失函数
output = loss_func(output, target) #计算loss
资料参考: https://pytorch.org/docs/master/nn.html#crossentropyloss
ps:加权暂时未尝试,以后补充,上为个人用法,如有错误请多指教。