pytorch交叉熵使用方法

交叉熵相关理论网上好多,这篇只记录一下在分割中怎么用torch.nn.BCELoss 和torch.nn.CrossEntropyLoss,也方便自己以后使用。

1、二分类用nn.BCELoss


output:

    定义:  网络的输出 
    数值:  需要经过sigmoid()函数归一化到[0,1]
    shape:  [bs,*]          #   *表示长宽高等任意维度
target: 

    定义:  标签
    数值:  0或者1 
    shape:  [bs,*], 与output相同
 

loss_func = nn.BCELoss()   #定义交叉熵损失函数
loss = loss_func(output, target)   #计算loss

资料参考:https://pytorch.org/docs/master/nn.html#bceloss

2、多分类用nn.CrossEntropyLoss

 

output:

    定义:  网络的输出 
    数值:  任意范围, 不需要添加softmax(), sigmoid() 或者 argmax()等函数。 
    shape:  [bs, C,*]            # C表示类别数, *表示长宽高等任意维度
target: 

    定义:  标签
    数值:  0,1,..., C-1.          #如4分类,则数值为0,1,2,3
    shape:  [bs,*],                  #比output少了通道维,不需要转为onehot类型

loss_func = nn.CrossEntropyLoss()     #定义损失函数
output = loss_func(output, target)     #计算loss

资料参考: https://pytorch.org/docs/master/nn.html#crossentropyloss

 

ps:加权暂时未尝试,以后补充,上为个人用法,如有错误请多指教。

你可能感兴趣的:(torch,深度学习)