DL - softmax、log_softmax、nll_loss、cross_entropy_loss

文章目录

      • softmax
      • log_softmax
      • nll_loss
      • cross_entropy_loss


关于 log_softmax

输出使用 log_softmax 计算 softmax 的对数值,log_softmax(x) 等价于 log(softmax(x))
如果使用 log_softmax,损失函数需要使用 nll_loss(Negative Log Likelihood )。

nll_loss 损失函数的表达式为 l o s s ( p r e d i c t , l a b e l ) = − p r e d i c t l a b e l loss(predict, label) = -predict_{label} loss(predict,label)=predictlabel
相当于只取 log(softmax(x)) 预测结果向量 label 对应索引值的相反数。


softmax

a = torch.Tensor([2, 3, 4])

# 使用 pytorch 内置的 softmax 函数计算
softmax = a.softmax(dim=0) 
print('-- softmax : ', softmax)
# tensor([0.0900, 0.2447, 0.6652])

# 根据公式自己算
manual_softmax = torch.pow(math.e, a)/torch.pow(math.e, a).sum() 
print('-- manual_softmax : ', manual_softmax)
# tensor([0.0900, 0.2447, 0.6652])  同上 

log_softmax

log_softmax = a.log_softmax(dim=0)
print('-- log_softmax : ', log_softmax)
# tensor([-2.4076, -1.4076, -0.4076])

manual_log_softmax = (torch.pow(math.e, a) / torch.pow(math.e, a).sum() ).log()
print('-- manual_log_softmax : ', manual_log_softmax)
# tensor([-2.4076, -1.4076, -0.4076]) 同上

nll_loss

print(manual_log_softmax.unsqueeze(1))
# tensor([[-2.4076], [-1.4076], [-0.4076]])

nll_loss = F.nll_loss(manual_log_softmax.unsqueeze(1), torch.LongTensor([0, 0, 0]), reduction='none')
print('-- nll_loss : ', nll_loss) 
# tensor([2.4076, 1.4076, 0.4076])
 
# 多类别
tmp = torch.Tensor([
    [-2.4076, 4.52], [-1.4076, 3.42], [-0.4076, 0.123]
])

tmp_index = torch.LongTensor([1, 1, 0])

nll_loss1 = F.nll_loss(tmp, tmp_index, reduction='none')
print('-- nll_loss1 : ', nll_loss1)
# tensor([-4.5200, -3.4200,  0.4076]) 

cross_entropy_loss

log_softmax 和 nll_loss 经常组合使用,常见于各种分类算法。
cross_entropy_loss 底层实际也是调用的 log_softmax 和 nll_loss。该算子一步到位的将 softmax、log 及 nll 操作全部完成。

b = torch.Tensor([  [1, 2], [0.5, 3], [0.9, 4] ])
loss = nn.CrossEntropyLoss()
l1 = loss(b, torch.LongTensor([0, 1, 0]))
print('-- loss : ', l1) # tensor(1.5121)

伊织 2022-12-04

你可能感兴趣的:(ML/DL,深度学习,python,pytorch,log_softmax)