pytorch nn.CrossEntropyLoss

应用

概念讲解

1)假设有m张图片,经过神经网络后输出为m*n的矩阵(m是图片个数,n是图片类别),下例中:
m=2,n=2既有两张图片,供区分两种类别比如猫狗。假设第0维为猫,第1维为狗

import torch
input=torch.randn(2,2)
input
------------------------
tensor([[-1.6243, -0.4164],
        [-0.2492, -0.9667]])
------------------------

2)使用softmax将其转化为概率,我们可以看到,第一张图片是狗的概率大,第二张是猫的概率大。

soft = torch.nn.Softmax(dim=1) # 横向计算softmax
soft(input) # 将输出转化为概率
-------------------------
tensor([[0.2301, 0.7699],
        [0.6721, 0.3279]])
--------------------------

3)对上述结果取对数:(可以使用logsoft(input)替代2,3步骤)

torch.log(soft(input))
---------------------------
tensor([[-1.4694, -0.2615],
        [-0.3974, -1.1149]])
---------------------------

4)NLLLoss结果就是把上面取对数之后的结果与Label对应的那个值拿出来,再去掉负号,然后求和取均值。
假设target是[0,1]既第一张是猫,第二张是狗。第一行取第0个元素,第二行取第1个,去掉负号,求和取均值,既:

(-(-1.4694) + -(-1.1149))/2 = 1.29215

直接使用NLLLoss函数验证:

nll = nn.NLLLoss()
target = torch.tensor([0,1])
nll(torch.log(soft(input)),target)
-----------------------------------------------
tensor(1.2921)
-------------------------------------------------

5)CrossEntropyLoss其实就是Softmax–Log–NLLLoss合并成一步。

ce = nn.CrossEntropyLoss()
ce(input,target)
-----------------------------
tensor(1.2921)
------------------------------

API

This criterion combines nn.LogSoftmax() and nn.NLLLoss() in one single class.

参考

https://blog.csdn.net/qq_22210253/article/details/85229988
https://pytorch.org/docs/stable/generated/torch.nn.CrossEntropyLoss.html?highlight=nn%20crossentropyloss#torch.nn.CrossEntropyLoss

你可能感兴趣的:(Python,python)