pytorch 交叉熵函数CrossEntropyLoss 使用详解

import torch 
import torch.nn as NN

criterion = NN.CrossEntropyLoss()


X=torch.randn([2,150])
Y=torch.randint(0,150,(2,))
print(X.shape)
print(Y.shape)


loss=criterion(X,Y)

loss0=criterion(X[0],Y[0])
loss1=criterion(X[1],Y[1])

loss_all=(loss0+loss1)/2

print(loss)
print(loss_all)

输出结果:(因为随机数原因,不会与我的完全一样,但是最后两个值 应该一致)

pytorch 交叉熵函数CrossEntropyLoss 使用详解_第1张图片

从上面可以看出,输入X可以是m*n维矩阵,Y是m维向量.

X的每一行(m中的一个)对应Y中的一个值 ,这个值 其实是X中的当前行的argmax的结果,如果loss收敛,这个argmax值和y中的值 应该相同(理论上)。

从上面的代码还可以知道,最后输出的loss实际上是m个n维向量的loss的平均值 。

你可能感兴趣的:(pytorch,人工智能)