关于pytorch中的交叉熵损失函数

这里有两个需要注意的点。

  1. 交叉熵损失函数中包含softmax计算。
  2. 分类时标签没有转化为one-hot向量,而是作为序号。假如一共有3类,标签序号为0,1,2。softmax得到的向量为[0.7,0.2,0,1],真实标签为1。计算损失时就是-log0.2(1是对应位置)。所以分类时标签必须从0开始。

你可能感兴趣的:(pytorch)