nll_loss_forward_reduce_cuda_kernel_2d_index的问题

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档

一、nll_loss_forward_reduce_cuda_kernel_2d_index

在chatgpt上面提问时,回复的答案是:
nll_loss_forward_reduce_cuda_kernel_2d_index需要以下数据类型:

  • 输入的log_softmax张量,数据类型为float32或float64
  • 目标类别的张量,数据类型为int32或int64
  • 输出的损失张量,数据类型为float32或float64
  • 损失的权重张量(可选),数据类型为float32或float64
  • 批次大小(可选),数据类型为int32或int64
  • 类别数量(可选),数据类型为int32或int64

但是在使用tranformers的时候,还是报错了,错误提示大概是这样:
File “xxxxxxxx\pytorch\lib\site-packages\torch\nn\functional.py”, line 3014, in cross_entropy
return torch._C._nn.cross_entropy_loss(input, target, weight, _Reduction.get_enum(reduction), ignore_index, label_smoothing)
RuntimeError: “nll_loss_forward_reduce_cuda_kernel_2d_index” not implemented for ‘Int’
但是“eturn torch._C._nn.cross_entropy_loss”这段代码是在库里面的,刚开始我不敢改,就把训练的数据类型从int改成float,但是还是报错:
RuntimeError: “nll_loss_forward_reduce_cuda_kernel_2d_index” not implemented for ‘Double’
所以我只能试试改源码,改成这样:
nll_loss_forward_reduce_cuda_kernel_2d_index的问题_第1张图片
加了一段“target = target.type(torch.int64)”,就可以了。原理俺还是不懂,为什么一定要转成torch.int64,但是可能有些时候需要浮点数,所以这个不知道咋办。。。。。。。。。总不能用一个框架改一次吧。先记录,以后再了解

你可能感兴趣的:(语义大模型,python,transformer)