size mismatch for embedding_layer.weight: copying a param with shape torch.Size([X, X]),加载模型出错!!!

Pytorch,报错size mismatch for embedding_layer.weight: copying a param with shape torch.Size([X, X]),加载模型出错!!!

用LSTM分类时出现错误
在这里插入图片描述
词嵌入层69533与79115不匹配
在这里插入图片描述
最后发现是词嵌入字典个数出现错误
当前加载的是79115个单词,而load的模型是经过69533个单词训练的模型,修改成之前相同的数据,字典树就是79115和原来一样了,最后模型加载成功!!!
在这里插入图片描述

你可能感兴趣的:(深度学习,pytorch,人工智能)