深度学习和日常代码中遇到的报错汇总及解决方案,持续更新中。。。。

本文是深度学习和日常代码中遇到的报错汇总,因时间比较久,暂时都没有图片,只有文字描述。解决方案也大多参考网上的解决方案,有些有用,有些没有效果,本文章中的问题,也仅是本人遇到的问题,使用列举的方案已经解决。

1、报错"RuntimeError: Boolean value of Tensor with more than one value is ambiguous"。

处理:调用的方法是一个类,需要先进行实例化在进行调用

2、神经网络模型训练过程中,损失和输出都是nan

处理:尝试了网上大家的方式,都没有解决这个问题,后来将pytorch和cuda都降低了版本,问题解决了(要调试网络,看具体在那一步导致的loss为nan)。

网络上找到的其他人总结的解决方式:

1)如果在迭代的100轮以内,出现NaN,一般情况下的原因是因为你的学习率过高,需要降低学习率。可以不断降低学习率直至不出现NaN为止,一般来说低于现有学习率1-10倍即可。

2)如果当前的网络是类似于RNN的循环神经网络的话,出现NaN可能是因为梯度爆炸的原因,一个有效的方式是增加“gradient clipping”(梯度截断来解决)

3)可能用0作为了除数;

4)可能0或者负数作为自然对数

5)需要计算loss的数组越界(尤其是自己,自定义了一个新的网络,可能出现这种情况)

6)在某些涉及指数计算,可能最后算得值为INF(无穷)(比如不做其他处理的softmax中分子分母需要计算exp(x),值过大,最后可能为INF/INF,得到NaN,此时你要确认你使用的softmax中在计算exp(x)做了相关处理(比如减去最大值等等))

7)若模型训练开始时出现,增大或减小batch_size的值,需要增大或减小后去跑模型观察情况,是否还会出现;优化神经网络结构(增加或减少网络深度)

8)若模型运行过程中出现,需要考虑是否是梯度爆炸引起,需要调低学习率或对梯度进行优化。

特殊情况,换激活函数

  1. 卷积在使用BN之后,可以换成sigmoid或tanh激活函数

3、报错cuda内存不足

解决方式:

1)减小batch_size

2)减小网络

4、报错:AttributeError: cannot assign module before Module.__init__() call

原因:

1、引用了父类Module,但是在初始化中没有对父类的初始化函数进行重构

解决方式:

1、在init初始化中,使用super()对父类的初始化函数进行重构

5、训练时报错:cuDNNerror:CUDNN_STATUS_EXECUTION_FAILED

解决方式:

1)在循环的最后加上 torch.cuda.empty_cache()

2)检查在代码中是否有SummerWrite(),有的情况禁用相关代码在进行调试

3)在代码中加上os.environ["CUDA_LAUNCH_BLOCKING"] = "1"

6、报错RuntimeError: CUDNN_STATUS_MAPPING_ERROR

解决方式:

1)在尝试在代码开始部分加入如下2个代码:

torch.backends.cudnn.enabled = True

torch.backends.cudnn.benchmark = True

7、网络模型报错:Expected more than 1 value per channel when training, got input size torch.Size

原因:因为模型中用了batchnomolization,训练中用batch训练的时候当前batch恰好只含一个值,而由于BatchNorm操作需要多于一个数据计算平均值,因此造成该错误

解决方式:

1、加大Batch_Size

2、网络设置eval模式

3、去掉网络中的batchnormal

  1. 调整输入,使batchnormal不止是1个值

8、YOLOv3加载pt文件报错RuntimeError: PytorchStreamReader failed locating file data/4: file not found

原因:pt文件损坏,无法加载

解决方式:重新训练

9、神经网络运行时报错RuntimeError: Found dtype Double but expected Float”

原因:数据精度不一致导致的问题

处理方式:1、检查所有数据的精度是不是一样(标签、模型输入和输出、损失函数的输入和输出数据的精度),不一样的情况,需要修改为相同精度

10、加载参数文件报错EOFError: Ran out of input

原因:​EOFError​​是​​IOError​​的子类。表示没有按照正确的读写模式操作文件,会报此错。

本人是因为训练过程中突然断电,有电后重新加载参数进行训练时报的这个错误

解决方式:

1、本人解决方式是删除参数文件,并重新跑

  1. 网上有解决方式说在Dataloader中,将num_workers设置为0就可以。本人尝试无效,猜测可能是造成原因不同,导致该操作无效。

11、yoloV5训练过程中报错::OSError: [WinError 1455] 页面文件太小,无法完成操作。

原因:

1)环境的虚拟内存不足

2)batch-size太大,

3)数据问题

解决方式:

前2种情况可以参考博客:https://blog.csdn.net/weixin_53660567/article/details/126635843,一般前两种情况遇到比较多。

1)增大环境的虚拟内存(环境所在盘的虚拟内存)

2)调小batch-size,或者将workers设置为0

  1. 处理数据

12、yoloV5训练过程中报错:NotImplementedError: Could not run ‘torchvision::nms‘ with arguments from the ‘CUDA‘ backend.

原因:1、torch和torchvision版本不同,比如torch是支持cuda的,但是torchvision不支持cuda

2、torch和cuda版本不对

解决方式:

1、卸载torch和torchvision,重新一起安装 相同的torch和torchvision

2、卸载torch和cuda,并分别重新安装,使版本匹配

13、使用mac电脑运行时报错:"histogram_cpu" not implemented for "long"

原因:不支持long类型的运算

解决方式:将报错代码输入数据类型设置为float,我是在使用torch.histc()方法时出现的错误。

14、对图片进行操作时报错“AttributeError: ‘numpy.ndarray‘ object has no attribute ‘convert'”。

原因:此时图片的数据方式是numpy的array,不能进行图片相关操作,需要转换为图片数据

解决方式:将图片数据转化为Image的数据格式在进行图片操作。转换方式:Image.fromarray(np.uint8(img))

15、将numpy.ndarray转换为Image图片数据时,报错“TypeError: Cannot handle this data type: (1, 1, 512), |u1”。

原因:需要检查numpy.ndarray的数据的格式,是否是(H,W,C)格式,如果是(C,H,W)格式的话,需要换轴处理

解决方式:将numpy.ndarray数据进行换轴操作(img = img.transpose((1, 2, 0))),换成(H,W,C)格式,换轴之后在进行转换

16、使用神经网络训练/测试图片时,会报错“RuntimeError: Given groups=1, weight of size [64, 3, 7, 7], expected input[1, 4, 224, 224] to have 3”。

原因:图片通道数发生变化导致,例如训练时使用的是3通道图片进行训练,测试时使用单通道图片进行测试

解决方案:对传入的图片进行处理,转为单通道图片或转为3通道图片,根据实际项目调整。

17、对PIL的Image图片进行抠图时报错“TypeError: type numpy.ndarray doesn‘t define __round__ method”。

原因:抠图时,传入的坐标值为nump.ndarray ,没有__round__这个方法

解决方案:使用np.round(data)对数据进行处理之后,在传入到抠图的方法中即可。

18、pytorch操作张量时报错“IndexError: too many indices for tensor of dimension 1”。

原因:张量中存在多个tensor张量列表,导致在dim=1的轴上进行索引时,存在多个张量数组,程序报错,数据格式类似如下:

tensor([
tensor([1]),
tensor([b])])

解决方式:检测前面步骤的数据处理,是否存在问题,可以参考以下处理方式:

1、使用索引方式获取数据,一次性获取所有所需要数据

2、使用cat将不同张量数据整合为一个张量数据

  1. 将张量数据转化为numpy数据,在将数据组合到一起之后,在转为tensor张量

19、神经网络开始训练的时候计算损失报错:untimeError: 0D or 1D target tensor expected, multi-target not supported。

解决方式:

1、若使用的是NllLoss损失函数,则标签的损失不需要处理成one-hot编码格式,只需要是0或1维的标签数据就可以。

2、若是其他损失函数,需要检查计算损失的2个张量的大小和形状是否一致

20、使用cv2处理图片时,报错:error: (-215:Assertion failed) m.dims >= 2 in function 'cv::Mat::Mat'。

分析:图片或文件路径问题,可以将cv2.imread()的图片打印出来,看返回是否有数据还是None,我的情况是返回的是None。

解决措施:

1)如果是路径问题,处理图片路径

2)如果是图片问题,可以尝试使用PIL打开图片,在转换成cv2格式进行操作

from PIL import Image
import cv2

img = cv2.imread(file_path)
#将cv2打开的图片转换为PIL格式的图片
img_pil = Image.fromarray(np.asarray(cv2.cvtColor(crop_img, cv2.COLOR_BGR2RGB)))
#将PIL打开的图片转换为CV2 格式
img1 = Image.open(file_path)
img_cv2 = cv2.cvtColor(numpy.asarray(img1), cv2.COLOR_RGB2BGR)

21、使用PIL处理图片时报错:OSError: broken data stream when reading image file

解决措施:在代码文件开始,添加该代码:ImageFile.LOAD_TRUNCATED_IMAGES = True,我遇到这个问题,是因为处理的图片超出了上限,导致截断数据流,报出这个错误。

22、使用tensorboard过程中遇到报错:ValueError: Duplicate plugins for name projector

原因:安装包下面存在多个tensorboard,删除/卸载一个就好

解决措施:浏览了网络上很多的解决方式都不管用,最后使用网络上的一段代码,查看了tensorboard的包,发现有一个~ensorboard的包,把这个包删除之后就好了(一般和tensorboard的包在同一个位目录内,我的是在D:\ProgramData\anaconda3\Lib\site-packages里面)。

#查看安装的包:
import pkg_resources

for entry_point in pkg_resources.iter_entry_points('tensorboard_plugins'):
    print(entry_point.dist)

你可能感兴趣的:(python,深度学习,神经网络,人工智能)