深度学习中Loss突然变为0的解决方法

在深度学习中,在网络模型,优化器,损失函数均正确的情况下,可能在训练过程中会发生loss为nan的情况,这种情况下可能的一种原因是输入数据存在nan的情况,如果在数据量很多的情况下,可以通过以下方法来修正

假设我们读取的array为a

import numpy as np
def read():
	arr=np.array([[1,2,3],[4,5,nan]])
	whereisnan=np.isnan(arr)
	arr[whereisnan]=0

通过找到nan的位置并且将此处设定为0,可以避免loss变为nan

你可能感兴趣的:(DeepLearning,深度学习,python,loss)