如何查找解决torch_lightning训练输出出现nan的问题

发生了什么?

  • 首先要理解到nan的意思是not a number,可能训练当中出现了正无穷和负无穷的情况;

  • 也可能是出现了函数无意义的情况,例如对一个小于0的数取log,或者除以了0;

怎么发生的,以及怎么解决?

要确定问题出在哪里?我们需要理解出现一个nan的几种流程:

1.网络输入有nan,导致输出有nan(输入有nan导致输出有nan)

这是最简单的情况,只要检查一下输入就行了。

2.网络设置的计算逻辑有问题(梯度为nan,导致参数为nan,导致输出为nan)

也就是网络设置的不好,除以0了或者是给负数取了log,一般官方的库都充分考虑了计算安全问题,就看看自己的代码就可以了。

3.网络设计存在梯度逻辑问题(梯度为nan,导致参数为nan,导致输出为nan)

就是你这个损失函数在回传梯度的时候他直接莫名其妙开始算的特别大,例如发生了梯度爆炸

你可以采用如下参数设置查看是否发生这个问题:

trainer = pl.Trainer(
	# 其他参数已经被省略
    track_grad_norm=2.0,  # 梯度用几范数显示
)

通过这个方式你可以看到梯度情况:

如果特别大,那么可能是发生了梯度爆炸,这时你可以采用下面设置解决:

trainer = pl.Trainer(
	# 其他参数已经被省略
	gradient_clip_val=1e5,  # 进行梯度裁剪,超过这个值的会被强制改写成这个值,相当于torch.clip     
)        

如果直接没有了,也就是一训练就是nan,可能是你设置的函数不可导,这就是一个数学问题了,需要你自行排除一下

你可能感兴趣的:(人工智能,python,深度学习)