pytorch梯度裁剪(Clipping Gradient):torch.nn.utils.clip_grad_norm
参考详解PyTorch中的ModuleList和Sequential的区别-云+社区-腾讯云torch.nn.utils.clip_grad_norm(parameters,max_norm,norm_type=2)1、梯度裁剪原理(http://blog.csdn.net/qq_29340857/article/details/70574528)既然在BP过程中会产生梯度消失/爆炸(就是偏导无限