【pytorch】使用 nn.LayerNorm 后,输出变为0

产生这一现象的原因是在 Parameter 初始化的时候使用 nn.init.xavier_uniform_(parameter)。

你可能感兴趣的:(pytorch,python,深度学习,人工智能)