[深度学习] 神经网络训练时是否可以将全部参数初始化为0

神经网络训练时是否可以将全部参数初始化为0?

        考虑全连接的深度神经网络,同一层中的任意神经元都是同构的,它们拥有相同的输入和输出。如果再将参数全部初始化为同样的值,那么无论前向传播还是反向传播的取值都是完全相同。学习过程将永远无法打破这种对称性,最终同一网路层中的各个参数仍然是相同的。

你可能感兴趣的:(深度学习,深度学习,神经网络,人工智能,自然语言处理)