BN批量归一化操作

当神经网络层数较多时,在训练网络时,每一层的参数都会发生变化,参数会进行更新。并且当前面层的参数变化时,可能会导致这一层的输入的分布和未进行参数更新前的输入的分布有很大的差距,这可能就导致神经网络去适应新的分布,从而导致训练速度变慢。批量归一化可以加速训练过程中的收敛速度。

https://www.bilibili.com/video/BV1Fr4y1J7rC/?spm_id_from=333.337.search-card.all.click&vd_source=09cede80152575b6b99996355fa8e7e3

你可能感兴趣的:(深度学习,深度学习,人工智能)