【深度学习实验】网络优化与正则化(四):参数初始化及其Pytorch实现——基于固定方差的初始化(高斯、均匀分布),基于方差缩放的初始化(Xavier、He),正交初始化
文章目录一、实验介绍二、实验环境1.配置虚拟环境2.库版本介绍三、优化算法0.导入必要的库1.随机梯度下降SGD算法a.PyTorch中的SGD优化器b.使用SGD优化器的前馈神经网络2.随机梯度下降的改进方法a.学习率调整b.梯度估计修正3.梯度估计修正:动量法Momentum4.自适应学习率5.Adam算法四、参数初始化1.基于固定方差的参数初始化a.高斯分布初始化b.均匀分布初始化2.基于方