深度学习常用优化器总结,具详细(SGD,Momentum,AdaGrad,Rmsprop,Adam,Adamw)
学习需要,总结一些常用优化器。目录前言SGD:随机梯度下降BGD:批量梯度下降MBGD:小批量梯度下降MomentumAdaGradRMSpropAdam:AdaptiveMomentEstimationAdamW参考文章前言优化器的本质是使用不同的策略进行参数更新。常用的方法就是梯度下降,那梯度下降是指在给定待优化的模型参数θ∈Rd\theta\inR^dθ∈Rd,和目标函数J(θ)J(\the