深度学习之梯度更新的几种算法及其python实现【SGD,Momentum,Nesterov Momentum,AdaGrad,RMSProp,Adam】(无公式)
梯度更新的最终目的是为了“到山最底端”,梯度更新算法优化的目的是“最稳最快的到山最底端”。图1梯度更新模型理解图0.SGDSGD是非常好用,经典的梯度更新算法。算法思路比较简单,直接上代码。defsgd(w,dw,config=None):"""单纯的sgd实现"""ifconfigisNone:config={}config.setdefault('learning_rate',1e-2)w-=