梯度优化方法:BGD,SGD,mini_batch, Momentum,AdaGrad,RMSProp,Adam
文章目录目标函数三种梯度下降优化框架1、BGD、SGD、mini_batch2、**优缺点对比:**3、**问题与挑战:**优化梯度下降法1、动量梯度下降法(Momentum)2、NesterovAccelaratedGradient(NAG)3、Adagrad4、RMSprop5、Adaptivemomentumestimation(Adam)目标函数最优化:得到使目标函数J(θ)J(\thet