Stochastic gradient descent与Batch gradient descent
梯度下降(GD)是最小化风险函数、损失函数的一种常用方法,下面的h(x)是要拟合的函数,J(theta)损失函数,theta是参数,要迭代求解的值,theta求解出来了那最终要拟合的函数h(theta)就出来了。其中m是训练集的记录条数,j是参数的个数。梯度下降法函数function[kender]=steepest(f,x,e),需要三个参数f、x和e,其中f为目标函数,x为初始点,e为终止