一元线性回归的梯度下降

1.Linear regression of one variable:

一个一次线性模型: (预测值:prediction)


2.代价函数 cost function:


3.梯度下降 gradient descent: 就是求偏导数,为了使代价函数最小化

(求导时求和符号可无视,试一下就知道了)

α是学习率,太小下降速度太慢,太大容易冲过最低点


所有数据训练一次,更新一次权重系数θ0和θ1,再将所有数据训练一次,再更新一次θ0和θ1,一个 for循环

你可能感兴趣的:(一元线性回归的梯度下降)