梯度下降法——一元线性回归

梯度下降法——一元线性回归_第1张图片
梯度下降法——一元线性回归_第2张图片
梯度下降法——一元线性回归_第3张图片
一元线性回归
梯度下降法——一元线性回归_第4张图片
梯度下降法——一元线性回归_第5张图片
代价函数
梯度下降法——一元线性回归_第6张图片
梯度下降法——一元线性回归_第7张图片
梯度下降法——一元线性回归_第8张图片
梯度下降法——一元线性回归_第9张图片

相关系数
梯度下降法——一元线性回归_第10张图片
决定系数
梯度下降法——一元线性回归_第11张图片
梯度下降法
梯度下降法——一元线性回归_第12张图片
梯度下降法——一元线性回归_第13张图片
学习率越大,每次梯度下降的步长越大,所以要选择合适的学习率。
梯度下降法——一元线性回归_第14张图片
一个参数的情况:

梯度下降法——一元线性回归_第15张图片
梯度下降法缺点:有可能会陷入局部极小值
梯度下降法——一元线性回归_第16张图片
使用梯度下降法来求解线性回归
梯度下降法——一元线性回归_第17张图片
梯度下降法——一元线性回归_第18张图片
在这里插入图片描述
线性回归的代价函数是凸函数
梯度下降法——一元线性回归_第19张图片
梯度下降法——一元线性回归_第20张图片

你可能感兴趣的:(线性及非线性回归,线性回归,算法,回归)