吴恩达机器学习----线性回归

概括:

吴恩达机器学习----线性回归_第1张图片

Model

吴恩达机器学习----线性回归_第2张图片

Cost function:去找到最小的J(w,b)

 吴恩达机器学习----线性回归_第3张图片

 如何理解Cost function(代价函数)

下面从三组数据(1,1),(2,2),(3,3),结合f(x)=wx模型去看(给不同w):

w=1:

吴恩达机器学习----线性回归_第4张图片

 w=0.5:

吴恩达机器学习----线性回归_第5张图片

w=0:

吴恩达机器学习----线性回归_第6张图片

通过多组可找到:

吴恩达机器学习----线性回归_第7张图片

 结论:

 吴恩达机器学习----线性回归_第8张图片

可视化代价函数:让我们可视化线性回归模型中w和b 一些特定的选择如何影响拟合的数据的直线       

 可视化举例:(最小在(等高线)中心)

吴恩达机器学习----线性回归_第9张图片

 吴恩达机器学习----线性回归_第10张图片吴恩达机器学习----线性回归_第11张图片吴恩达机器学习----线性回归_第12张图片

预告:梯度下降(梯度下降的变化用于训练不仅仅是线性回归,还有人工智能中最大最复杂的模型),本例中:去自己找到最小的J(w,b),找到最佳的拟合线。

你可能感兴趣的:(线性回归,python)