吴恩达机器学习 day02单变量线性回归

01 模型描述

为了更好的描述监督学习问题,需要给出训练集并以此构建一个模型。


下面先学习几个符号:

  • m:代表的是训练集有几个
  • x:代表的是输入的特征
  • y:代表的是输出,也就是预测的目标变量
  • h:代表假设函数,引导从x得到y的函数

02 代价函数(平方误差函数)

  1. 可以通过代价函数来衡量假设函数的准确性。

  2. 代价函数取值越小,假设函数就越准确。


  • 代价函数有助于我们弄清楚如何把最有可能的直线与我们的数据相拟合。

  • 在线性回归中,我们要解决的是最小化问题

  • 代价函数是解决回归问题最常用的手段
    吴恩达机器学习 day02单变量线性回归_第1张图片

03 梯度下降

梯度下降法:可以将代价函数最小化

吴恩达机器学习 day02单变量线性回归_第2张图片

一般将两个参数初始化为0,再不断的改变参数的值,使得代价函数取值达到最小。

吴恩达机器学习 day02单变量线性回归_第3张图片

  • a:代表学习率(永远为正),用来控制使用梯度下降时,迈出步子的大小。下面是a太小与太大的情况。

吴恩达机器学习 day02单变量线性回归_第4张图片

  • 导数的含义:针对于只有一个参数的,两种不同初始点的情况分析。

吴恩达机器学习 day02单变量线性回归_第5张图片

  • 事实上,当取值越接近最优解时,梯度下降的幅度也就越小,因为导数始终向0靠拢。

吴恩达机器学习 day02单变量线性回归_第6张图片

04 线性回归的梯度下降

  • 将代价函数带入梯度下降算法,并求偏导数可得:

吴恩达机器学习 day02单变量线性回归_第7张图片

  • 将所求的偏导数带回梯度下降算法

吴恩达机器学习 day02单变量线性回归_第8张图片

  • 通过梯度下降算法,一步步的进行,最终可以得到与数据最拟合的直线

吴恩达机器学习 day02单变量线性回归_第9张图片

你可能感兴趣的:(吴恩达机器学习,机器学习)