吴恩达机器学习笔记(3)——多变量线性回归及多元梯度下降算法

1. Linear Regression with Multiple Variables

简单来说,多元线性回归就是把前述的输入变量规模扩大,增加更多的自变量。下面是一些符号的含义:

 那么相应的来看,多变量的假设函数(Hypothesis Function有如下形式:

 其矩阵(向量化)乘法形式的表示方法如下:

 这里有一点就是对每一个数据集来说,其x0都是恒为1的,与θ0相乘之后就是常数项θ0,

 这里Coursera里的笔记对矩阵乘法有一个计算式的描述,有时候写代码的时候想不明白的问题就出在这个式子上,

吴恩达机器学习笔记(3)——多变量线性回归及多元梯度下降算法_第1张图片

这里就不是上面的假设函数hθ(x)=θTx的形式了,而是将X作为数据集,就相当于将x做了转置然后附加上了更多的数据点成为了X,这个时候hθ(X)的表达式则变成了hθ(X)=Xθ

2. Cost Function

吴恩达机器学习笔记(3)——多变量线性回归及多元梯度下降算法_第2张图片

这里同样,需要注意的是向量化的代价函数表达形式,这个式子在写代码的时候很有用,最好自己推导一下。

3. Gradient Descent for Multiple Variables

对于多元的梯度下降来说,其实形式和之前是完全相同的,只不过是多了一些需要计算的参数,也就是下面这些式子:

吴恩达机器学习笔记(3)——多变量线性回归及多元梯度下降算法_第3张图片

用通项的形式来表示就是:

再进一步,多元梯度下降的计算式也可以用矩阵的形式来表示(方便于写代码):

吴恩达机器学习笔记(3)——多变量线性回归及多元梯度下降算法_第4张图片

附上一个手写推导过程

 吴恩达机器学习笔记(3)——多变量线性回归及多元梯度下降算法_第5张图片

你可能感兴趣的:(Machine,Learning)