吴恩达机器学习笔记二之多变量线性回归

本节目录:

  • 多维特征
  • 多变量梯度下降
  • 特征缩放
  • 学习率
  • 正规方程

1.多维特征
含有多个变量的模型,模型中的特征为(x1,x2,…xn),
比如对房价模型增加多个特征
吴恩达机器学习笔记二之多变量线性回归_第1张图片
这里,n代表特征的数量,
x(i)代表第i个训练实例,是特征矩阵中的第i行,是一个向量
吴恩达机器学习笔记二之多变量线性回归_第2张图片
吴恩达机器学习笔记二之多变量线性回归_第3张图片
2 多变量梯度下降

多变量线性回归中,代价函数是所有建模误差的平方和,即:
在这里插入图片描述
吴恩达机器学习笔记二之多变量线性回归_第4张图片
吴恩达机器学习笔记二之多变量线性回归_第5张图片
我们开始随机选择一系列参数值,计算所有预测结果,再给所有参数一个新值,如此循环直到收敛。
3 特征缩放
面对多维特征问题的时候,我们要保证这些特征都具有相近的尺度,这将帮助梯
度下降算法更快地收敛。
吴恩达机器学习笔记二之多变量线性回归_第6张图片
在这里插入图片描述
4.学习率
吴恩达机器学习笔记二之多变量线性回归_第7张图片
5 特征和多项式回归
吴恩达机器学习笔记二之多变量线性回归_第8张图片
6 正规方程
吴恩达机器学习笔记二之多变量线性回归_第9张图片
吴恩达机器学习笔记二之多变量线性回归_第10张图片
吴恩达机器学习笔记二之多变量线性回归_第11张图片
吴恩达机器学习笔记二之多变量线性回归_第12张图片

更多内容详情及代码请见:https://github.com/fengdu78/Coursera-ML-AndrewNg-Notes

你可能感兴趣的:(机器学习,机器学习,多变量线性回归,特征,梯度下降,正规方程)