【吴恩达机器学习笔记】第1周 - 线性回归与代价/成本函数

机器学习的模式

【吴恩达机器学习笔记】第1周 - 线性回归与代价/成本函数_第1张图片

用训练集的数据,匹配一种算法,生成一个函数(h),这个函数可以输入x,产出y

所以机器学习的关键在于:

1、选择正确的算法,选择算法之后,函数h的形态就确定了,但是参数未知

2、确定函数h的参数值:

      监督学习:通过训练集的x和y,共同确定参数值

      无监督学习:通过训练集的x,确定参数值(还没搞懂)

最简单的算法:一元 线性回归(Linear Regression)

相同的算法,不同的参数值:

【吴恩达机器学习笔记】第1周 - 线性回归与代价/成本函数_第2张图片

代价/成本函数(Cost Function)

【吴恩达机器学习笔记】第1周 - 线性回归与代价/成本函数_第3张图片

由于实际数据几乎不可能百分之百拟合某个函数,也就是说,实际中 θ0 和 θ1 (参数们)不太可能只有唯一取值,只能从中找到最优解,也就是使函数 h(x) 的取值和实际 y 的取值差异最小的参数。

即当:

取值最小时,θ0 和 θ1的值。

线性方程 的成本函数是:

【吴恩达机器学习笔记】第1周 - 线性回归与代价/成本函数_第4张图片

(这里为啥是除以2m,而不是m呢?虽然课程给了一个解释:为了方便计算梯度下降

The mean is halved (1/2) as a convenience for the computation of the gradient descent, as the derivative term of the square function will cancel out the (1/2)​ term.

但我还是没懂。不过这并不影响结果就是了。) 

你可能感兴趣的:(机器学习,学习,机器学习,人工智能,吴恩达)