吴恩达机器学习笔记1

监督学习和无监督学习:监督学习这个想法是指,我们将教计算机如何去完成任务,而在无监督学习中,我们打算让它自己进行学习。

监督学习指的就是我们给学习算法一个数据集,这个数据集由“正确答案”组成。在房价的例子中,我们给了一系列房子的数据,我们给定数据集中每个样本的正确价格,即它们实际的售价然后运用学习算法,算出更多的正确答案。

回归问题:

吴恩达机器学习笔记1_第1张图片

分类问题:

无监督学习

无监督学习中没有任何的标签或者是有相同的标签或者就是没标签。所以我们已知数据集,却不知如何处理,也未告知每个数据点是什么。别的都不知道,就是一个数据集。针对数据集,无监督学习就能判断出数据有两个不同的聚集簇。所以叫做聚类算法。

代价函数:h\theta (x)=\theta 0+\theta 1 x也称平方误差函数

理解:假设θ0=0通过选择θ1来获得min J(θ1)

吴恩达机器学习笔记1_第2张图片

梯度下降:梯度下降是一个用来求函数最小值的算法,我们将使用梯度下降算法来求出代价函数的最小值。(同步更新θ0θ1吴恩达机器学习笔记1_第3张图片

吴恩达机器学习笔记1_第4张图片

学习率:

吴恩达机器学习笔记1_第5张图片吴恩达机器学习笔记1_第6张图片

梯度算法和线性回归算法比较:

吴恩达机器学习笔记1_第7张图片

多变量梯度下降:

吴恩达机器学习笔记1_第8张图片

特征值缩放:将所有特征的尺度都尽量缩放到-1 到 1 之间

吴恩达机器学习笔记1_第9张图片

学习率的选择:

吴恩达机器学习笔记1_第10张图片

梯度下降与正规方程的比较:

吴恩达机器学习笔记1_第11张图片

你可能感兴趣的:(人工智能,算法)