吴恩达 机器学习课程笔记整理第一周

1.1 Model Representation

什么是机器学习(他提及了两个个目前较为流行的定义)

Arthur Samuel (1959):”Field of study that gives computers the ability to learn without being explicitly programmed.”翻译过来就是在不对问题进行明显编程的情况下,给予计算机学习能力的一个研究领域

Tom Mitchell (1998) :“ A computer program is said to learn from experience E with respect to some task T and some performance measure P, if its performance on T, as measured by P, improves with experience E.”意思是对于某类任务T和性能度量P,如果计算机程序在T上以P衡量的性能随着经验E而自我完善,那么就称这个计算机程序从经验E学习。

机器学习算法分类:

监督学习(是指已经有数据集,并且每个数据都有相应正确的答案,然后基于这些来进行某种预测)主要用于两类问题:

        回归问题通过回归分析算法用于预测连续值输出

        分类问题通过分类预测算法用于预测离散值输出

无监督学习(只有一个数据集,其他并不知道)通过聚类算法将数据集划分成一个个聚类

模型表示:(其实就是一元一次函数,变量为x)

图解监督学习:是指基于数据集通过监督学习算法得到一个假设函数h:x->y,然后就可以对于某个变量x通过假设函数h来得到预测的y

吴恩达 机器学习课程笔记整理第一周_第1张图片


1.2 Cost Function

代价函数:感觉构建这个函数的目的就是对于一个数据集,我们选择的可以有无数个,但是需要找到最优的一个模型,所以通过代价函数来找到这个最拟合数据集的模型

也就是通过实际值与假设函数得到的预测值差的平方和来构建可以代表预测值与实际值误差的一个函数,要乘前面的系数的原因是为了减少误差

吴恩达 机器学习课程笔记整理第一周_第2张图片对于某个具体x,它对应于模型函数h(x)上的y值与该x对应的实际y之间的高度差就是两者之间的误差值

一参代价函数曲线图:假设为0,即,通过改变的值,来做出代价函数的曲线图

吴恩达 机器学习课程笔记整理第一周_第3张图片(图中代价函数的最小值即为最优解)

两参代价函数图:

吴恩达 机器学习课程笔记整理第一周_第4张图片吴恩达 机器学习课程笔记整理第一周_第5张图片图中最低点即为代价函数取最小值的点

1.3 Parameter Learning

梯度下降算法:用来确定函数最小值的算法,找出误差最小的代价函数。

吴恩达 机器学习课程笔记整理第一周_第6张图片

需要注意的是必须保证以组为单位同时更新!

α:学习效率

对代价函数求偏导

吴恩达 机器学习课程笔记整理第一周_第7张图片

吴恩达 机器学习课程笔记整理第一周_第8张图片

从上面两幅图中可以看出选择的起始点不同最后到达不同的局部最低点。

待续。。。。。。

你可能感兴趣的:(吴恩达 机器学习课程笔记整理第一周)