吴恩达机器学习打卡day1

本系列文档按课程视频的章节(P+第几集)进行分类,记录了学习时的一些知识点,方便自己复习。

课程视频P2

图1介绍了机器学习的三个指标。分别是:experience E, task T & performance measure P。
吴恩达机器学习打卡day1_第1张图片

图1
           

图2介绍了机器学习的分类,主要有:Superived learning 和Unsupervised learning, 其他的还有Reinforcement learning等等。
吴恩达机器学习打卡day1_第2张图片

图2

课程视频P3——监督学习(Superived learning )

图3有两个问题,让你区分下面哪些应用是Superived learning 中的classification problem or regression problem.
吴恩达机器学习打卡day1_第3张图片

图3

课程视频P4——无监督学习(Unsuperived learning )

图4有一个问题,让你区分下面哪些应用是Unsuperived learning类型.
吴恩达机器学习打卡day1_第4张图片

图4

课程视频P6——代价函数(Cost function)

图5介绍了cost function, 就是拟合函数曲线对应的目标值和真实数据值之间的差值的平方(欧式距离)再除以2倍的数据个数。
吴恩达机器学习打卡day1_第5张图片

图5

课程视频P8——数学模型

图6 给出了具有 θ 0 \theta_0 θ0 θ 1 \theta_1 θ1两个参数下的假设函数(Hypothesis), 参数(parameters), 代价函数(cost function)以及目标函数(Goal)。
吴恩达机器学习打卡day1_第6张图片

图6

图7 给出了具有 θ 0 \theta_0 θ0 θ 1 \theta_1 θ1两个参数下的代价函数(cost function)图像,这是一个碗状函数(bowl-shaped function), 或者叫凸函数(convex function)。
吴恩达机器学习打卡day1_第7张图片

图7

图8 用等高线图像代替具有两个参数的代价函数(cost function)三维碗状图像。
吴恩达机器学习打卡day1_第8张图片

图8

课程视频P9——梯度下降(Gradient descent)

图9 讲述了我们做算法收敛的过程和目标,初始时设置 θ 0 \theta_0 θ0 θ 1 \theta_1 θ1都为0,然后不断改变两个参数的值,直到其达到最小为止。
吴恩达机器学习打卡day1_第9张图片

图9

图10 要求了要同时更新 θ 0 \theta_0 θ0 θ 1 \theta_1 θ1参数,并举例了正确和错误的更新方法。
吴恩达机器学习打卡day1_第10张图片

图10

课程视频P10——梯度下降2

图11 讲述了梯度下降的方法,并分别介绍了当学习速率(learning rate) α \alpha α过小时收敛得很慢,以及 α \alpha α过大时很可能出现不收敛的情况。
吴恩达机器学习打卡day1_第11张图片

图11

图12 介绍了梯度下降法如何达到局部最小值(local minimum)。
吴恩达机器学习打卡day1_第12张图片

图12




未完待续…

你可能感兴趣的:(机器学习,人工智能)