吴恩达机器学习课程笔记

卡内基梅隆大学的Tom Mitchell提出一种机器学习的定义:一个程序被认为能从经验E中学习,解决任务T,达到性能度量值P,当且仅当,有了经验E后,经过P评判,程序在处理T时的性能有所提升。

根据Tom定义的机器学习定义:P(performance measure)是性能度量,T(task)是任务,E(experience)是经验。记住ETP。

机器学习最常使用:监督学习,无监督学习

监督学习:监督学习是人为教会机器该如何解决问题,找到解决问题的合适方法。主要有分类问题和回归问题两类。

分类问题:输出离散型变量;回归问题:输出连续型变量。本质都是对输出做出预测。

无监督学习:簇,聚类算法,“鸡尾酒会算法”,把数据交给算法。

簇和聚类算法:对于给定的数据集,机器学习给它们分成不同的簇,这就是聚类算法,就比如一个播放器播放出来的声音,里面有一个人说话和背景音乐,而机器学习可以把说话声音和背景音乐这两种声音分离出来。

模型描述:(x^(i),y^(i))表示一个训练样本,训练集—>学习算法—>假设函数(h) 线性回归函数模型,单变量线性回归函数

吴恩达机器学习课程笔记_第1张图片

 

代价函数(又称为平方误差函数):解决回归问题。如何选择模型参数?最小化问题,减少预测输出与实际输出的方差。m是样本容量。

吴恩达机器学习课程笔记_第2张图片

吴恩达机器学习课程笔记_第3张图片

 

 

最小化公式

梯度下降算法:将代价函数j最小化;梯度下降等于同步更新;梯度下降算法即将到达收敛点时将自动减小步伐。弓形函数无局部最优解,有全局最优。

Batch梯度训练法:相比于正规方程组方法,梯度下降更适用于更大的数据集。

        笔者还在继续学习,将会不定期更新,各位同学一起共同进步

你可能感兴趣的:(机器学习,算法,深度学习,机器学习,算法,人工智能)