1吴恩达Meachine-Learing之监督学习和非监督学习

未经允许,不得擅自改动和转载

监督学习(Supervised Learning)

介绍监督学习。 其基本思想是,监督学习中,对于数据集中的每个数据, 都有相应的正确答案,(训练集) 算法就是基于这些来做出预测。

受监督的学习问题分为“回归”和“分类”问题。

  • 回归(连续)
  • 分类(离散)

在回归问题中,我们试图在连续输出中预测结果,这意味着我们正在尝试将输入变量映射到一些连续函数。
在分类问题中,我们试图用离散输出来预测结果。换句话说,我们正在尝试将输入变量映射到离散类别。

  • 后面介绍了回归问题。 即通过回归来预测一个连续值输出。
  • 我们还谈到了分类问题, 目标是预测离散值输出。

示例2:

(a)回归 - 鉴于一个人的照片,我们必须根据给定的图片来预测他们的年龄

(b)分类 - 鉴于肿瘤患者,我们必须预测肿瘤是恶性还是良性(非黑即白//0|1)。

注意:

  • 在一些学习问题中,不希望只用3,5种特征,相反,想用无限多种特征,好让算法利用大量的特征来做推测。那你怎么处理无限特征,甚至怎么存储这些特征都存在问题,你的电脑内存肯定不够用。以后会讲一个算法,叫支持向量机,里面有一个巧妙的数学技巧,能让计算机处理无限多个特征

非监督学习(Unsupervised Learning)

无监督学习使我们能够很少或不知道我们的结果应该如何处理问题。
我们可以从数据导出结构,我们不一定知道变量的影响。

1吴恩达Meachine-Learing之监督学习和非监督学习_第1张图片
有无标签

在上一节中 我们已经讲过了监督学习 回想起上次的数据集 每个样本 都已经被标明为 正样本或者负样本 即良性或恶性肿瘤 。因此 对于监督学习中的每一个样本 我们已经被清楚地告知了 什么是所谓的正确答案 即它们是良性还是恶性 。
在无监督学习中 我们用的数据会和监督学习里的看起来有些不一样在无监督学习中没有“属性或标签这一概念” 也就是说所有的数据 都是一样的 没有区别

我们可以通过基于数据中的变量之间的关系对数据进行聚类来导出该结构。

无监督学习算法 ,针对数据集,自动的找出数据中的结构,会把这些数据分成两个不同的簇,所以叫做聚类算法

无监督学习或聚类算法在其他领域也有着大量的应用 ,例如谷歌新闻每天手机非常多的新闻内容,然后把同一主题的放在一起

例:
聚类:收集100万个不同的基因,并找到一种自动将这些基因组合成不同变量(如寿命,位置,作用等)相似或相关的组。

其实聚类只是无监督学习的一种,还有一种非聚类算法

非聚类:“鸡尾酒会算法”,让您在混乱的环境中找到结构。
(即从鸡尾酒会的声音网格中识别个人的声音和音乐)。

以上就是监督学习和非监督学习的全部内容,大家有疑问的,欢迎提问!

课程代码:https://github.com/HuangCongQing/MachineLearning_Ng
本文参考自-黄海广博士 斯坦福大学 2014机器学习教程中文 笔记
链接:http://pan.baidu.com/s/1dF2asvf 密码:1ewf

分享吴恩达机器学习视频 下载 链接:
链接: http://pan.baidu.com/s/1pKLATJl 密码: xn4w


好看的人儿,点个喜欢❤ 你会更好看哦~~

你可能感兴趣的:(1吴恩达Meachine-Learing之监督学习和非监督学习)