吴恩达机器学习(一)监督学习与无监督学习

∗ ∗ ∗   点 击 查 看   : 吴 恩 达 机 器 学 习   — —   整 套 笔 记 + 编 程 作 业 详 解   ∗ ∗ ∗ \color{#f00}{***\ 点击查看\ :吴恩达机器学习 \ —— \ 整套笔记+编程作业详解\ ***}   :  + 


人工智能 机器学习 神经网络 深度学习 的关系

吴恩达机器学习(一)监督学习与无监督学习_第1张图片

推荐阅读:机器学习和深度学习综述


监督学习

(Supervised Learning)

给定一组数据点输入 { x ( 1 ) , . . . , x ( m ) x^{(1)},...,x^{(m)} x(1),...,x(m)} 和 其对应的输出 { y ( 1 ) , . . . , y ( m ) y^{(1)},...,y^{(m)} y(1),...,y(m)},我们想要建立一个算法,学习如何从 x x x 预测 y y y

  • 举例如下:有一个数据集(dataset),给出 房屋面积 和 房价 的关系:
    吴恩达机器学习(一)监督学习与无监督学习_第2张图片
    以 面积为横坐标,房价为纵坐标 组成数据点,得到下图:
    吴恩达机器学习(一)监督学习与无监督学习_第3张图片

  • 提出问题如下:
    根据这些数据,当给出一个新的房屋面积时,如何预测其对应的房价?

  • 建立如下模型:

Name Explanation
x ( i ) x^{(i)} x(i) 输入变量(房屋面积),也叫做 输入特征(input features
y ( i ) y^{(i)} y(i) 输出变量(房价),也叫做 目标变量(target variable
( x ( i ) , y ( i ) ) (x^{(i)},y^{(i)}) (x(i),y(i)) 训练样本点(training example
{ ( x ( i ) , y ( i ) ) , i = 1 , . . . , m } \lbrace(x^{(i)},y^{(i)}),i=1,...,m\rbrace {(x(i),y(i)),i=1,...,m} 训练集(training set, m m m为训练样本数量
  • 根据以上模型来描述监督学习问题:
    给定一个训练集(training set),我们需要学习(learn)出一个函数 h : x → y h:x→y h:xy,使得 h ( x ) h(x) h(x) 能够很好的预测 y y y,即 ∣ h ( x ) − y ∣ |h(x)-y| h(x)y的值越小越好,对应的函数 h h h 被称为假设(hypothesis)。如下如图所示:
    吴恩达机器学习(一)监督学习与无监督学习_第4张图片
  • 监督学习根据 目标变量(target) 分为两种
    • 回归问题:当试图预测的目标变量 y y y连续的,例如在上述房价例子中,我们称该学习问题为回归问题,如下图:
      吴恩达机器学习(一)监督学习与无监督学习_第5张图片
    • 分类问题 :当 y y y 只能取少量离散值时,例如,给定房屋面积和房价,我们想要预测该房屋是别墅还是公寓,则称之为分类问题:
      吴恩达机器学习(一)监督学习与无监督学习_第6张图片

无监督学习

(Unsupervised Learning)

与监督学习不同的是,在无监督学习中,我们的数据没有附带任何标签,例如这样:

吴恩达机器学习(一)监督学习与无监督学习_第7张图片
常见的无监督学习有:

(1)聚类:对大量未知标注的数据集,按数据的内在相似性将数据集划分为多个类别,使类别内的数据相似度较大而类别间的数据相似度较小。

(2)降维:找出一些轴,在这些轴上训练数据的方差最大。这些轴就是数据内潜在的结构。我们可以用这些轴来减少数据维度,数据在每个保留下来的维度上都有很大的方差。

推荐阅读:一文看懂无监督学习(基本概念+使用场景+2类典型算法)

你可能感兴趣的:(吴恩达,机器学习)