机器学习——01基础知识

机器学习——01基础知识

github地址:https://github.com/yijunquan-afk/machine-learning

参考资料

[1] 庞善民.西安交通大学机器学习导论2022春PPT

[2] 周志华. 机器学习.北京:清华大学出版社,2016

[3] AIlearning

一、机器学习算法的应用

目前,机器学习算法在自然语言处理、无人驾驶、复杂病情诊断还没有超越人类。棋牌、语音识别、人脸识别已经超越了人类

深度学习神经网络并不是人工智能的终极解决方案

数据驱动,需要大量训练样本才能达到满意精度

无法自适应环境与任务变化

一种算法只做一件事,无法做到多面手

需要大量手工调试与试错

成本高

鲁棒性较差

二、什么是机器学习算法

定义:Machine learning, a branch of artificial intelligence, is about the construction and study of systems that can learn from data

机器学习是人工智能的一个分支,是关于构建和研究可以从数据中学习的系统

机器学习算法的一般应用框架

1️⃣ 定义需要实现的功能。

2️⃣ 采集足够多的正例与负例样本: T = { x i , y i } I N T=\{x_i,y_i\}_I^N T={xi,yi}IN

3️⃣ 利用训练样本 T = { x i , y i } I N T=\{x_i,y_i\}_I^N T={xi,yi}IN 通过迭代训练,得到模型

y = f ( x , Θ ) y=f(x,\Theta) y=f(x,Θ)
4️⃣ 如果标签y∈{-1, +1}是离散的,这就是一个分类问题;如果y,是连续的,这就是一个回归问题

模型:模型是用来描述某个特定现象或事务的

归纳模型:由一个数学公式构成,每个变量都有明确物理意义

预测模型:由一个万能函数构成,每个参数一般不具备任何物理意义,一般只能模拟或预测目标系统的输出

直推模型:没有明确的模型或函数,但是可计算出模型在特定点的值

每个数据都是对目标世界的取样,当所在世界的取样足够全面和密集时,就获得了对这个世界的完整描述

Inductive inference
归纳模型
Predictive inference
预期模型
Transdictive inference
直推模型
目标 发现事物的真正规律 发现预测规则 评估未知预测函数在某些点的值
复杂度 比较困难 相对容易 最容易
适用性 少数变量就能描述的简单世界 需要多个变量描述的复杂世界 需要多个变量描述的复杂世界
计算成本 最高
泛化能力 最高

传统机器学习和深度学习的比较

本质完全相同:都是利用一个万能函数拟合训练样本

区别在于:深度学习神经网络是拥有极高自由度的万能函数,能够很好地拟合任意复杂度的分布。

深度学习关键词:数据驱动,越多的数据做训练,就能达到越高的精度

三、机器学习算法的分类

非监督学习与监督学习

非监督学习:不需要训练样本的机器学习算法,如数据聚类算法。

监督学习:需要训练样本的机器学习算法,如大多数分类、回归算法。

生成模型与判别模型(generative vs. discriminative)

生成模型计算数据x与标签y的联合概率P(x,y),用下列公式计算分类概率:P(y|x) = P(x,y)/P(x)

K-means

判别模型直接计算分类概率P(y|x)

GMM

简单数据模型与复杂数据模型

简单数据模型:被用来处理相互独立的简单数据

复杂数据模型:被用来处理具有时空关联性的复杂数据:语音识别

四、机器学习算法的重要构成要素

三个重要方面

1️⃣ Structural model:我们选择哪一类函数 f ( x , Θ ) f(x, \Theta) f(x,Θ)来建立模型?

2️⃣ Error model:我们选择哪一类损失函数(lossfunction) L ( y , f ( x , Θ ) ) L(y,f(x,\Theta)) L(y,f(x,Θ))来做训练?损失函数相当于为模型的选择制定考核标准。

3️⃣ Optimization procedure:我们选择哪一种数值计算方法来获取最优模型 f ∗ ( x , Θ ) f^*(x,\Theta) f(x,Θ)?

机器学习——01基础知识_第1张图片

五、机器学习组成

主要任务

  • 分类(classification): 将实例数据划分到合适的类别中。
    • 应用实例: 判断网站是否被黑客入侵(二分类 ),手写数字的自动识别(多分类)
  • 回归(regression): 主要用于预测数值型数据。
    • 应用实例: 股票价格波动的预测,房屋价格的预测等。

监督学习(supervised learning)

  • 必须确定目标变量的值,以便机器学习算法可以发现特征和目标变量之间的关系。在监督学习中,给定一组数据,我们知道正确的输出结果应该是什么样子,并且知道在输入和输出之间有着一个特定的关系。 (包括: 分类和回归)
  • 样本集: 训练数据 + 测试数据
    • 训练样本 = 特征(feature) + 目标变量(label: 分类-离散值/回归-连续值)
    • 特征通常是训练样本集的列,它们是独立测量得到的。
    • 目标变量: 目标变量是机器学习预测算法的测试结果。
      • 在分类算法中目标变量的类型通常是标称型(如: 真与假),而在回归算法中通常是连续型(如: 1~100)。
  • 监督学习需要注意的问题:
    • 偏置方差权衡
    • 功能的复杂性和数量的训练数据
    • 输入空间的维数
    • 噪声中的输出值
  • 知识表示
    • 可以采用规则集的形式【例如: 数学成绩大于90分为优秀】
    • 可以采用概率分布的形式【例如: 通过统计分布发现,90%的同学数学成绩,在70分以下,那么大于70分定为优秀】
    • 可以使用训练样本集中的一个实例【例如: 通过样本集合,我们训练出一个模型实例,得出 年轻,数学成绩中高等,谈吐优雅,我们认为是优秀】

非监督学习(unsupervised learning)

  • 在机器学习,无监督学习的问题是,在未加标签的数据中,试图找到隐藏的结构。因为提供给学习者的实例是未标记的,因此没有错误或报酬信号来评估潜在的解决方案。
  • 无监督学习是密切相关的统计数据密度估计的问题。然而无监督学习还包括寻求,总结和解释数据的主要特点等诸多技术。在无监督学习使用的许多方法是基于用于处理数据的数据挖掘方法。
  • 数据没有类别信息,也不会给定目标值。
  • 非监督学习包括的类型:
    • 聚类: 在无监督学习中,将数据集分成由类似的对象组成多个类的过程称为聚类。
    • 密度估计: 通过样本分布的紧密程度,来估计与分组的相似性。
    • 此外,无监督学习还可以减少数据特征的维度,以便我们可以使用二维或三维图形更加直观地展示数据信息。

强化学习

这个算法可以训练程序做出某一决定。程序在某一情况下尝试所有的可能行动,记录不同行动的结果并试着找出最好的一次尝试来做决定。 属于这一类算法的有马尔可夫决策过程。

机器学习——01基础知识_第2张图片

算法汇总

机器学习——01基础知识_第3张图片

机器学习——01基础知识_第4张图片

六、机器学习使用

选择算法需要考虑的两个问题

  1. 算法场景
    • 预测明天是否下雨,因为可以用历史的天气情况做预测,所以选择监督学习算法
    • 给一群陌生的人进行分组,但是我们并没有这些人的类别信息,所以选择无监督学习算法、通过他们身高、体重等特征进行处理。
  2. 需要收集或分析的数据是什么

举例

机器学习——01基础知识_第5张图片

开发流程

  1. 收集数据: 收集样本数据
  2. 准备数据: 注意数据的格式
  3. 分析数据: 为了确保数据集中没有垃圾数据;
    • 如果是算法可以处理的数据格式或可信任的数据源,则可以跳过该步骤;
    • 另外该步骤需要人工干预,会降低自动化系统的价值。
  4. 训练算法: [机器学习算法核心]如果使用无监督学习算法,由于不存在目标变量值,则可以跳过该步骤
  5. 测试算法: [机器学习算法核心]评估算法效果
  6. 使用算法: 将机器学习算法转为应用程序

七、补充知识

Learning rate —— 学习率,通俗地理解,可以理解为步长,步子大了,很容易错过最佳结果。就是本来目标尽在咫尺,可是因为我迈的步子很大,却一下子走过了。步子小了呢,就是同样的距离,我却要走很多很多步,这样导致训练的耗时费力还不讨好。

专业术语

  • 模型(model): 计算机层面的认知
  • 学习算法(learning algorithm),从数据中产生模型的方法
  • 数据集(data set): 一组记录的合集
  • 示例(instance): 对于某个对象的描述
  • 样本(sample): 也叫示例
  • 属性(attribute): 对象的某方面表现或特征
  • 特征(feature): 同属性
  • 属性值(attribute value): 属性上的取值
  • 属性空间(attribute space): 属性张成的空间
  • 样本空间/输入空间(samplespace): 同属性空间
  • 特征向量(feature vector): 在属性空间里每个点对应一个坐标向量,把一个示例称作特征向量
  • 维数(dimensionality): 描述样本参数的个数(也就是空间是几维的)
  • 学习(learning)/训练(training): 从数据中学得模型
  • 训练数据(training data): 训练过程中用到的数据
  • 训练样本(training sample):训练用到的每个样本
  • 训练集(training set): 训练样本组成的集合
  • 假设(hypothesis): 学习模型对应了关于数据的某种潜在规则
  • 真相(ground-truth):真正存在的潜在规律
  • 学习器(learner): 模型的另一种叫法,把学习算法在给定数据和参数空间的实例化
  • 预测(prediction): 判断一个东西的属性
  • 标记(label): 关于示例的结果信息,比如我是一个“好人”。
  • 样例(example): 拥有标记的示例
  • 标记空间/输出空间(label space): 所有标记的集合
  • 分类(classification): 预测是离散值,比如把人分为好人和坏人之类的学习任务
  • 回归(regression): 预测值是连续值,比如你的好人程度达到了0.9,0.6之类的
  • 二分类(binary classification): 只涉及两个类别的分类任务
  • 正类(positive class): 二分类里的一个
  • 反类(negative class): 二分类里的另外一个
  • 多分类(multi-class classification): 涉及多个类别的分类
  • 测试(testing): 学习到模型之后对样本进行预测的过程
  • 测试样本(testing sample): 被预测的样本
  • 聚类(clustering): 把训练集中的对象分为若干组
  • 簇(cluster): 每一个组叫簇
  • 监督学习(supervised learning): 典范–分类和回归
  • 无监督学习(unsupervised learning): 典范–聚类
  • 未见示例(unseen instance): “新样本“,没训练过的样本
  • 泛化(generalization)能力: 学得的模型适用于新样本的能力
  • 分布(distribution): 样本空间的全体样本服从的一种规律
  • 独立同分布(independent and identically distributed,简称i,i,d.):获得的每个样本都是独立地从这个分布上采样获得的。

数据集的划分

  • 训练集(Training set) —— 学习样本数据集,通过匹配一些参数来建立一个模型,主要用来训练模型。类比考研前做的解题大全。
  • 验证集(validation set) —— 对学习出来的模型,调整模型的参数,如在神经网络中选择隐藏单元数。验证集还用来确定网络结构或者控制模型复杂程度的参数。类比 考研之前做的模拟考试。
  • 测试集(Test set) —— 测试训练好的模型的分辨能力。类比 考研。这次真的是一考定终身。

你可能感兴趣的:(机器学习进阶,人工智能,python)