机器学习个人笔记(2)- 技术篇

2.1 机器学习算法分类

机器学习算法可以按照不同的标准来进行分类。比如按函数 f (x,θ)的不同,机器学习算法可以分为线性模型和非线性模型;按照学习准则的不同,机器学习算法也可以分为统计方法和非统计方法。但一般来说,我们会按照训练样本提供的信息以及反馈方式的不同,将机器学习算法分为监督学习、无监督学习和强化学习

机器学习个人笔记(2)- 技术篇_第1张图片2.1.1 监督式学习
监督式学习(Supervised Learning),是机器学习的一种方法,可以由训练资料中学到或建立一个模式(函数/learning model),并依此模式推测新的实例。

训练资料是由输入物件(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值,或是预测一个分类标签。一个监督式学习者的任务在观察一些事先标记过的训练范例(输入和预期输出)后,去预测这个函数对任何可能出现的输入的输出。要达到此目的,学习者必须以“合理”(见归纳偏向)的方式从现有的资料中一般化到非观察到的情况。

根据标签类型的不同,又可以将其分为分类问题回归问题两类。分类问题的目标是通过输入变量预测出这一样本所属的类别,例如对于植物品种、客户年龄和偏好的预测问题都可以被归结为分类问题。这一领域中使用最多的模型便是支持向量机,用于生成线性分类的决策边界。随着深度学习的发展,很多基于图像信号的分类问题越来越多地使用卷积神经网络来完成。回归主要用于预测某一变量的实数取值,其输出的不是分类结果而是一个实际的值。常见的例子是包括市场价格预测、降水量预测等。人们主要通过线性回归、多项式回归以及核方法等来构建回归模型。

监督式学习有两种形态的模型:一种是全域模型,会将输入物件对应到预期输出;另一种是将这种对应实作在一个区域模型(如最近邻居法)。为了解决一个给定的监督式学习的问题(手写辨识),必须考虑以下步骤:

  1. 决定训练资料的范例的形态。在做其它事前,工程师应决定要使用哪种资料为范例。譬如,可能是一个手写字符,或一整个手写的辞汇,或一行手写文字。
  2. 搜集训练资料。这资料需要具有真实世界的特征。所以,可以由人类专家或机器(或感测器的)测量中得到输入物件和其相对应输出。
  3. 决定学习函数的输入特征的表示法。学习函数的准确度与输入的物件的表示方式有很大的关联度。传统上,输入的物件会被转成一个特征向量,包含了许多关于描述物件的特征。因为维数灾难的存在,特征的个数不宜太多,但也要足够大,才能准确地预测输出。
  4. 决定要学习的函数和其对应的学习算法所使用的数据结构。譬如,工程师可能选择人工神经网络和决策树。
  5. 完成设计。工程师接着在搜集到的资料上跑学习算法。可以借由将资料跑在资料的子集(称为验证集)或交叉验证(cross-validation)上来调整学习算法的参数。参数调整后,算法可以运行在不同于训练集的测试集。

常见的监督学习算法
有:k-近邻算法(k-Nearest Neighbors,kNN)、决策树(DecisionTrees)、朴素贝叶斯(Naive Bayesian)等。监督学习的基本流程如下图所示:

机器学习个人笔记(2)- 技术篇_第2张图片
  
 
2.1.2 无监督学习
无监督学习(Unsupervised Learning)是机器学习的一种方法,没有给定事先标记过的训练示例,自动对输入的数据进行分类或分群。与监督学习不同,非监督学习并不需要完整的输入输出数据集,并且系统的输出经常是不确定的。它主要被用于探索数据中隐含的模式和分布。非监督学习具有解读数据并从中寻求解决方案的能力,通过将数据和算法输入到机器中将能发现一些用其他方法无法见到的模式和信息。

常见的无监督学习算法
包括:稀疏自编码(sparse auto-encoder)、主成分分析(Principal
Component Analysis, PCA)、K-Means 算法(K 均值算法)、DBSCAN 算法(Density-BasedSpatial Clustering of Applications with Noise)、最大期望算法(Expectation-Maximizationalgorithm, EM)等。

利用无监督学习可以解决的问题可以分为关联分析、聚类问题和维度约减。

⚫ 关联分析是指发现不同事物之间同时出现的概率。在购物篮分析中被广泛地应用,如果发现买面包的客户有百分之八十的概率买鸡蛋,那么商家就会把鸡蛋和面包放在相邻的货架上。
⚫ 聚类问题是指将相似的样本划分为一个簇(cluster)。与分类问题不同,聚类问题预先并不知道类别,自然训练数据也没有类别的标签。
⚫ 维度约减是指减少数据维度的同时保证不丢失有意义的信息。利用特征提取方法和特征选择方法,可以达到维度约减的效果。特征选择是指选择原始变量的子集。特征提取是将数据从高维度转换到低维度。广为熟知的主成分分析算法就是特征提取的方法。

非监督学习的基本处理流程如下图所示:
机器学习个人笔记(2)- 技术篇_第3张图片

可以很清楚地看到相对于监督学习,非监督学习的过程中没有监督(Supervisor)的干预。

 

2.1.3 强化学习
强化学习(Reinforcement learning, RL)是机器学习中的一个领域,强调如何基于环境而行动才能取得最大化的预期利益。其灵感来源于心理学中的行为主义理论,即有机体如何在环境给予的奖励或惩罚的刺激下,逐步形成对刺激的预期,产生能获得最大利益的习惯性行为。这个方法具有普适性,因此在其他许多领域都有研究,例如博弈论、控制论、运筹学、信息论、仿真优化、多主体系统学习、群体智能、统计学以及遗传算法。

在运筹学和控制理论研究的语境下,强化学习被称作“近似动态规划”。在最优控制理论中也有研究这个问题,虽然大部分的研究是关于最优解的存在和特性,并非是学习或者近似方面。在经济学和博弈论中,强化学习被用来解释在有限理性的条件下如何出现平衡。

强化学习一般由 5 个构成要素,包括:系统环境(System Environment)、参与者(Agent)、观察(Observation)、行动(Action)和奖励(Reward)。强化学习是参与者为了最大化长期回报的期望,通过观察系统环境不断试错进行学习的过程。从强化学习的定义可以看出,强化学习具有两个最主要的特征:通过不断试错来学习、追求长期回报的最大化。在监督学习或非监督学习中,数据是静态的,不需要与环境进行交互,比如图像识别,只要给出足够的差异样本,将数据输入深度网络中进行训练即可。然而,强化学习的学习过程是动态的、不断交互的,所以需要的数据也是通过与环境不断交互而产生的。

机器学习个人笔记(2)- 技术篇_第4张图片
强化学习的基本框架如上图所示,参与者对系统环境进行观察后产生行动,从系统环境中获得相应的奖励,参与者观察系统对自己上一次行动的奖励信号后,重新调整自己的下一次的行动策略。由此可见,强化学习是参与者为了最大化长期回报的期望,通过观察系统环境不断试错进行学习的过程。如果参与者在学习的过程中,某个行为策略得到系统环境的奖励越大,那么参与者以后产生采用这个行动为策略的概率越大。

强化学习是机器学习的重要部分,在为机器学习开拓新方向上做出了巨大的贡献。强化学习突破了非监督学习,为机器和软件如何获取最优化的结果给出了一种全新的思路。它为如何最优化主体的表现和如何优化这一能力之间建立起了强有力的链接。通过奖励函数的反馈来帮助机器改进自身的行为和算法。但强化学习在实践中并不简单,人们利用很多种算法来实现强化学习。

简单来说,强化学习需要指导机器做出在当前状态下能获取最好结果的行为。

强化学习中主体通过行为与环境相互作用,而环境通过奖励函数来帮助算法调整做出行为决策的策略函数。从而在不断的循环中得到表现优异的行为策略。它十分适合用于训练控制算法和游戏 AI 等场景。

机器学习个人笔记(2)- 技术篇_第5张图片

你可能感兴趣的:(AI)