前言:Hello大家好,我是小哥谈。机器学习是一种人工智能的分支,它使用算法和数学模型来使计算机系统能够从经验数据中学习和改进,而无需显式地编程。机器学习的目标是通过从数据中发现模式和规律,从而使计算机能够自动进行预测和决策。机器学习有许多应用领域,包括模式识别、数据挖掘、计算机视觉、语音识别和自然语言处理等。
目录
1.什么是机器学习?
2.监督学习
2.1 定义
2.2 核心步骤及优缺点
2.3 常见的监督学习算法
3.无监督学习
3.1 定义
3.2 核心步骤及优缺点
3.3 常见的无监督学习算法
4.半监督学习
4.1 定义
4.2 核心步骤及优缺点
4.3 常见的半监督学习算法
5.强化学习
5.1 定义
5.2 核心步骤及优缺点
5.3 常见的强化学习算法
6.机器学习分类和回归
6.1 定义
6.2 常见的分类算法
6.3 常见的回归算法
6.4 机器学习分类回归术语表
机器学习是一种人工智能的分支,它使用算法和数学模型来使计算机系统能够从经验数据中学习和改进,而无需显式地编程。机器学习的目标是通过从数据中发现模式和规律,从而使计算机能够自动进行预测和决策。机器学习有许多应用领域,包括模式识别、数据挖掘、计算机视觉、语音识别和自然语言处理等。在机器学习中,通过使用训练数据来训练模型,然后使用该模型来进行预测或决策。训练数据是已知输入和输出的样本集合,模型通过学习这些样本中的模式和规律来进行预测或决策。
人类在成长、生活过程中积累了很多的历史与经验。人类定期地对这些经验进行“归纳”,获得了生活的“规律”。当人类遇到未知的问题或者需要对未来进行“推测”的时候,人类使用这些“规律”,对未知问题与未来进行“推测”,从而指导自己的生活和工作。
机器学习中的“训练”与“预测”过程可以对应到人类的“归纳”和“推测”过程。通过这样的对应,我们可以发现,机器学习的思想并不复杂,仅仅是对人类在生活中学习成长的一个模拟。由于机器学习不是基于编程形成的结果,因此它的处理过程不是因果的逻辑,而是通过归纳思想得出的相关性结论。✅
机器学习的主要类型包括监督学习、无监督学习、半监督学习和强化学习。
监督式学习是一种机器学习方法,其中算法通过使用带有标签的训练数据集来学习模式和规律。在监督式学习中,我们有一个包含输入特征和对应标签的训练数据集,算法通过学习输入与标签之间的关系,从而能够对新的输入进行预测或分类。
具体来说,监督式学习的目标是通过找到一个函数,将输入映射到输出。这个函数被称为模型,它可以是线性模型、决策树、支持向量机、神经网络等等。在训练阶段,模型使用训练数据集来调整自身的参数,使其能够最好地拟合训练数据中的特征和标签之间的关系。然后,在预测阶段,模型可以根据已学习到的规律对新的输入进行预测或分类。
举个例子,如果我们想构建一个垃圾邮件过滤器,我们可以使用监督式学习。我们会收集一批已经标记好的电子邮件(训练数据集),其中包含了垃圾邮件和非垃圾邮件,并提取出一些特征,比如邮件中的单词、发件人信息等。然后,我们使用这些特征和标签进行训练,让模型学会识别垃圾邮件和非垃圾邮件之间的模式和规律。最后,当我们有一个新的未标记的电子邮件时,模型可以根据已学习到的规律预测它是垃圾邮件还是非垃圾邮件。
总结来说,监督式学习是一种常用的机器学习方法,通过使用带有标签的训练数据集来训练模型,并用于预测或分类新的输入数据。
监督学习核心步骤:
(1)使用标签数据训练机器学习模型
(2)调用训练好的机器学习模型,根据新的输入数据预测对应的结果。
监督学习的优点:
监督学习的缺点:
常见的监督学习算法包括:
无监督学习是一种机器学习方法,它使用未标记的数据集来训练模型,并且不需要任何监督来操作这些数据。无监督学习的目标是从数据中发现模式、结构或者其他有用的信息,以便对数据进行进一步的理解和分析。与监督学习相比,无监督学习更适用于未标记和未分类的数据。通过无监督学习,我们可以更好地处理复杂的任务,因为它可以帮助我们从未标记的数据中获取更多的信息。然而,与监督学习相比,无监督学习更加困难,因为它没有与之对应的输出。因此,无监督学习算法的结果可能不太准确,需要进一步的验证和分析。
无监督学习的核心步骤可以概括为以下几个:
数据预处理:对原始数据进行清洗、标准化和特征选择等预处理操作,以减少噪声和冗余信息。
特征提取:从预处理后的数据中提取有意义的特征,用于描述数据的关键信息。
模型选择:选择适合任务的无监督学习模型,如聚类、降维或生成模型等。
模型训练:使用提取的特征和选择的模型进行训练,学习数据中的潜在模式和结构。
模型评估:通过评估指标和实验结果对模型的性能进行评估,以验证模型的有效性和可靠性。
结果分析:对训练得到的模型进行结果分析和解释,理解无监督学习算法对数据的理解和表示能力。
无监督学习的优点:
无监督学习的缺点:
常见的无监督学习算法包括聚类算法、降维算法和异常检测算法。
半监督学习是一种机器学习方法,结合了有标签数据和未标签数据进行训练。与传统的监督学习只使用有标签数据不同,半监督学习利用未标签数据来提高模型的性能和泛化能力。在半监督学习中,我们通过使用未标签数据来学习数据分布和决策边界,从而更好地分类或回归未知数据。半监督学习与纯监督学习的区别在于,纯监督学习只使用有标签数据进行训练,并且假设训练过程中观察到的未标签数据不会出现在测试集中。而半监督学习则允许使用未标签数据,并希望通过利用未标签数据来提高模型对未知数据的泛化能力。
半监督学习的核心步骤如下:
半监督学习的方法有很多种,其中包括生成式方法、半监督SVM、图半监督学习、基于分歧的方法等。
强化学习是一种机器学习的方法,通过智能系统与环境进行交互,在不断尝试和观察中学习最优的行动策略。在强化学习中,智能系统通过与环境进行交互来获取奖励信号,并根据奖励信号调整自己的行为,以获得更高的奖励。强化学习算法通过试错的方式,通过与环境的互动来逐步优化策略,使其能够在给定的任务中达到最佳性能。
与传统的监督学习和无监督学习不同,强化学习没有标注好坏的训练数据,而是通过与环境的交互来逐步学习最优的行动策略。强化学习的核心思想是通过试错来进行学习,即智能系统通过尝试不同的行动并观察结果,然后根据这些观察结果来调整自己的行为。
强化学习算法可以应用于各种领域,如游戏、机器人控制、自动驾驶等。它具有较强的自主学习能力,能够在复杂的环境中通过与环境的交互来自主学习并逐步提高性能。
强化学习的核心步骤包括以下几个方面:
环境建模与状态定义:首先,我们需要对所面对的问题进行环境建模,将其抽象为一个可处理的强化学习环境。同时,我们需要定义合适的状态来描述环境的特征和当前智能体所处的情境。
动作选择与策略定义:在每个时间步骤中,智能体根据当前的状态选择一个行动。为了使智能体能够选择最佳的行动,我们需要定义一个策略函数,它可以基于当前状态来选择一个动作。
奖励信号与回报计算:在强化学习中,智能体通过与环境进行交互来获得奖励信号。这些奖励信号用于指导智能体的学习过程。我们需要设计一个回报函数来计算智能体在每个时间步骤中的即时回报,以及累积奖励。
值函数与策略评估:为了评估一个策略的好坏,我们通常使用值函数来估计在给定策略下智能体的预期累积回报。值函数可以帮助我们评估当前状态的价值,并指导策略的改进。
学习与优化:通过与环境的交互,智能体可以不断地学习和改进自己的策略。通过使用强化学习算法,我们可以优化智能体的策略,使其能够在不同的环境和任务中表现得更好。
强化学习的优点:
强化学习的缺点:
常见的强化学习算法包括以下几种:SARSA、Q-learning、DQN、Policy Gradient、A3C、DDPG和SAC等。这些算法可以根据具体的问题和任务选择合适的算法进行应用和调整。
机器学习中的分类和回归,本质都是对输入做出预测,并且都是监督学习,简单来说就是,分析输入的内容,判断其类别或者预测其值。
分类和回归的区别:
A.预测种类不同
(1)分类预测的是物体所属的种类,而回顾预测的是物体的具体数值。例如,最近北京天气变化大,为了能够对明天适宜的衣服以及是否携带雨伞做判断,我们需要根据过去已有的天气情况进行预测。天气可以分为:晴、阴、雨 三类,我们现在已知的是今天及以前的天气情况,预测明天及以后几天的天气情况,如明天阴,后天晴,就是分类。根据今天及前几天的温度,通过之前的气温来预测以后的气温,这就是回归。
(2)分类输出的是离散值,回归输出的是连续值。离散就是规定好有有限个类别,而这些类别是离散的;连续就是理论上可以取某一范围内的任意数值。
(3)分类输出的值是定性的,回归输出的值是定量的。定性是指确定某种东西的确切的组成有什么或者某种物质是什么,不需要测定该物质的各种确切的数值量。定量是指确定一种成分(某种物质)的确切的数值量,这种测定一般不需要关注测定的物质是什么。例如:这是一杯水,这是定性;这杯水有10毫升,这是定量。
B.目的不同
分类的目的是寻找决策边界,用于对数据集中的数据进行分类;回归的目的是找到最优拟合线,这条线可以最优的接近数据集中的各个点。
C.结果不同
分类的结果没有逼近,只有对错,什么类别就是什么类别,最终结果只有一个。回归是对真实值的一种逼近预测,值不确定,当预测值与真实值相近时,即误差较小时,我们认为这是一个好的回归。(例如一个产品的实际价格为5000元,通过回归分析预测值为4999元,我们认为这是一个比较好的回归分析。
常用的分类算法有决策树分类法,基于规则的分类算法,神经网络,支持向量机和朴素贝叶斯分类法。
下面主要介绍各个算法的一些特点:
(1)决策树
(2)基于规则的分类算法
(3)最近邻分类器
(4)朴素贝叶斯分类器
(5)贝叶斯信念网络(BBN)
(6)人工网络
(7)支持向量机的特征(SVM)
根据不同的特点和应用场景,回归算法可以分为多个类型,下面介绍一些常见的回归算法的分类。
(1)线性回归
(2)决策树回归
(3)支持向量回归
(4)随机森林回归
(5)神经网络回归
以上是常见的回归算法分类,除此之外,还有一些其他的回归算法,如岭回归、lasso回归、弹性网络回归等等,每种算法都有其适用的场景和特点。在实际应用中,需要根据具体的问题和数据特征来选择最合适的回归算法。
样本(sample)或输入(input):进入模型的数据点。
预测(prediction)或输出(output):从模型出来的结果
目标(target):真实值。对外部数据源,理想情况下,模型应该能够预测出目标。
预测误差(perdiction error)或损失值(loss value):模型预测与目标之间的距离。
类别(class):分类问题中供选择的一组标签。例如,对猫狗图像进行分类时,“狗”和“猫”就是两个类别。
标签(label):分类问题中类别标注的具体例子。比如,如果1,2,3,4号图像被标注为包含类别”狗”,那么“”狗”就是1,2,3,4号图像的标签。
真值(ground-truth)或标注(annotation):数据集的所有目标,通常由人工收集。
二分类(binary calssification):一种分类任务,每个输入样本都应该被划分到两个互斥的类别中。
多分类(multiclass classification): 一种分类任务,每个输入样本都应该划分到两个以上的类别中,比如手写数字分类。
多标签分类(multilabel calssiication):一种分类任务,每个输入样本都可以分配多个标签。举个例子,如果一幅图像里可能既有猫又有狗,那么应该同时标注“猫”标签和“狗”标签。每幅图像的标签个数通常是可变的。
标量回归(scalar regression):目标是连续标量值的任务。预测房价就是一个很好的例子,不同的目标价格形成一个连续的空间。
向量回归(vector reression):目标是一组连续值(比如一个连续向量)的任务。如果对多个值(比如图像边界框的坐标)进行回归,那就是向量回归。
小批量(mini-batch)或批量(batch):模型同时处理的一小部分样本(样本数通常为8-128)。样本数通常取2的幂,这样便于GPU上的内存分配。训练时,小批量用来为模型权重计算一次梯度下降更新。
优化(optimization):指调节模型以在训练数据上得到最佳性能(即机器学习中的学习)。
泛化(generalization):指训练好的模型在前所未见的数据上的性能好坏。机器学习的目的就是得到更好的泛化。