机器学习术语表 中英


A

 

A/B 测试 (A/B testing)

 

一种统计方法,用于将两种或多种技术进行比较,通常是将当前采用的技术与新技术进行比较。A/B测试不仅旨在确定哪种技术的效果更好,而且还有助于了解相应差异是否具有显著的统计意义。A/B 测试通常是采用一种衡量方式对两种技术进行比较,但也适用于任意有限数量的技

术和衡量方式。

 

准确率 (accuracy)

 

分类模型的正确预测所占的比例。在多类别分类中,准确率的定义如下:

 

 

 

在二元分类中,准确率的定义如下:

 

 

请参阅真正例和真负例。

  

激活函数 (activation function)

 

一种函数(例如 ReLU 或 S 型函数),用于对上一层的所有输入求加权和,然后生成一个输出值(通常为非线性值),并将其传递给下一层。

 

 

AdaGrad

 

一种先进的梯度下降法,用于重新调整每个参数的梯度,以便有效地为每个参数指定独立的学习速率。如需查看完整的解释,请参阅如下论文

(http://www.jmlr.org/papers/volume12/duchi11a/duchi11a.pdf)

 

ROC 曲线下面积 (AUC, Area under the ROC Curve)

 

一种会考虑所有可能分类阈值的评估指标。

 

ROC 曲线下面积是,对于随机选择的正类别样本确实为正类别,以及

随机选择的负类别样本为正类别,分类器更确信前者的概率。

 

 

B

 

 

反向传播算法 (backpropagation)

 

在神经网络上执行梯度下降法的主要算法。该算法会先按前向传播方式计算(并缓存)每个节点的输出值,然后再按反向传播遍历图的方式计算损失函数值相对于每个参数的偏导数。

  

基准 (baseline)

 

一种简单的模型或启发法,用作比较模型效果时的参考点。基准有助于模型开发者针对特定问题量化最低预期效果。

  

批次 (batch)

 

模型训练的一次迭代(即一次梯度更新)中使用的样本集。

 

另请参阅批次规模。

 

批次规模 (batch size)

 

一个批次中的样本数。例如,SGD 的批次规模为1,而小批次的规模通常介于 10 到 1000 之间。批次规模在训练和推断期间通常是固定的;

不过,TensorFlow 允许使用动态批次规模。

 

  

偏差 (bias)

 

  

距离原点的截距或偏移。偏差(也称为偏差项)在机器学习模型中以 b 或w0 表示。例如,在下面的公式中,偏差为 :

 

 

 

  

请勿与预测偏差混淆。

  

二元分类 (binary classification)

 

  

一种分类任务,可输出两种互斥类别之一。例如,对电子邮件进行评估并输出“垃圾邮件”或“非垃圾邮件”的机器学习模型就是一个二元分类器。

 

  

分箱 (binning) 请参阅分桶

 

分桶 (bucketing)

 

  

将一个特征(通常是连续特征)转换成多个二元特征(称为桶或箱),通常是根据值区间进行转换。例如,您可以将温度区间分割为离散分箱,而不是将温度表示成单个连续的浮点特征。假设温度数据可精确到小数点后一位,则可以将介于0.0 到 15.0 度之间的所有温度都归入一个分箱,将介于 15.1 到30.0 度之间的所有温度归入第二个分箱,并将

介于 30.1 到 50.0 度之间的所有温度归入第三个分箱。

 

 

 

C

 

 

校准层 (calibration layer)

 

  

一种预测后调整,通常是为了降低预测偏差。调整后的预测和概率应与

观察到的标签集的分布一致。

 

  

候选采样 (candidate sampling)

 

  

一种训练时进行的优化,会使用某种函数(例如 softmax)针对所有正类别标签计算概率,但对于负类别标签,则仅针对其随机样本计算概率。例如,如果某个样本的标签为“小猎犬”和“狗”,则候选采样将针对“小猎犬”和“狗”类别输出以及其他类别(猫、棒棒糖、栅栏)的随机子集计算预测概率和相应的损失项。这种采样基于的想法是,只要正类别始终得到适当的正增强,负类别就可以从频率较低的负增强中进行学习,这确实是在实际中观察到的情况。候选采样的目的是,通过不针对所有负类

别计算预测结果来提高计算效率。

 

  

分类数据 (categorical data)

 

  

一种特征,拥有一组离散的可能值。以某个名为 housestyle 的分类特征为例,该特征拥有一组离散的可能值(共三个),即 Tudor, ranch, colonial 。通过将house style 表示成分类数据,相应模型可以学

习 Tudor、ranch和 colonial 分别对房价的影响。

 

  

有时,离散集中的值是互斥的,只能将其中一个值应用于指定样本。例如,car maker 分类特征可能只允许一个样本有一个值(Toyota)。在其他情况下,则可以应用多个值。一辆车可能会被喷涂多种不同的颜色,因此, car color 分类特征可能会允许单个样本具有多个值(例如red 和 white)。

分类特征有时称为离散特征。与数值数据相对。

  

检查点 (checkpoint)

 

  

一种数据,用于捕获模型变量在特定时间的状态。借助检查点,可以导出模型权重,跨多个会话执行训练,以及使训练在发生错误之后得以继

续(例如作业抢占)。请注意,图本身不包含在检查点中。

 

  

类别 (class)

 

  

为标签枚举的一组目标值中的一个。例如,在检测垃圾邮件的二元分类模型中,两种类别分别是“垃圾邮件”和“非垃圾邮件”。在识别狗品种的多类别分类模型中,类别可以是“贵宾犬”、“小猎犬”、“哈巴犬”等等。

 

 

分类不平衡的数据集 (class-imbalanced data set)

 

  

一种二元分类问题,在此类问题中,两种类别的标签在出现频率方面具有很大的差距。例如,在某个疾病数据集中,0.0001的样本具有正类别标签,0.9999 的样本具有负类别标签,这就属于分类不平衡问题;但在某个足球比赛预测器中,0.51的样本的标签为其中一个球队赢,

0.49 的样本的标签为另一个球队赢,这就不属于分类不平衡问题。

  

分类模型 (classification model)

 

 

一种机器学习模型,用于区分两种或多种离散类别。例如,某个自然语言处理分类模型可以确定输入的句子是法语、西班牙语还是意大利语。

请与回归模型进行比较。

 

  

分类阈值 (classification threshold)一种标量值条件,应用于模型预测的得分,旨在将正类别与负类别区分开。将逻辑回归结果映射到二元分类时使用。以某个逻辑回归模型为例,该模型用于确定指定电子邮件是垃圾邮件的概率。如果分类阈值为0.9,那么逻辑回归值高于 0.9 的电子邮件将被归类为“垃圾邮件”,低于0.9

的则被归类为“非垃圾邮件”。

 

 

协同过滤 (collaborative filtering)

 

  

根据很多其他用户的兴趣来预测某位用户的兴趣。协同过滤通常用在推

荐系统中。

 

  

混淆矩阵 (confusion matrix)

 


   

一种 NxN 表格,用于总结分类模型的预测成效;即标签和模型预测的分类之间的关联。在混淆矩阵中,一个轴表示模型预测的标签,另一个轴表示实际标签。N表示类别个数。在二元分类问题中,N=2。例如,

下面显示了一个二元分类问题的混淆矩阵示例:

 

 

 

  

多类别分类问题的混淆矩阵有助于确定出错模式。例如,某个混淆矩阵可以揭示,某个经过训练以识别手写数字的模型往往会将4 错误地预测为 9,将 7 错误地预测为1。混淆矩阵包含计算各种效果指标(包括精确率和召回率)所需的充足信息。上面的混淆矩阵显示,在 19 个实际有肿瘤的样本中,该模型正确地将18 个归类为有肿瘤(18 个真正例),错误地将 1 个归类为没有肿瘤(1个假负例)。同样,在 458 个实际没有肿瘤的样本中,模型归类正确的有452 个(452 个真负例),

归类错误的有 6 个(6 个假正例)。

 

  

连续特征 (continuous feature)

 

  

一种浮点特征,可能值的区间不受限制。与离散特征相对。

 

  

收敛 (convergence)

 

  

通俗来说,收敛通常是指在训练期间达到的一种状态,即经过一定次数的迭代之后,训练损失和验证损失在每次迭代中的变化都非常小或根本没有变化。也就是说,如果采用当前数据进行额外的训练将无法改进模型,模型即达到收敛状态。在深度学习中,损失值有时会在最终下降之前的多次迭代中保持不变或几乎保持不变,暂时形成收敛的假象。

 

  

另请参阅早停法。

  

另请参阅 Boyd Vandenberghe 合著的 Convex Optimization(《凸优化》)。

  

凸函数 (convex function)

 

  

一种函数,函数图像以上的区域为凸集。典型凸函数的形状类似于字母U。

例如,以下都是凸函数:相反,以下函数则不是凸函数。请注意图像上方的区域如何不是凸集:


   

 

 

严格凸函数只有一个局部最低点,该点也是全局最低点。经典的 U 形函数都是严格凸函数。不过,有些凸函数(例如直线)则不是这样。

  

很多常见的损失函数(包括下列函数)都是凸函数:

 

 

•       L2 损失函数

•       对数损失函数

•       L1 正则化

•       L2 正则化

  

梯度下降法的很多变体都一定能找到一个接近严格凸函数最小值的点。同样,随机梯度下降法的很多变体都有很高的可能性能够找到接近严格凸函数最小值的点(但并非一定能找到)。

  

两个凸函数的和(例如 L2 损失函数+ L1 正则化)也是凸函数。

深度模型绝不会是凸函数。值得注意的是,专门针对凸优化设计的算法往往总能在深度网络上找到非常好的解决方案,虽然这些解决方案并不一定对应于全局最小值。

  

凸优化 (convex optimization)

 

  

使用数学方法(例如梯度下降法)寻找凸函数最小值的过程。机器学习方面的大量研究都是专注于如何通过公式将各种问题表示成凸优化问题,

以及如何更高效地解决这些问题。

 

  

如需完整的详细信息,请参阅 Boyd Vandenberghe 合著的 Convex Optimization(《凸优化》)。

  

凸集 (convex set)

 

  

欧几里得空间的一个子集,其中任意两点之间的连线仍完全落在该子集

内。例如,下面的两个图形都是凸集:

 

 

 

 

 

 

 

相反,下面的两个图形都不是凸集:

 

 

 

 

成本 (cost)

  是损失的同义词。

 

  

交叉熵 (cross-entropy)

 

  

对数损失函数向多类别分类问题进行的一种泛化。交叉熵可以量化两种概率分布之间的差异。另请参阅困惑度。

 

  

自定义 Estimator (custom Estimator)

 

  您按照这些说明自行编写的 Estimator。

 

  

与预创建的 Estimator相对。

 

 

D

 

 

数据集 (data set)

 

 

一组样本的集合。

 

 

Dataset API (tf.data)

 

  

一种高级别的 TensorFlow API,用于读取数据并将其转换为机器学习算法所需的格式。tf.data.Dataset对象表示一系列元素,其中每个元素都包含一个或多个张量。tf.data.Iterator 对象可获取 Dataset 中的元素。

 

  

如需详细了解 Dataset API,请参阅《TensorFlow 编程人员指南》中的导入数据。

  

决策边界 (decision boundary)

 

  

在二元分类或多类别分类问题中,模型学到的类别之间的分界线。例如,在以下表示某个二元分类问题的图片中,决策边界是橙色类别和蓝色类别之间的分界线:

 

密集层 (dense layer)

 

  

是全连接层的同义词。

 

  

深度模型 (deep model)

 

  

一种神经网络,其中包含多个隐藏层。深度模型依赖于可训练的非线性

关系。

 

  

与宽度模型相对。

  

密集特征 (dense feature)

 

  

一种大部分数值是非零值的特征,通常是一个浮点值张量。参照稀疏特

征。

 

衍生特征 (derivedfeature)

 

  

是合成特征的同义词。

 

离散特征 (discrete feature)

 

  

一种特征,包含有限个可能值。例如,某个值只能是“动物”、“蔬菜”或“矿物”的特征便是一个离散特征(或分类特征)。与连续特征相对。

 

丢弃正则化 (dropout regularization)一种形式的正则化,在训练神经网络方面非常有用。丢弃正则化的运作机制是,在神经网络层的一个梯度步长中移除随机选择的固定数量的单元。丢弃的单元越多,正则化效果就越强。这类似于训练神经网络以模拟较小网络的指数级规模集成学习。

  

如需完整的详细信息,请参阅 Dropout: ASimple Way to Prevent

Neural Networks from Overfitting(《丢弃:一种防止神经网络过拟合

的简单方法》)。

 

动态模型 (dynamic model)

 

  

一种模型,以持续更新的方式在线接受训练。也就是说,数据会源源不

断地进入这种模型。

 

 

 

E

 

 

早停法 (early stopping)

 

 

一种正则化方法,涉及在训练损失仍可以继续减少之前结束模型训练。使用早停法时,您会在基于验证数据集的损失开始增加(也就是泛化效果变差)时结束模型训练。

  

嵌套 (embeddings)

 

 

一种分类特征,以连续值特征表示。通常,嵌套是指将高维度向量映射到低维度的空间。例如,您可以采用以下两种方式之一来表示英文句子

中的单词:

 

 

 

•       表示成包含百万个元素(高维度)的稀疏向量,其中所有元素都是整数。向量中的每个单元格都表示一个单独的英文单词,单元格中的值表示相应单词在句子中出现的次数。由于单个英文句子包含的单词不太可能超过50 个,因此向量中几乎每个单元格都包含 0。少数非 0 的单元格中将包含一个非常小的整数(通常为1),该整数表示相应单词在句子中出现的次数。

•       表示成包含数百个元素(低维度)的密集向量,其中每个元素都包含一个

介于 0 到1 之间的浮点值。这就是一种嵌套。

 

 

在 TensorFlow 中,会按反向传播损失训练嵌套,和训练神经网络中的任何其他参数时一样。

  

经验风险最小化 (ERM, empirical risk minimization)

 

 

用于选择可以将基于训练集的损失降至最低的模型函数。与结构风险最

小化相对。

 

  

集成学习 (ensemble)

 

 

多个模型的预测结果的并集。您可以通过以下一项或多项来创建集成学

习:

 

•       不同的初始化不同的超参数

•       不同的整体结构

深度模型和宽度模型属于一种集成学习。

 

周期 (epoch)

 

  

在训练时,整个数据集的一次完整遍历,以便不漏掉任何一个样本。因此,一个周期表示(N/批次规模)次训练迭代,其中N 是样本总数。

 

 

 

Estimator

 

  

tf.Estimator 类的一个实例,用于封装负责构建TensorFlow 图并运行 TensorFlow 会话的逻辑。您可以创建自己的自定义Estimator(如需相关介绍,请点击此处),也可以将其他人预创建的 Estimator 实例化。

  

样本 (example)

 

 

数据集的一行。一个样本包含一个或多个特征,此外还可能包含一个标

签。另请参阅有标签样本和无标签样本。

 

 

 

F

 

 

假负例 (FN, false negative)

 

被模型错误地预测为负类别的样本。例如,模型推断出某封电子邮件不

是垃圾邮件(负类别),但该电子邮件其实是垃圾邮件。

  

假正例 (FP, false positive)

 

 

被模型错误地预测为正类别的样本。例如,模型推断出某封电子邮件是

垃圾邮件(正类别),但该电子邮件其实不是垃圾邮件。

  

假正例率(false positive rate, 简称 FP 率)

 

 

ROC 曲线中的 x 轴。FP率的定义如下:

 

  

 

 

假正例率假正例数假正例数+真负例数假正例率=假正例数假正例数+真负例数

  

特征 (feature)

 

  

在进行预测时使用的输入变量。

 

  

特征列 (FeatureColumns)

 

 

一组相关特征,例如用户可能居住的所有国家/地区的集合。样本的特征

列中可能包含一个或多个特征。

 

 

 

TensorFlow中的特征列内还封装了元数据,例如:

 

 

•       特征的数据类型

•       特征是固定长度还是应转换为嵌套

  

特征列可以包含单个特征。

 

 

“特征列 ”是 Google 专用的术语。特征列在Yahoo/Microsoft 使用的 VW 系统中称为“命名空间”,也称为场。

  

特征组合 (feature cross)

 

  

通过将单独的特征进行组合(相乘或求笛卡尔积)而形成的合成特征。

特征组合有助于表示非线性关系。

 

  

特征工程 (feature engineering)

 

  

指以下过程:确定哪些特征可能在训练模型方面非常有用,然后将日志文件及其他来源的原始数据转换为所需的特征。在TensorFlow 中,特征工程通常是指将原始日志文件条目转换为 tf.Example proto buffer。

另请参阅tf.Transform。

 

  

特征工程有时称为特征提取。

  

特征集 (feature set)

 

  

训练机器学习模型时采用的一组特征。例如,对于某个用于预测房价的模型,邮政编码、房屋面积以及房屋状况可以组成一个简单的特征集。

 

  

特征规范 (feature spec)

 

  

用于描述如何从tf.Example proto buffer 提取特征数据。由于 tf.Example proto buffer 只是一个数据容器,因此您必须指定以下内容:

 

 

 

•       要提取的数据(即特征的键)

•       数据类型(例如 float 或 int)

•       长度(固定或可变)

 

 

EstimatorAPI 提供了一些可用来根据给定 FeatureColumns 列表生成特征规范的工具。

 

 

完整 softmax (full softmax)

 

  

请参阅 softmax。与候选采样相对。

  

全连接层 (fully connected layer)

 

  

一种隐藏层,其中的每个节点均与下一个隐藏层中的每个节点相连。

 

 

全连接层又称为密集层。

 

 

G

 

泛化 (generalization)

 

  

指的是模型依据训练时采用的数据,针对以前未见过的新数据做出正确

预测的能力。

 

  

广义线性模型 (generalized linear model)

 

  

最小二乘回归模型(基于高斯噪声)向其他类型的模型(基于其他类型的噪声,例如泊松噪声或分类噪声)进行的一种泛化。广义线性模型的

示例包括:

 

 

 

•       逻辑回归

•       多类别回归

•       最小二乘回归

 

 

可以通过凸优化找到广义线性模型的参数。

  

广义线性模型具有以下特性:

 

 

•       最优的最小二乘回归模型的平均预测结果等于训练数据的平均标签。

•       最优的逻辑回归模型预测的平均概率等于训练数据的平均标签。

  

广义线性模型的功能受其特征的限制。与深度模型不同,广义线性模型

无法“学习新特征”。

 

梯度 (gradient)

 

 

偏导数相对于所有自变量的向量。在机器学习中,梯度是模型函数偏导

数的向量。梯度指向最速上升的方向。

 

  

梯度裁剪 (gradient clipping)

 

 

在应用梯度值之前先设置其上限。梯度裁剪有助于确保数值稳定性以及防止梯度爆炸。

  

梯度下降法 (gradient descent)

 

 

一种通过计算并且减小梯度将损失降至最低的技术,它以训练数据为条件,来计算损失相对于模型参数的梯度。通俗来说,梯度下降法以迭代方式调整参数,逐渐找到权重和偏差的最佳组合,从而将损失降至最低。

 

  

(graph)

 

 

TensorFlow 中的一种计算规范。图中的节点表示操作。边缘具有方向,表示将某项操作的结果(一个张量)作为一个操作数传递给另一项操作。

可以使用TensorBoard 直观呈现图。

 

 

H

  

启发法 (heuristic)

 

 

一种非最优但实用的问题解决方案,足以用于进行改进或从中学习。

 

  

隐藏层 (hidden layer)

 

  

神经网络中的合成层,介于输入层(即特征)和输出层(即预测)之间。

神经网络包含一个或多个隐藏层。

 

  

合页损失函数 (hinge loss)

 

  

一系列用于分类的损失函数,旨在找到距离每个训练样本都尽可能远的决策边界,从而使样本和边界之间的裕度最大化。KSVM 使用合页损失函数(或相关函数,例如平方合页损失函数)。对于二元分类,合页损失函数的定义如下:

 

 

 

  

其中“y'”表示分类器模型的原始输出:

 

 

 

 

y′=b+w1x1+w2x2+…wnxn

 

“y”表示真标签,值为-1 或 +1。

  

因此,合页损失与 (y * y') 的关系图如下所示:

 


 

 

  

维持数据 (holdout data)训练期间故意不使用(“维持”)的样本。验证数据集和测试数据集都属于维持数据。维持数据有助于评估模型向训练时所用数据之外的数据进行泛化的能力。与基于训练数据集的损失相比,基于维持数据集的损失

有助于更好地估算基于未见过的数据集的损失。

 

  

超参数 (hyperparameter)

 

  

在模型训练的连续过程中,您调节的“旋钮”。例如,学习速率就是一种

超参数。

 

  

与参数相对。

  

超平面 (hyperplane)

 

  

将一个空间划分为两个子空间的边界。例如,在二维空间中,直线就是一个超平面,在三维空间中,平面则是一个超平面。在机器学习中更典型的是:超平面是分隔高维度空间的边界。核支持向量机利用超平面将

正类别和负类别区分开来(通常是在极高维度空间中)。

 

 

 

I

  

独立同分布 (i.i.d, independently and identicallydistributed)

 

 

从不会改变的分布中提取的数据,其中提取的每个值都不依赖于之前提取的值。i.i.d. 是机器学习的理想气体- 一种实用的数学结构,但在现实世界中几乎从未发现过。例如,某个网页的访问者在短时间内的分布可能为 i.i.d.,即分布在该短时间内没有变化,且一位用户的访问行为通常与另一位用户的访问行为无关。不过,如果将时间窗口扩大,网页

访问者的分布可能呈现出季节性变化。

 

推断 (inference)

 

  

在机器学习中,推断通常指以下过程:通过将训练过的模型应用于无标签样本来做出预测。在统计学中,推断是指在某些观测数据条件下拟合分布参数的过程。(请参阅维基百科中有关统计学推断的文章。)

 

  

输入函数 (input function)

 

  

在 TensorFlow 中,用于将输入数据返回到 Estimator的训练、评估或预测方法的函数。例如,训练输入函数用于返回训练集中的批次特征和

标签。

 

  

输入层 (input layer)

 

  

神经网络中的第一层(接收输入数据的层)。

 

  

实例 (instance)

 

  

是样本的同义词。

 

  

可解释性 (interpretability)

 

  

模型的预测可解释的难易程度。深度模型通常不可解释,也就是说,很难对深度模型的不同层进行解释。相比之下,线性回归模型和宽度模型的可解释性通常要好得多。

 

  

评分者间一致性信度 (inter-rater agreement)

 

  

一种衡量指标,用于衡量在执行某项任务时评分者达成一致的频率。如果评分者未达成一致,则可能需要改进任务说明。有时也称为注释者间一致性信度或评分者间可靠性信度。另请参阅Cohen's kappa(最热门

的评分者间一致性信度衡量指标之一)。

 

  

迭代 (iteration)

 

  

模型的权重在训练期间的一次更新。迭代包含计算参数在单个批量数据

上的梯度损失。

 

 

 

K

 

 

Keras

 

 

一种热门的 Python 机器学习 API。Keras能够在多种深度学习框架上运行,其中包括 TensorFlow(在该框架上,Keras 作为tf.keras 提供)。

 

  

核支持向量机 (KSVM, Kernel Support Vector Machines)

 

  

一种分类算法,旨在通过将输入数据向量映射到更高维度的空间,来最大化正类别和负类别之间的裕度。以某个输入数据集包含一百个特征的分类问题为例。为了最大化正类别和负类别之间的裕度,KSVM可以在内部将这些特征映射到百万维度的空间。KSVM 使用合页损失函数。

 

L

 

 

L1 损失函数 (L loss)

 

一种损失函数,基于模型预测的值与标签的实际值之差的绝对值。

与 L2 损失函数相比,L1损失函数对离群值的敏感性弱一些。

 

 

L1 正则化 (L regularization)

 

  

一种正则化,根据权重的绝对值的总和来惩罚权重。在依赖稀疏特征的模型中,L1 正则化有助于使不相关或几乎不相关的特征的权重正好为0,

从而将这些特征从模型中移除。与 L2 正则化相对。

 

 

 

L2 损失函数 (L loss)

 

  

请参阅平方损失函数。

 

 

 

L2 正则化 (L regularization)

 

  

一种正则化,根据权重的平方和来惩罚权重。L2 正则化有助于使离群值(具有较大正值或较小负值)权重接近于0,但又不正好为 0。(与 L1

正则化相对。)在线性模型中,L2 正则化始终可以改进泛化。

 

  

标签 (label) 在监督式学习中,标签指样本的“答案”或“结果”部分。有标签数据集中的每个样本都包含一个或多个特征以及一个标签。例如,在房屋数据集中,特征可以包括卧室数、卫生间数以及房龄,而标签则可以是房价。在垃圾邮件检测数据集中,特征可以包括主题行、发件人以及电子邮件本身,

而标签则可以是“垃圾邮件”或“非垃圾邮件”。

 

  

有标签样本 (labeled example)

 

  

包含特征和标签的样本。在监督式训练中,模型从有标签样本中进行学

习。

 

  

lambda

 

  

是正则化率的同义词。

 

 

(多含义术语,我们在此关注的是该术语在正则化中的定义。)

 

(layer)

 

神经网络中的一组神经元,处理一组输入特征,或一组神经元的输出。

  

此外还指 TensorFlow 中的抽象层。层是 Python 函数,以张量和配置选项作为输入,然后生成其他张量作为输出。当必要的张量组合起来,用户便可以通过模型函数将结果转换为Estimator。

 

 

Layers API (tf.layers)

 

  

一种 TensorFlow API,用于以层组合的方式构建深度神经网络。通过

Layers API,您可以构建不同类型的层,例如:

 

•       通过 tf.layers.Dense 构建全连接层。

•       通过 tf.layers.Conv2D 构建卷积层。

  

在编写自定义 Estimator 时,您可以编写“层”对象来定义所有隐藏层的特征。

 

 

Layers API遵循 [Keras](#Keras) layers API 规范。也就是说,除了前缀不同以外,Layers API中的所有函数均与 Keras layers API 中的对应函数具有相同的名称和签名。

  

学习速率 (learning rate)

 

  

在训练模型时用于梯度下降的一个变量。在每次迭代期间,梯度下降法都会将学习速率与梯度相乘。得出的乘积称为梯度步长。

 

  学习速率是一个重要的超参数。

  

最小二乘回归 (least squares regression)

 

  一种通过最小化 L2 损失训练出的线性回归模型。

 

  

线性回归 (linear regression)

 

  一种回归模型,通过将输入特征进行线性组合,以连续值作为输出。逻辑回归 (logistic regression)

 

  

一种模型,通过将 S 型函数应用于线性预测,生成分类问题中每个可能的离散标签值的概率。虽然逻辑回归经常用于二元分类问题,但也可用

于多类别分类问题(其叫法变为多类别逻辑回归或多项回归)。

 

  

对数损失函数 (Log Loss)

 

  

二元逻辑回归中使用的损失函数。

 

  

损失 (Loss)

 

  

一种衡量指标,用于衡量模型的预测偏离其标签的程度。或者更悲观地说是衡量模型有多差。要确定此值,模型必须定义损失函数。例如,线性回归模型通常将均方误差用于损失函数,而逻辑回归模型则使用对数

损失函数。

 

M

 

 

机器学习 (machine learning)

 

 

一种程序或系统,用于根据输入数据构建(训练)预测模型。这种系统会利用学到的模型根据从分布(训练该模型时使用的同一分布)中提取的新数据(以前从未见过的数据)进行实用的预测。机器学习还指与这

些程序或系统相关的研究领域。

 

  

均方误差(MSE, Mean Squared Error) 每个样本的平均平方损失。MSE 的计算方法是平方损失除以样本数。

TensorFlowPlayground 显示的“训练损失”值和“测试损失”值都是MSE。

 

  

指标 (metric)

 

  

您关心的一个数值。可能可以也可能不可以直接在机器学习系统中得到

优化。您的系统尝试优化的指标称为目标。

 

 

 

Metrics API (tf.metrics)

 

  

一种用于评估模型的TensorFlow API。例如,tf.metrics.accuracy 用于确定模型的预测与标签匹配的频率。在编写自定义Estimator 时,您可

以调用 Metrics API 函数来指定应如何评估您的模型。

 

  

小批次 (mini-batch)

 

  

从训练或推断过程的一次迭代中一起运行的整批样本内随机选择的一小部分。小批次的规模通常介于10 到 1000 之间。与基于完整的训练

数据计算损失相比,基于小批次数据计算损失要高效得多。

 

  

小批次随机梯度下降法(SGD, mini-batch stochastic gradient descent)

 

一种采用小批次样本的梯度下降法。也就是说,小批次 SGD 会根据一小部分训练数据来估算梯度。VanillaSGD 使用的小批次的规模为 1。

 

 

 

ML

  

机器学习的缩写。

  

模型 (model)

 

  

机器学习系统从训练数据学到的内容的表示形式。多含义术语,可以理

解为下列两种相关含义之一:

 

 

 

•       一种 TensorFlow 图,用于表示预测计算结构。

•       该 TensorFlow 图的特定权重和偏差,通过训练决定。

 

 

模型训练 (model training)

 

  

确定最佳模型的过程。

 

  

动量 (Momentum)

 

  

一种先进的梯度下降法,其中学习步长不仅取决于当前步长的导数,还取决于之前一步或多步的步长的导数。动量涉及计算梯度随时间而变化的指数级加权移动平均值,与物理学中的动量类似。动量有时可以防止

学习过程被卡在局部最小的情况。

 

  

多类别分类 (multi-class classification)

 

  

区分两种以上类别的分类问题。例如,枫树大约有 128 种,因此,确定枫树种类的模型就属于多类别模型。反之,仅将电子邮件分为两类(“垃圾邮件”和“非垃圾邮件”)的模型属于二元分类模型。

 

 

多项分类 (multinomial classification)

 

  

是多类别分类的同义词。

 

 

 

N

 

 

NaN 陷阱 (NaN trap)

模型中的一个数字在训练期间变成 NaN,这会导致模型中的很多或所有

其他数字最终也会变成 NaN。

 

 

 

NaN 是“非数字”的缩写。

  

负类别 (negative class)

 

  

在二元分类中,一种类别称为正类别,另一种类别称为负类别。正类别是我们要寻找的类别,负类别则是另一种可能性。例如,在医学检查中,负类别可以是“非肿瘤”。在电子邮件分类器中,负类别可以是“非垃圾邮

件”。另请参阅正类别。

 

  

神经网络 (neural network)

 

  

一种模型,灵感来源于脑部结构,由多个层构成(至少有一个是隐藏层),

每个层都包含简单相连的单元或神经元(具有非线性关系)。

 

 

神经元 (neuron)

 

  

神经网络中的节点,通常是接收多个输入值并生成一个输出值。神经元通过将激活函数(非线性转换)应用于输入值的加权和来计算输出值。

 

  

节点 (node)

 

  

多含义术语,可以理解为下列两种含义之一:

 

 

 

•       隐藏层中的神经元。

•       TensorFlow 图中的操作。

  

标准化 (normalization)

 

  

将实际的值区间转换为标准的值区间(通常为-1 到 +1 或 0 到 1)的过程。例如,假设某个特征的自然区间是800 到 6000。通过减法和

除法运算,您可以将这些值标准化为位于 -1 到 +1 区间内。

 

  

另请参阅缩放。

  

数值数据 (numerical data)

 

  

用整数或实数表示的特征。例如,在房地产模型中,您可能会用数值数据表示房子大小(以平方英尺或平方米为单位)。如果用数值数据表示特征,则可以表明特征的值相互之间具有数学关系,并且与标签可能也有数学关系。例如,如果用数值数据表示房子大小,则可以表明面积为

200 平方米的房子是面积为 100 平方米的房子的两倍。此外,房子面积的平方米数可能与房价存在一定的数学关系。

 

  

并非所有整数数据都应表示成数值数据。例如,世界上某些地区的邮政编码是整数,但在模型中,不应将整数邮政编码表示成数值数据。这是因为邮政编码20000 在效力上并不是邮政编码 10000 的两倍(或一半)。此外,虽然不同的邮政编码确实与不同的房地产价值有关,但我们也不能假设邮政编码为20000 的房地产在价值上是邮政编码为

10000 的房地产的两倍。邮政编码应表示成分类数据。

  

数值特征有时称为连续特征。

 

 

Numpy

 

  

一个开放源代码数学库,在 Python 中提供高效的数组操作。Pandas就

建立在 Numpy 之上。

 

 

 

O

 

 

目标 (objective)

 

 

算法尝试优化的指标。

 

  

离线推断 (offline inference)

 

  

生成一组预测,存储这些预测,然后根据需求检索这些预测。与在线推

断相对。

 

 

one-hot 编码 (one-hot encoding)

 

  

一种稀疏向量,其中:

 

 

 

•       一个元素设为 1。

•       所有其他元素均设为 0。

  

one-hot 编码常用于表示拥有有限个可能值的字符串或标识符。例如,假设某个指定的植物学数据集记录了15000 个不同的物种,其中每个物种都用独一无二的字符串标识符来表示。在特征工程过程中,您可能需要将这些字符串标识符编码为one-hot 向量,向量的大小为 15000。

  

一对多 (one-vs.-all)

 

  

假设某个分类问题有 N 种可能的解决方案,一对多解决方案将包含 N 个单独的二元分类器- 一个二元分类器对应一种可能的结果。例如,假设某个模型用于区分样本属于动物、蔬菜还是矿物,一对多解决方案将

提供下列三个单独的二元分类器:

 

 

 

•       动物和非动物蔬菜和非蔬菜

•       矿物和非矿物

  

在线推断 (online inference)

 

  

根据需求生成预测。与离线推断相对。

 

 

 

操作 (op, Operation)

 

 

 

TensorFlow图中的节点。在 TensorFlow 中,任何创建、操纵或销毁张量的过程都属于操作。例如,矩阵相乘就是一种操作,该操作以两个张量作为输入,并生成一个张量作为输出。

 

  

优化器 (optimizer)

 

  

梯度下降法的一种具体实现。 TensorFlow的优化器基类是 tf.train.Optimizer。不同的优化器(tf.train.Optimizer的子类)会考虑如下概念:

 

 

 

•       动量 (Momentum)

•       更新频率 (AdaGrad = ADAptive GRADientdescent; Adam = ADAptive with Momentum;RMSProp)

•       稀疏性/正则化 (Ftrl)

•       更复杂的计算方法 (Proximal, 等等)

  甚至还包括 NN 驱动的优化器。

  

离群值 (outlier)

 

  与大多数其他值差别很大的值。在机器学习中,下列所有值都是离群值。

 

 

 

•       绝对值很高的权重。

•       与实际值相差很大的预测值。

•       值比平均值高大约 3 个标准偏差的输入数据。离群值常常会导致模型训练出现问题。

  

输出层 (output layer)

 

  

神经网络的“最后”一层,也是包含答案的层。

 

  

过拟合 (overfitting)

 

  

创建的模型与训练数据过于匹配,以致于模型无法根据新数据做出正确

的预测。

 

 

 

P

 

 

Pandas

 

 

面向列的数据分析 API。很多机器学习框架(包括TensorFlow)都支

持将 Pandas 数据结构作为输入。请参阅Pandas 文档。

  

参数 (parameter)

 

  

机器学习系统自行训练的模型的变量。例如,权重就是一种参数,它们的值是机器学习系统通过连续的训练迭代逐渐学习到的。与超参数相对。

 

  

参数服务器(PS, Parameter Server) 一种作业,负责在分布式设置中跟踪模型参数。

 

  

参数更新 (parameter update)

 

  

在训练期间(通常是在梯度下降法的单次迭代中)调整模型参数的操作。

 

  

偏导数 (partial derivative)

 

  

一种导数,除一个变量之外的所有变量都被视为常量。例如,f(x, y) 对x 的偏导数就是 f(x) 的导数(即,使 y 保持恒定)。f对 x 的偏导

数仅关注 x 如何变化,而忽略公式中的所有其他变量。

 

 

分区策略 (partitioning strategy)

 

  

参数服务器中分割变量的算法。

 

  

性能 (performance)

 

  

多含义术语,具有以下含义:

 

 

 

•       在软件工程中的传统含义。即:相应软件的运行速度有多快(或有多高效)?

•       在机器学习中的含义。在机器学习领域,性能旨在回答以下问题:相应模型的准确度有多高?即模型在预测方面的表现有多好?

 

 

困惑度 (perplexity)

 

  

一种衡量指标,用于衡量模型能够多好地完成任务。例如,假设任务是读取用户使用智能手机键盘输入字词时输入的前几个字母,然后列出一组可能的完整字词。此任务的困惑度(P) 是:为了使列出的字词中包含

用户尝试输入的实际字词,您需要提供的猜测项的个数。

 

  

困惑度与交叉熵的关系如下:

 

 

 

  

流水线 (pipeline)

 

  

机器学习算法的基础架构。流水线包括收集数据、将数据放入训练数据

文件、训练一个或多个模型,以及将模型导出到生产环境。

 

  

正类别 (positive class)

 

  

在二元分类中,两种可能的类别分别被标记为正类别和负类别。正类别结果是我们要测试的对象。(不可否认的是,我们会同时测试这两种结果,但只关注正类别结果。)例如,在医学检查中,正类别可以是“肿瘤”。

在电子邮件分类器中,正类别可以是“垃圾邮件”。

 

  

与负类别相对。

 

 

精确率 (precision)

 

  

一种分类模型指标。精确率指模型正确预测正类别的频率,即:

 

 

 

   

预测 (prediction)

 

  模型在收到输入的样本后的输出。

 

  

预测偏差 (prediction bias)

 

  一个值,用于表明预测平均值与数据集中标签的平均值相差有多大。

 

  

预创建的 Estimator (pre-made Estimator)

 

  

其他人已建好的Estimator 。 TensorFlow 提供了一些预创建的

Estimator,包括 DNNClassifier、DNNRegressor 和LinearClassifier。您可以按照这些说明构建自己预创建的 Estimator。

 

  

预训练模型 (pre-trained model)已经过训练的模型或模型组件(例如嵌套)。有时,您需要将预训练的嵌套馈送到神经网络。在其他时候,您的模型将自行训练嵌套,而不依

赖于预训练的嵌套。

 

  

先验信念 (priorbelief)

  

在开始采用相应数据进行训练之前,您对这些数据抱有的信念。例如,L2 正则化依赖的先验信念是权重应该很小且应以 0 为中心呈正态分

布。

 

 

 

Q

 

 

队列 (queue)

 

 

一种 TensorFlow 操作,用于实现队列数据结构。通常用于I/O 中。

 

 

 

R

 

 

等级 (rank)

 

 

机器学习中的一个多含义术语,可以理解为下列含义之一:

 

 

 

•       张量中的维度数量。例如,标量等级为 0,向量等级为1,矩阵等级为 2。

•       在将类别从最高到最低进行排序的机器学习问题中,类别的顺序位置。例如,行为排序系统可以将狗狗的奖励从最高(牛排)到最低(枯萎的羽衣

甘蓝)进行排序。

 

 

评分者 (rater)

  

为样本提供标签的人。有时称为“注释者”。

 

  

召回率 (recall)

  

一种分类模型指标,用于回答以下问题:在所有可能的正类别标签中,

模型正确地识别出了多少个?即:

 

 

 

修正线性单元 (ReLU, Rectified Linear Unit)

 

  

一种激活函数,其规则如下:

 

 

 

•       如果输入为负数或 0,则输出0。

•       如果输入为正数,则输出等于输入。

 

 

回归模型(regression model)

  

一种模型,能够输出连续的值(通常为浮点值)。请与分类模型进行比

较,分类模型输出离散值,例如“黄花菜”或“虎皮百合”。

 

  

正则化(regularization)

  

对模型复杂度的惩罚。正则化有助于防止出现过拟合,包含以下类型:

 

•       L1 正则化

•       L2 正则化

•       丢弃正则化

•       早停法(这不是正式的正则化方法,但可以有效限制过拟合)

  

正则化率(regularization rate)

  

一种标量值,以 lambda 表示,用于指定正则化函数的相对重要性。从

下面简化的损失公式中可以看出正则化率的影响:

  

minimize(lossfunction + λ(regularization function))

  提高正则化率可以减少过拟合,但可能会使模型的准确率降低。

  

表示法(representation)

  将数据映射到实用特征的过程。

 

  

受试者工作特征曲线(receiveroperating characteristic, 简称 ROC 曲线)

 

  

不同分类阈值下的真正例率和假正例率构成的曲线。另请参阅曲线下面积。

 

  

根目录 (rootdirectory)

 

 

您指定的目录,用于托管多个模型的 TensorFlow 检查点和事件文件的

子目录。

 

  

均方根误差 (RMSE,Root Mean Squared Error)

  

均方误差的平方根。

 

 

 

S

 

 

SavedModel

 

 

保存和恢复 TensorFlow 模型时建议使用的格式。SavedModel是一种独立于语言且可恢复的序列化格式,使较高级别的系统和工具可以创建、使用和转换TensorFlow 模型。

 

  

如需完整的详细信息,请参阅《TensorFlow 编程人员指南》中的保存和恢复。

 

 

Saver

  

一种 TensorFlow 对象,负责保存模型检查点。

 

  

缩放 (scaling)

  

特征工程中的一种常用做法,是对某个特征的值区间进行调整,使之与数据集中其他特征的值区间一致。例如,假设您希望数据集中所有浮点特征的值都位于0 到 1 区间内,如果某个特征的值位于 0 到 500

区间内,您就可以通过将每个值除以500 来缩放该特征。另请参阅标准化。

  

scikit-learn

  

一个热门的开放源代码机器学习平台。请访问www.scikit-learn.org。

 

  

半监督式学习(semi-supervised learning)

  

训练模型时采用的数据中,某些训练样本有标签,而其他样本则没有标签。半监督式学习采用的一种技术是推断无标签样本的标签,然后使用推断出的标签进行训练,以创建新模型。如果获得有标签样本需要高昂的成本,而无标签样本则有很多,那么半监督式学习将非常有用。

 

  

序列模型 (sequencemodel)

  

一种模型,其输入具有序列依赖性。例如,根据之前观看过的一系列视

频对观看的下一个视频进行预测。

 

  

会话 (session)

  

维持 TensorFlow 程序中的状态(例如变量)。

 

 

 

S 型函数 (sigmoid function)

  

一种函数,可将逻辑回归输出或多项回归输出(对数几率)映射到概率,

以返回介于 0 到1 之间的值。S 型函数的公式如下:

 

 

 

  

在逻辑回归问题中,非常简单:

 

 

 

  

换句话说,S 型函数可将转换为介于 0 到1 之间的概率。

  

在某些神经网络中,S 型函数可作为激活函数使用。

  

softmax

  

一种函数,可提供多类别分类模型中每个可能类别的概率。这些概率的总和正好为1.0。例如,softmax 可能会得出某个图像是狗、猫和马的

概率分别是 0.9、0.08和 0.02。(也称为完整 softmax。)

 

  

与候选采样相对。

  

稀疏特征 (sparsefeature)

  

一种特征向量,其中的大多数值都为 0 或为空。例如,某个向量包含一个为1 的值和一百万个为 0 的值,则该向量就属于稀疏向量。再举一个例子,搜索查询中的单词也可能属于稀疏特征- 在某种指定语言中

有很多可能的单词,但在某个指定的查询中仅包含其中几个。与密集特征相对。

  

平方合页损失函数(squared hinge loss)

  

合页损失函数的平方。与常规合页损失函数相比,平方合页损失函数对

离群值的惩罚更严厉。

 

平方损失函数(squared loss)

  

在线性回归中使用的损失函数(也称为L2 损失函数)。该函数可计算模型为有标签样本预测的值和标签的实际值之差的平方。由于取平方值,因此该损失函数会放大不佳预测的影响。也就是说,与L1 损失函数相

比,平方损失函数对离群值的反应更强烈。

 

静态模型 (staticmodel)

  

离线训练的一种模型。

 

  

平稳性 (stationarity)

 

  

数据集中数据的一种属性,表示数据分布在一个或多个维度保持不变。这种维度最常见的是时间,即表明平稳性的数据不随时间而变化。例如,

从 9 月到 12 月,表明平稳性的数据没有发生变化。

 

  

(step)

 

  

对一个批次的向前和向后评估。

 

  

步长 (step size)

 

  

是学习速率的同义词。

 

  

随机梯度下降法 (SGD, stochastic gradient descent)

 

  

批次规模为 1 的一种梯度下降法。换句话说,SGD 依赖于从数据集中

随机均匀选择的单个样本来计算每步的梯度估算值。

 

  

结构风险最小化 (SRM, structural risk minimization)

 

  

一种算法,用于平衡以下两个目标:

 

 

 

•       期望构建最具预测性的模型(例如损失最低)。

•       期望使模型尽可能简单(例如强大的正则化)。

 

 

例如,旨在将基于训练集的损失和正则化降至最低的模型函数就是一种结构风险最小化算法。

  

如需更多信息,请参阅 http://www.svms.org/srm/

  

与经验风险最小化相对。

 

总结 (summary)

 

 

 

在 TensorFlow 中的某一步计算出的一个值或一组值,通常用于在训练

期间跟踪模型指标。

 

  

监督式机器学习 (supervised machine learning)

 

  

根据输入数据及其对应的标签来训练模型。监督式机器学习类似于学生通过研究一系列问题及其对应的答案来学习某个主题。在掌握了问题和答案之间的对应关系后,学生便可以回答关于同一主题的新问题(以前

从未见过的问题)。请与非监督式机器学习进行比较。

 

  

合成特征(synthetic feature)

  

一种特征,不在输入特征之列,而是从一个或多个输入特征衍生而来。

合成特征包括以下类型:

 

 

 

•       将一个特征与其本身或其他特征相乘(称为特征组合)。

•       两个特征相除。

•       对连续特征进行分桶,以分为多个区间分箱。

  

通过标准化或缩放单独创建的特征不属于合成特征。

 

 

T

 

 

目标 (target)

 

 

是标签的同义词。

 

  

时态数据 (temporal data)在不同时间点记录的数据。例如,记录的一年中每一天的冬外套销量就属于时态数据。

  

张量 (Tensor)

 

TensorFlow 程序中的主要数据结构。张量是N 维(其中 N 可能非常大)数据结构,最常见的是标量、向量或矩阵。张量的元素可以包含整

数值、浮点值或字符串值。

 

张量处理单元 (TPU, Tensor Processing Unit)

 

一种 ASIC(应用专用集成电路),用于优化TensorFlow 程序的性能。

 

张量等级 (Tensor rank)

 

请参阅等级。

  

张量形状 (Tensorshape)

  

张量在各种维度中包含的元素数。例如,张量 [5, 10] 在一个维度中的

形状为 5,在另一个维度中的形状为 10。

 

张量大小 (Tensor size)

 

张量包含的标量总数。例如,张量 [5, 10] 的大小为50。

 

TensorBoard

  

一个信息中心,用于显示在执行一个或多个TensorFlow 程序期间保存

的摘要信息。

 

 

 

TensorFlow

 

 

一个大型的分布式机器学习平台。该术语还指TensorFlow 堆栈中的基

本 API 层,该层支持对数据流图进行一般计算。

 

虽然 TensorFlow 主要应用于机器学习领域,但也可用于需要使用数据

流图进行数值计算的非机器学习任务。

 

TensorFlowPlayground

 

一款用于直观呈现不同的超参数对模型(主要是神经网络)训练的影响

的程序。

 

要 试 用    TensorFlow      Playground , 请往 http://playground.tensorflow.org

 

TensorFlowServing

 

一个平台,用于将训练过的模型部署到生产环境。

 

测试集 (testset)

  

数据集的子集,用于在模型经由验证集的初步验证之后测试模型。

 

  

与训练集和验证集相对。

  

tf.Example

 

一种标准的 proto buffer,旨在描述用于机器学习模型训练或推断的输入数据。

  

时间序列分析 (time series analysis)

 

机器学习和统计学的一个子领域,旨在分析时态数据。很多类型的机器学习问题都需要时间序列分析,其中包括分类、聚类、预测和异常检测。例如,您可以利用时间序列分析根据历史销量数据预测未来每月的冬外

套销量。

 

训练(training)

 

确定构成模型的理想参数的过程。

 

训练集 (trainingset)

 

数据集的子集,用于训练模型。

 

与验证集和测试集相对。

 

转移学习 (transferlearning)

 

将信息从一个机器学习任务转移到另一个机器学习任务。例如,在多任务学习中,一个模型可以完成多项任务,例如针对不同任务具有不同输出节点的深度模型。转移学习可能涉及将知识从较简单任务的解决方案转移到较复杂的任务,或者将知识从数据较多的任务转移到数据较少的

任务。

 

大多数机器学习系统都只能完成一项任务。转移学习是迈向人工智能的

一小步;在人工智能中,单个程序可以完成多项任务。

 

真负例 (TN, truenegative)

 

被模型正确地预测为负类别的样本。例如,模型推断出某封电子邮件不

是垃圾邮件,而该电子邮件确实不是垃圾邮件。

 

真正例 (TP, true positive)

 

被模型正确地预测为正类别的样本。例如,模型推断出某封电子邮件是

垃圾邮件,而该电子邮件确实是垃圾邮件。

 

真正例率(truepositive rate, 简称 TP 率)

 

是召回率的同义词,即:

 

 

真正例率是 ROC 曲线的y 轴。

 

U

 

 

无标签样本(unlabeled example)包含特征但没有标签的样本。无标签样本是用于进行推断的输入内容。

在半监督式和非监督式学习中,无标签样本在训练期间被使用。

  

非监督式机器学习 (unsupervised machine learning)

 

训练模型,以找出数据集(通常是无标签数据集)中的模式。

 

非监督式机器学习最常见的用途是将数据分为不同的聚类,使相似的样本位于同一组中。例如,非监督式机器学习算法可以根据音乐的各种属性将歌曲分为不同的聚类。所得聚类可以作为其他机器学习算法(例如音乐推荐服务)的输入。在很难获取真标签的领域,聚类可能会非常有用。例如,在反滥用和反欺诈等领域,聚类有助于人们更好地了解相关数据。

 

非监督式机器学习的另一个例子是主成分分析 (PCA)。例如,通过对包含数百万购物车中物品的数据集进行主成分分析,可能会发现有柠檬的

购物车中往往也有抗酸药。

 

请与监督式机器学习进行比较。

 

 

V

验证集 (validation set)

 

数据集的一个子集,从训练集分离而来,用于调整超参数。

 

与训练集和测试集相对。

 

W

  

权重 (weight)

 

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为0,则相应的特征对模型来说没有

任何贡献。

 

 

宽度模型 (wide model)

 

一种线性模型,通常有很多稀疏输入特征。我们之所以称之为“宽度模型”,是因为这是一种特殊类型的神经网络,其大量输入均直接与输出节点相连。与深度模型相比,宽度模型通常更易于调试和检查。虽然宽度模型无法通过隐藏层来表示非线性关系,但可以利用特征组合、分桶等转换

以不同的方式为非线性关系建模。

 


你可能感兴趣的:(机器学习,术语,机器学习)