人工智能面试题

1.什么是核函数
核函数一般是为了解决维度过高导致的计算能力不足的缺陷,实质就是特征向量内积的平方
机器学习中,对于线性可分的情况研究的比较透彻,可以采用SVM/LR感知机等成熟的机器学习模型,但是很多情况是我们希望我们的模型学习非线性的模型。通常的做法就是选择一个函数φ(x)将X映射到另一个空间中,这里的核心就是如何选择φ(x).一般有三种做法
1.通过核函数,比如RBF。如果 具有足够高的维数,我们总是有足够的能力来拟合训练集,但是对于测试集的泛化往往不佳。非常通用的特征映射通常只基于局部光滑的原则,并且没有将足够的先验信息进行编码来解决高级问题。
2.另一种选择是手动地设计 φ,在深度学习以前,这种方法对于每个单独的任务都需要人们数十年的努力,从业者各自擅长特定的领域(如语音识别或计算机视觉),并且不同领域之间很难迁移 (transfer)。
3.深度学习方式是去学习这个函数φ(x)
2、深度学习框架TensorFlow中常见的核函数都有哪些?
(1)Linear Kernel 线性核是最简单的核函数。(2)Polynomial Kernel多项式核实一种非标准核函数,它非常适合于正交归一化后的数据。(3)Gaussian Kernel这里说一种经典的鲁棒径向基核,即高斯核函数,鲁棒径向基核对于数据中的噪音有着较好的抗干扰能力,其参数决定了函数作用范围,超过了这个范围,数据的作用就“基本消失”。高斯核函数是这一族核函数的优秀代表,也是必须尝试的核函数。(4)Exponential Kernel。 (5) Laplacian Kernel 。(6) ANOVA Kernel。(7)Sigmoid Kernel。(8)Wave Kernel。(9)Triangular  Kernel。(10)Log Kernel。
3、朴素贝叶斯方法的优势是什么?

(1)朴素贝叶斯模型有稳定的分类效率。
(2)对小规模的数据表现很好,能处理多分类任务,适合增量式训练,尤其是数据量超出内存时,可以一批批的去增量训练。
(3)对缺失数据不太敏感,算法也比较简单,常用于文本分类。
4、什么是监督学习的标准方法
(1)K-近邻算法
K-近邻是一种分类算法,其思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。K通常是不大于20的整数。KNN算法中,所选择的邻居都是已经正确分类的对象。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。
(2)决策树
决策树是一种常见的分类方法,其思想和“人类逐步分析比较然后作出结论”的过程十分相似
决策树是一个树结构(可以是二叉树或非二叉树)。其每个非叶节点表示一个特征属性上的测试,每个分支代表这个特征属性在某个值域上的输出,而每个叶节点存放一个类别。使用决策树进行决策的过程就是从根节点开始,测试待分类项中相应的特征属性,并按照其值选择输出分支,直到到达叶子节点,将叶子节点存放的类别作为决策结果。
不同于贝叶斯算法,决策树的构造过程不依赖领域知识,它使用属性选择度量来选择将元组最好地划分成不同的类的属性。所谓决策树的构造就是进行属性选择度量确定各个特征属性之间的拓扑结构。
(2)朴素贝叶斯
贝叶斯分类是一系列分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类。朴素贝叶斯算法(Naive Bayesian) 是其中应用最为广泛的分类算法之一。朴素贝叶斯分类器基于一个简单的假定:给定目标值时属性之间相互条件独立。朴素贝叶斯的基本思想是对于给出的待分类项,求解在此项出现的条件下各个类别出现的概率,哪个最大,就认为此待分类项属于哪个类别。首先给出条件概率的定义,表示事件A在B发生下的条件概率,贝叶斯定理用来描述两个条件概率之间的关系。朴素贝叶斯分类算法的具体步骤如下:设为一个待分类项,为的个特征属性设有类别集合,即共有个类别依次计算属于各项分类的条件概率
(3)逻辑回归
线性回归就是根据已知数据集求一线性函数,使其尽可能拟合数据,让损失函数最小,常用的线性回归最优法有最小二乘法和梯度下降法。而逻辑回归是一种非线性回归模型,相比于线性回归,它多了一个sigmoid函数(或称为Logistic函数)。逻辑回归是一种分类算法,主要用于二分类问题。

5、在机器学习中,模型的选择是指什么
(1)损失函数与风险函数
(2)经验风险最小化和结构风险最小化
(3)模型评估与模型选择
(4)正则化与交叉验证
(5)泛化
(6)欠拟合
(7)过拟合

你可能感兴趣的:(人工智能面试题)