一个月刷完机器学习笔试题300题(11)

第十一天

1、关于 ARMA 、 AR 、 MA 模型的功率谱,下列说法正确的是( )
A
MA模型是同一个全通滤波器产生的
B
MA模型在极点接近单位圆时,MA谱是一个深谷
C
AR模型在零点接近单位圆时,AR谱是一个尖峰
D
RMA谱既有尖峰又有深谷
正确答案是:D
MA模型滑动平均模型,模型参量法谱分析方法之一,也是现代谱估中常用的模型。
用MA模型法求信号谱估计的具体作法是:①选择MA模型,在输入是冲激函数或白噪声情况下,使其输出等于所研究的信号,至少应是对该信号一个好的近似。②利用已知的自相关函数或数据求MA模型的参数。③利用求出的模型参数估计该信号的功率谱。
AR 模型(auto regressive model)自回归模型,模型参量法高分辨率谱分析方法之一,也是现代谱估计中常用的模型。
用AR模型法求信具体作法是:
①选择AR模型,在输入是冲激函数或白噪声的情况下,使其输出等于所研究的信号,至少,应是对该信号的一个好的近似。
②利用已知的自相关函数或数据求模型的参数。
③利用求出的模型参数估计该信号的功率谱。
ARMA模型(auto regressive moving average model)自回归滑动平均模型,模型参量法高分辨率谱分析方法之一。
2、符号集 a 、 b 、 c 、 d ,它们相互独立,相应概率为 1/2 、 1/4 、 1/8/ 、 1/16 ,其中包含信息量最小的符号是( )
A
a
B
b
C
c
D
d
正确答案是:A
因为消息出现的概率越小,则消息中所包含的信息量就越大。因此选a,同理d信息量最大。
3、下列哪个不属于常用的文本分类的特征选择算法?
A
卡方检验值
B
互信息
C
信息增益
D
主成分分析
正确答案是:D
主成分分析是特征转换算法(特征抽取),而不是特征选择
4、在数据清理中,下面哪个不是处理缺失值的方法?

A
估算
B
整例删除
C
变量删除
D
成对删除
正确答案是:D
数据清理中,处理缺失值的方法有两种:
一、删除法:
1)删除观察样本
2)删除变量:当某个变量缺失值较多且对研究目标影响不大时,可以将整个变量整体删除
3)使用完整原始数据分析:当数据存在较多缺失而其原始数据完整时,可以使用原始数据替代现有数据进行分析
4)改变权重:当删除缺失数据会改变数据结构时,通过对完整数据按照不同的权重进行加权,可以降低删除缺失数据带来的偏差
二、查补法:均值插补、回归插补、抽样填补等
5、统计模式分类问题中,当先验概率未知时,可以使用()
A
最小最大损失准则
B
最小误判概率准则
C
最小损失准则
D
N-P判决
正确答案是:A
A. 考虑p(wi)变化的条件下,是风险最小

B. 最小误判概率准则, 就是判断p(w1|x)和p(w2|x)哪个大,x为特征向量,w1和w2为两分类,根据贝叶斯公式,需要用到先验知识

C. 最小损失准则,在B的基础之上,还要求出p(w1|x)和p(w2|x)的期望损失,因为B需要先验概率,所以C也需要先验概率

D. N-P判决,即限定一类错误率条件下使另一类错误率为最小的两类别决策,即在一类错误率固定的条件下,求另一类错误率的极小值的问题,直接计算p(x|w1)和p(x|w2)的比值,不需要用到贝叶斯公式_

6、决策树的父节点和子节点的熵的大小关系是什么?
A
A. 决策树的父节点更大
B
B. 子节点的熵更大
C
C. 两者相等
D
D. 根据具体情况而定
正确答案是:D
假设一个父节点有2正3负样本,进一步分裂情况1:两个叶节点(2正,3负);情况2:两个叶节点(1正1负,1正2负)。分别看下情况1和情况2,分裂前后确实都有信息增益,但是两种情况里不是每一个叶节点都比父节点的熵小。

7、语言模型的参数估计经常使用MLE(最大似然估计)。面临的一个问题是没有出现的项概率为0,这样会导致语言模型的效果不好。为了解决这个问题,需要使用( )
A
平滑
B
去噪
C
随机插值
D
增加白噪音
正确答案是:A
A,拉普拉斯平滑假设,将分子和分母各加上一个常数项。
8、逻辑回归与多元回归分析有哪些不同?
A
逻辑回归预测某事件发生的概率
B
逻辑回归有较高的拟合效果
C
逻辑回归回归系数的评估
D
以上全选
正确答案是:D
逻辑回归是用于分类问题,我们能计算出一个事件/样本的概率;一般来说,逻辑回归对测试数据有着较好的拟合效果;建立逻辑回归模型后,我们可以观察回归系数类标签(正类和负类)与独立变量的的关系。
9、"过拟合是有监督学习的挑战,而不是无监督学习"以上说法是否正确:
A
正确
B
错误
正确答案是: B
我们可以评估无监督学习方法通过无监督学习的指标,如:我们可以评估聚类模型通过调整兰德系数。

10、中文同义词替换时,常用到Word2Vec,以下说法错误的是
A
Word2Vec基于概率统计
B
Word2Vec结果符合当前预料环境
C
Word2Vec得到的都是语义上的同义词
D
Word2Vec受限于训练语料的数量和质量
正确答案是:C
Word2vec,为一群用来产生词向量的相关模型。这些模型为浅而双层的神经网络,用来训练以重新建构语言学之词文本。网络以词表现,并且需猜测相邻位置的输入词,在word2vec中词袋模型假设下,词的顺序是不重要的。

训练完成之后,word2vec模型可用来映射每个词到一个向量,可用来表示词对词之间的关系。该向量为神经网络之隐藏。
Word2vec依赖skip-grams或连续词袋(CBOW)来建立神经词嵌入。

你可能感兴趣的:(算法学习)