一个月刷完机器学习笔试题300题(15)

第15天

1、想像正在处理文本数据,使用单词嵌入(Word2vec)表示使用的单词。在单词嵌入中,最终会有1000维。现在想减小这个高维数据的维度,这样相似的词应该在最邻近的空间中具有相似的含义。在这种情况下,您最有可能选择以下哪种算法?
A
t-SNE
B
PCA
C
LDA
D
都不是
正确答案是:A
-SNE代表t分布随机相邻嵌入,它考虑最近的邻居来减少数据。
2、判断:t-SNE学习非参数映射。
A

B

正确答案是:A
t-SNE学习非参数映射,这意味着它不会学习将数据从输入空间映射到地图的显式函数。
3、以下对于t-SNE和PCA的陈述中哪个是正确的?
A
t-SNE是线性的,而PCA是非线性的
B
t-SNE和PCA都是线性的
C
t-SNE和PCA都是非线性的
D
t-SNE是非线性的,而PCA是线性的
正确答案是:D
4、在t-SNE算法中,可以调整以下哪些超参数?
A
维度数量
B
平稳测量有效数量的邻居
C
最大迭代次数
D
以上所有
正确答案是:D
5、与PCA相比,t-SNE的以下说明哪个正确?
A
数据巨大(大小)时,t-SNE可能无法产生更好的结果。
B
无论数据的大小如何,T-NSE总是产生更好的结果。
C
对于较小尺寸的数据,PCA总是比t-SNE更好。
D
都不是
正确答案是:A

6、Xi和Xj是较高维度表示中的两个不同点,其中Yi和Yj是较低维度中的Xi和Xj的表示。
1.数据点Xi与数据点Xj的相似度是条件概率p(j | i)。
2.数据点Yi与数据点Yj的相似度是条件概率q(j | i)。
对于在较低维度空间中的Xi和Xj的完美表示,以下哪一项必须是正确的?
A
p(j | i)= 0,q(j | i)= 1
B
p(j | i)
C
p(j | i)= q(j | i)
D
P(j | i)> q(j | i)
正确答案是:C
两点的相似性的条件概率必须相等,因为点之间的相似性必须在高维和低维中保持不变,以使它们成为完美的表示
7、对于投影数据为(( √2),(0),(√2))。现在如果在二维空间中重建,并将它们视为原始数据点的重建,那么重建误差是多少?
A
0%
B
10%
C
30%
D
40%
正确答案是:A
重建误差为0,因为所有三个点完全位于第一个主要分量的方向上或者计算重建;
8、LDA的以下哪项是正确的?

A
LDA旨在最大化之间类别的距离,并最小化类内之间的距离
B
LDA旨在最小化类别和类内之间的距离
C
LDA旨在最大化类内之间的距离,并最小化类别之间的距离
D
LDA旨在最大化类别和类内之间的距离
正确答案是:A
9、LDA的思想是找到最能区分两类别之间的线,下图中哪个是好的投影?

A
LD1
B
LD2
C
两者
D
都不是
正确答案是:A
10、以下哪种情况LDA会失败?
A
如果有辨识性的信息不是平均值,而是数据的方差
B
如果有辨识性的信息是平均值,而不是数据方差
C
如果有辨识性的信息是数据的均值和方差
D
都不是
正确答案是:A
LDA算法既可以用来降维,又可以用来分类,但是目前来说,主要还是用于降维。在我们进行图像识别图像识别相关的数据分析时,LDA是一个有力的工具。下面总结下LDA算法的优缺点。

LDA算法的主要优点有:

1)在降维过程中可以使用类别的先验知识经验,而像PCA这样的无监督学习则无法使用类别先验知识。

2)LDA在样本分类信息依赖均值而不是方差的时候,比PCA之类的算法较优。

LDA算法的主要缺点有:

1)LDA不适合对非高斯分布样本进行降维,PCA也有这个问题。

2)LDA降维最多降到类别数k-1的维数,如果我们降维的维度大于k-1,则不能使用LDA。当然目前有一些LDA的进化版算法可以绕过这个问题。

3)LDA在样本分类信息依赖方差而不是均值的时候,降维效果不好。

4)LDA可能过度拟合数据。

LDA用于降维,和PCA有很多相同,也有很多不同的地方,因此值得好好的比较一下两者的降维异同点。

首先我们看看相同点:

1)两者均可以对数据进行降维。

2)两者在降维时均使用了矩阵特征分解的思想。

3)两者都假设数据符合高斯分布。

我们接着看看不同点:

1)LDA是有监督的降维方法,而PCA是无监督的降维方法

2)LDA降维最多降到类别数k-1的维数,而PCA没有这个限制。

3)LDA除了可以用于降维,还可以用于分类。

4)LDA选择分类性能最好的投影方向,而PCA选择样本点投影具有最大方差的方向。

你可能感兴趣的:(算法学习)