算法工程师(机器学习)面试题目4---深度学习算法

基础问题

CNN

1. 卷积神经网络和全连接网络的根本不同之处在哪里

两者之间的唯一区别是神经网络相邻两层的连接方式。在全连接神经网络中,每相邻两层之间的节点都有边相连,而对于卷积神经网络,相邻两层之间只有部分节点相连

全连接网络缺点: 参数太多,计算速度变慢,容易过拟合
卷积神经网络:局部链接;权值共享;参数更少,降低过拟合的可能

卷积神经网络一般是由卷积层、汇聚层和全连接层交叉堆叠而成的前馈神经网络。

RNN

1、BatchNormalization的作用

2、梯度消失

3、循环神经网络,为什么好?

4、什么是GroupConvolution

5、什么是RNN

6、训练过程中,若一个模型不收敛,那么是否说明这个模型无效?导致模型不收敛的原因有哪些?

7、图像处理中锐化和平滑的操作

8、VGG使用3*3卷积核的优势是什么?

9、Relu比Sigmoid的效果好在哪里?

10、神经网络中权重共享的是?

11、神经网络激活函数?

12、在深度学习中,通常会finetuning已有的成熟模型,再基于新数据,修改最后几层神经网络权值,为什么?

13、画GRU结构图

14、Attention机制的作用

15、Lstm和Gru的原理

16、什么是dropout

17、LSTM每个门的计算公式

18、HOG算法原理

19、DropConnect的原理

20、深度学习了解多少,有看过底层代码吗?caffe,tf?

21、除了GMM-HMM,你了解深度学习在语音识别中的应用吗?

22、用过哪些移动端深度学习框架?

23、Caffe:整体架构说一下,新加一个层需要哪些步骤,卷积是怎么实现的,多卡机制,数据并行还是模型并行?

24、HOG算子是怎么求梯度的

25、BN层的作用,为什么要在后面加伽马和贝塔,不加可以吗

26、梯度消失,梯度爆炸的问题,

27、Adam

28、attention机制

29、RNN梯度消失问题,为什么LSTM和GRU可以解决此问题

30、GAN网络的思想

31、1*1的卷积作用

32、怎么提升网络的泛化能力

33、什么是seq2seq model

34、激活函数的作用

35、为什么用relu就不用sigmoid了

36、讲一下基于WFST的静态解码网络的语音识别流程?

37、目标检测了解吗,Faster RCNN跟RCNN有什么区别

38、SPP,YOLO了解吗?

39、梯度消失梯度爆炸怎么解决

40、RNN容易梯度消失,怎么解决?

41、LSTM跟RNN有啥区别

42、卷积层和池化层有什么区别

43、 防止过拟合有哪些方法

44、dropout咋回事讲讲

45、relu

46、神经网络为啥用交叉熵。

47、注意力公式

48、论文flow情况

48、Flappy.Bird开发者,怎么利用DNQ方法强化学习你的游戏AI

49、LeNet-5结构

50、推导LSTM正向传播和单向传播过程

51、LSTM原理,与GRU区别

52、DNN的梯度更新方式

53、 CNN为什么比DNN在图像识别上更好

54、现场用collabedit写代码,一个怪异的归并算法。之前没遇到过,直接把归并写出来,但是说复杂度太高,优化了三遍还不行,最后说出用小顶堆解决了。

55、LSTM和Naive RNN的区别

56、神经网络为啥用交叉熵。

57、注意力公式

58、Inception Score 评价指标介绍

59、使用的 CNN 模型权重之间有关联吗?

60、CycleGAN 原理介绍一下

61、训练 GAN 的时候有没有遇到什么问题

62、CPM 模型压缩怎么做的?有压过 OpenPose 吗?

63、用过哪些 Optimizer,效果如何?

64、图像基础:传统图像处理方法知道哪些,图像对比度增强说一下

65、介绍一下图像的高频、低频部分,知道哪些图像补全的方法

66、百度实习:模型压缩的大方向。CPM 模型怎么压缩的,做了哪些工作?

67、Depthwise 卷积实际速度与理论速度差距较大,解释原因。

68、RetinaNet 的大致结构画一下

69、RetinaNet为什么比SSD效果好

你可能感兴趣的:(算法工程师,算法,机器学习,深度学习)