深度学习面经一

本人本科刚毕业。在广州那边实习了接近一年,都是一些智能医疗相关的项目。跳槽,想在深圳这边找关于深度学习的岗位,面试中碰到的一些问题,在这里总结一下。(2018.07)

1.Faster rcnn 的流程,rpn的原理,加速的原因,卷积核大小。

2.yolo v3的细节

3.Resnet残差结构的作用

4.softmax层可以做分类层的原因

5.L1,L2范式的作用和区别

6.推导反向传播算法

7.梯度向下降算法在并行计算中参数是怎么共享的

8.加速卷积神经网络训练的手段有哪些

9.防止过拟合的方法

10.为什么交叉熵可以作为损失函数

11.MTCNN的缺点是什么,FaceNet的流程,还接触了哪些用于人脸识别的算法

12.CNN在对图像特征的提取中,为什么比RNN,DBN这些深层模型应用得多

13.为什么卷积层可以提取特征

14.relu函数为什么可以防止梯度弥散

15.解释SVM,推导SVM算法

16.SVM的原问题和对偶问题分别是什么

17.kmeans的k值怎么选取的,用EM算法推导kmeans

18.对比ID3,C4.5和Cart算法

19.logistic回归为什么选用sigmoid函数作为表现方式

20.解释xgboot和GBDT的区别

除此之外,还被问到python,c++的特性,统计与概率,线代的概念,如置信区间,秩等,白板写代码(leetcode,lintcode的题都可以刷),项目问得很细。


你可能感兴趣的:(算法,人工智能,深度学习)