深度学习&计算机视觉常见的29道面试题及解析

正值秋招进行时,本文收集了深度学习&计算机视觉方向的相关面试题,涵盖反卷积、神经网络、目标检测等多个方面,内容非常全面。

1.什么是反卷积?

2.反卷积有哪些用途?

3.解释神经网络的万能逼近定理

4.神经网络是生成模型还是判别模型?

5.Batch Normalization 和 Group Normalization有何区别?

6.模型压缩的主要方法有哪些?

7.目标检测中IOU是如何计算的?

8.使用深度卷积网络做图像分类如果训练一个拥有1000万个类的模型会碰到什么问题?

9.深度学习中为什么不用二阶导去优化?

10.深度机器学习中的mini-batch的大小对学习效果有何影响?

11.dropout的原理

12.为什么SSD对小目标检测效果不好:

13.空洞卷积及其优缺点

14.Fast RCNN中位置损失为何使用Smooth L1:

15.Batch Normalization

16.超参数搜索方法

17.如何理解卷积、池化等、全连接层等操作

18.1x1大小的卷积核的作用

19.常见激活函数特点

20.训练过程中,若一个模型不收敛,那么是否说明这个模型无效?导致模型不收敛的原因有哪些?

21.深度学习中的不同最优化方式,如SGD,ADAM下列说法中正确的是?

22.深度学习:凸与非凸的区别

23.googlenet提出的Inception结构优势有()

24.深度学习中的激活函数需要具有哪些属性?()

25.关于神经网络中经典使用的优化器,以下说法正确的是

26.以下说法错误的是

27.以下哪种方法一般不用于在大数据集上训练DNN:

28.下列关于深度学习说法错误的是

29.多尺度问题怎么解决?

答案

你可能感兴趣的:(机器学习,智能计算,神经网络,深度学习,机器学习,计算机视觉,python)