深度学习经典试题29道

所有试题来自公众号【读芯术】课后测试

  1. 深度学习中的“深度”是指
    A. 计算机理解深度
    B. 中间神经元网络的层次很多
    C. 计算机的求解更加精确
    D. 计算机对问题的处理更加灵活
    B

  2. 下列哪一项在神经网络中引入了非线性
    A. 随机梯度下降
    B. 修正线性单元(ReLU)
    C. 卷积函数
    D. 以上都不对
    B

  3. 下列哪个神经网络结构会发生权重共享
    A. 卷积神经网络
    B. 循环神经网络
    C. 全连接神经网络
    D. 选项A和B
    D

  4. 关于句子向量表示,下列说法正确的是
    A. 只能通过有监督学习获得
    B. 只能通过无监督学习获得
    C. 有监督和无监督学习都可以获得
    D. 以上都不对
    C

  5. 在神经网络中,下列哪种技术用于解决过拟合
    A. Dropout
    B. 正则化
    C. early stop
    D. Batch Normalizaiton
    ABCD

  6. 以下哪种不是自适应学习率方法
    A. Mini-batch SGD
    B. Adagrad
    C. RMSprop
    A

  7. 哪种策略可以加速词向量训练
    A. para2vect
    B. 层级softmax
    C. 最大似然估计
    D. 以上都不对
    B

  8. 关于梯度下降算法,以下说法正确的是
    A. 随机梯度下降算法是每次考虑单个样本进行权重更新
    B. Mini-Batch梯度下降算法是批量梯度下降和随机梯度下降的折中
    C. 批量梯度下降算法是每次考虑整个训练集进行权重更新
    D. 以上都对
    D

  9. 与传统机器学习方法相比,深度学习的优势在于
    A. 深度学习可以自动学习特征
    B. 深度学习完全不需要做数据预处理
    C. 深度学习完全不提取底层特征,如图像边缘、纹理等
    D. 深度学习不需要调参
    A

  10. 下列哪一项在神经网络中引入了非线性
    A. 随机梯度下降
    B. Sigmoid激活函数
    C. 增大权重和偏置的初始化值
    D. 以上都不对
    B

  11. 在其他条件不变的前提下,以下哪些做法容易引起机器学习中的过拟合问题
    A. 增加训练集量
    B. 减少神经网络隐藏节点数
    C. 在损失函数中增加正则项
    D. SVM算法中使用高斯核/RBF核代替核性核
    D

  12. 下列模型,属于判别式模型的有
    A. 隐马尔可夫模型
    B. 支持向量机
    C. 朴素贝叶斯
    D. 神经网络
    BD

  13. 关于集成学习,下列说法错误的是
    A. 集成学习一定能提升个体学习器的性能
    B. Bagging方法中,个体学习器之间彼此独立
    C. Boosting是一种重视错误样本的学习方法
    D. Boosting方法中,个体学习器存在强依赖
    A

  14. 如果使用的学习率太大,会导致
    A. 网络收敛的快
    B. 网络收敛的快
    C. 网络无法收敛
    D. 不确定
    C

  15. 在一个神经网络里,知道每一个神经元的权值和偏差值是最重要的一步。如果以某种方法知道了神经元准确的权重和偏差,就可以近似任何函数。实现这个最佳的办法是
    A. 随机赋值,祈祷他们是正确的
    B. 搜索所有权重和偏差的组合,直到得到最佳值
    C. 赋予一个初始值,通过检查跟最佳值的差值,然后迭代更新权重
    D. 以上说法都不正确
    C

  16. 下列目标检测网络中,哪个是一阶段的网络
    A. Faster-rcnn
    B. RFCN
    C. YOLOV3
    D. SPP-net
    C

  17. SSD主要通过哪种方法来解决检测不同大小目标的问题
    A. 设置更多的anchor尺寸
    B. 设置更多的anchor纵横化
    C. 在不同的特征图上进行预测
    D. 使用图像金字塔作为输入
    C

  18. 当图像分类的准确率不高时,可以考虑以下哪种方法提高准确率
    A. 数据增强
    B. 调整超参数
    C. 使用预训练网络参数
    D. 减少数据集
    ABC

  19. 文字监测网络TextBoxes基于下列哪个网络
    A. Fast-rcnn
    B. Faster r-cnn
    C. SSD
    D. Y0L0
    C

  20. 下面哪些情况可能导致神经网络训练失败
    A. 梯度消失
    B. 梯度爆炸
    C. 激活单元死亡
    D. 鞍点
    ABCD

  21. 假定你现在在解决一个有着非常不平衡的分类问题,即主要类别占据了训练数据的99%。现在你的模型在测试集上表现为99%的准确率。下面表述正确的是
    A. 准确度并不适合于衡量不平衡类别问题
    B. 准确度适合于衡量不平衡类别问题
    C. 精确率和召回率适合于衡量不平衡类别问题
    D. 精确率和召回率不适合于衡量不平衡类别问题
    AC

  22. 假定在神经网络中的隐藏层中使用激活函数X。在特定神经元给定任意输入,会得到输出[-0.0001]。X可能是以下哪一个激活函数
    A. ReLU
    B. tanh
    C. Sigmoid
    D. 以上都不是
    B
    解析:该激活函数可能是 tanh,因为该函数的取值范围是 (-1,1)。

  23. 如果增加神经网络的宽度,精确度会增加到一个阈值,然后开始降低。造成这一现象的原因可能是
    A. 只有一部分核被用于预测
    B. 当核数量增加,神经网络的预测能力降低
    C. 当核数量增加,其相关性增加,导致过拟合
    D. 以上都不对
    C

  24. 假设只有少量数据来解决某个具体问题,但有有个预先训练好的神经网络来解决类似问题。可以用下面哪些方法来利用这个预先训练好的网络
    A. 把除了最后一层外所有的层都冻结,重新训练最一层
    B. 重新训练整个模型
    C. 只对最后几层进行微调
    D. 对每一层模型进行评估,只使用少数层
    C
    解析:如果有个预先训练好的神经网络, 就相当于网络各参数有个很靠谱的先验代替随机初始化. 若新的少量数据来自于先前训练数据(或者先前训练数据量很好地描述了数据分布, 而新数据采样自完全相同的分布), 则冻结前面所有层而重新训练最后一层即可;但一般情况下, 新数据分布跟先前训练集分布有所偏差, 所以先验网络不足以完全拟合新数据时, 可以冻结大部分前层网络, 只对最后几层进行训练调参(这也称之为fine tune)。

  25. 下列哪个不属于CRF模型对于HMM模型的优势
    A. 特征灵活
    B. 速度快
    C. 可以容纳较多的上下文信息
    D. 能够做到全局最优
    B

  26. 下列方法中,可以用于特征降维的方法包括
    A. 主成分分析
    B. 线性判别分析
    C. 自编码器
    D. 矩阵奇异值分解
    ABCD

  27. 以下说法中正确的是
    A. SVM对噪声鲁棒
    B. 在AdaBoost算法中,所有被分错的样本的权重更新比列相同
    C. Boosting和Bagging都是组合多个分类器投票的方法,二者都是根据单个分类器的正确率决定其权重
    D. 分类器集成一定能提升单分类器的性能
    B

  28. 关于集成学习,以下说法错误的是
    A. 集成学习一定能提升个体学习器的性能
    B. Bagging方法中,个体学习器之间彼此独立
    C. Boosting是一种重视错误样本的学习方法
    D. Boosting方法中,个体学习器存在强依赖
    A

  29. 比较基于深度学习的在线更新跟踪算法与在线不更新的跟踪算法,下列说法错误的是
    A. 一般来说,在线不更新的跟踪算法速度更快
    B. 一般来说,在线更新的跟踪算法,可以适应目标的变化,和背景信息的变化,对特征的要求较低
    C. 一般来说,在线更新的跟踪算法,在发生丢失和遮挡时,很容易找回
    D. 一般来说,在线不更新的跟踪算法,对特征的要求比较高,要求特征的表示能力鲁棒性更强
    C

你可能感兴趣的:(深度学习,深度学习,自然语言处理,神经网络,数据挖掘,机器学习)