神经网络与深度学习期末考试满分过题库!

  1. TensorFlow的特点有哪些( E
    A、灵活性
    B、可移植性
    C、高效
    D、多语言支持
    E、以上全部都是

  2. 下列有关张量和和变量的说法正确的是(B
    A、张量可以简单理解为多维度数组
    B、以上都是
    C、变量是一种特殊的张量
    D、在TensorFlow中所有的数据都是通过张量的形式表示“

  3. 下列声明哪些是正确的?(C
    声明1:可以通过将所有权重初始化为0来训练网络
    声明2:可以通过将偏差初始化为0来训练网络
    A、1和2都错
    B、1和2都对
    C、1错2对
    D、1对2错

  4. 下列哪个函数不可以做激活函数?(C
    A、y=tanh(x)
    B、y=2x
    C、y=sin(x)
    D、y=max(x,0)

  5. 在一个简单的MLP模型中,输入层有8个神经元,隐藏层有5个神经元,输出层有1个神经元。隐藏输出层和输入隐藏层之间的权重矩阵的大小是多少(D
    A、[1 X 5],[5 X 8]
    B、[8×5],[1×5]
    C、[5×8],[5×1]
    D、[5×1],[8×5]

  6. 对于前向神经网络,输入层中的节点数为10,隐藏层为5。从输入层到隐藏层的最大连接数是(B
    A、小于50
    B、50
    C、任意值
    D、大于50

  7. 反向传播算法一开始计算什么内容的梯度,之后将其反向传播?(C
    A、各个输入样本的平方差之和
    B、各个网络权重的平方差之和
    C、预测结果与样本标签之间的误差
    D、以上都不对

  8. 在训练神经网络时,损失函数(loss)在最初的几个epochs时没有下降,可能的原因是?(D
    神经网络与深度学习期末考试满分过题库!_第1张图片
    A、正则参数太高
    B、陷入局部最小值
    C、学习率太高
    D、以上都有可能

  9. 数据规一化(Normalization)的好处都有啥?(A
    A、让每一层的输入的范围都大致固定
    B、以上都不正确
    C、它将权重的归一化平均值和标准差
    D、它是一种非常有效的反向传播(BP)方法

  10. 以下哪些是CNN网络常用的模型?(B
    1 LeNet-5
    2 AlexNet
    3 VGGNet
    4 Google Inception Net
    A、2,3
    B、1,2,3,4
    C、1,2,3

  11. 输入图片大小为200×200,依次经过一层卷积(kernel size 5×5,same padding ,stride 2),pooling(kernel size 3×3,valid padding ,stride 1),又一层卷积(kernel size 3×3,same padding,stride 1)之后,输出特征图大小为(C
    A、96
    B、97
    C、98

  12. 梯度爆炸问题是指在训练深度神经网络的时候,梯度变得过大而损失函数变为无穷。在RNN中,下面哪种方法可以较好地处理梯度爆炸问题?(D
    A、Dropout
    B、所有方法都不行
    C、用改良的网络结构比如LSTM和GRUs
    D、梯度裁剪

  13. 下列有关LSTM的细胞状态正确的是。(A
    A、以上都是
    B、LSTM决定从细胞状态中丢弃什么信息
    C、LSTM决定什么信息增加到细胞状态中
    D、LSTM决定从细胞状态中输出什么信息

  14. 深度学习与机器学习算法之间的区别在于,深度学习过程中无需进行特征提取工作,也就是说,我们建议在进行深度学习过程之前要首先完成特征提取的工作。这种说法是(A
    A、错误的
    B、正确的

  15. 神经网络模型(Neural Network)因受人类大脑的启发而得名,神经网络由许多神经元(Neuron)组成,每个神经元接受一个输入,对输入进行处理后给出一个输出,如下图所示。请问下列关于神经元的描述中,哪一项是正确的?(A
    神经网络与深度学习期末考试满分过题库!_第2张图片
    A、以上都是
    B、每个神经元可以有多个输入和一个输出
    C、每个神经元可以有一个输入和多个输出
    D、每个神经元可以有多个输入和多个输出
    E、每个神经元可以有一个输入和一个输出

  16. 下图中的数据是线性可分的么?( B
    神经网络与深度学习期末考试满分过题库!_第3张图片
    A、是
    B、否

  17. 已知:
    大脑是有很多个叫做神经元的东西构成,神经网络是对大脑的简单的数学表达。每一个神经元都有输入、处理函数和输出。神经元组合起来形成了网络,可以拟合任何函数。为了得到最佳的神经网络,我们用梯度下降方法不断更新模型给定上述关于神经网络的描述,什么情况下神经网络模型被称为深度学习模型?(A
    A、加入更多层,使神经网络的深度增加
    B、当这是一个图形识别的问题
    C、有维度更高的数据
    D、以上都不正确

  18. 单层的神经网络反向传播算法也适用多层神经网络的反向传播,这句话正确吗?(A
    A、不正确
    B、正确

  19. 如图所示,当开始训练时,误差一直很高,这是因为神经网络在往全局最小值前进之前一直被卡在局部最小值里。为了避免这种情况,我们可以采取下面哪种策略?(D
    神经网络与深度学习期末考试满分过题库!_第4张图片
    A、以上都不对
    B、一开始将学习速率减小10倍,然后用动量项(momentum)
    C、增加参数数目,这样神经网络就不会卡在局部最优处
    D、改变学习速率,比如一开始的几个训练周期不断更改学习率速率

  20. Dropout对一个神经元随机屏蔽输入权重这句话是错误的

  21. 假设下方是传入最大池化层的一个输入,该层中神经元的池化大小为(3,3),在这里插入图片描述
    那么,该池化层的输出是多少?(C
    A、5
    B、5.5
    C、7
    D、3

  22. 一个循环神经网络可以被展开成为一个完全连接的、具有无限长度的普通神经网络,这种说法是正确的

  23. 下列有关LSTM的细胞状态正确的是。(B
    A、LSTM决定从细胞状态中丢弃什么信息
    B、以上都是
    C、LSTM决定什么信息增加到细胞状态中
    D、LSTM决定从细胞状态中输出什么信息

  24. 假设神经元的输入值为(1,2,3),对应的权重为4,5,6,神经元经过一个线性函数y=2x,最终的输出结果是多少(C
    A、48
    B、32
    C、64
    D、96

  25. 梯度下降算法的正确步骤是什么?(C
    1 计算预测值和真实值之间的误差
    2 重复迭代,直至得到网络权重的最佳值
    3 把输入传入网络,得到输出值
    4 用随机值初始化权重和偏差
    5 对每一个产生误差的神经元,调整相应的(权重)值以减小误差
    A、3,2,1,5,4
    B、5,4,3,2,1
    C、4,3,1,5,2 ​
    D、1,2,3,4,5

  26. 反向传播算法一开始计算什么内容的梯度,之后将其反向传播?(C
    A、各个输入样本的平方差之和
    B、以上都不对
    C、预测结果与样本标签之间的误差
    D、各个网络权重的平方差之和

  27. 如果我们希望预测n个类(p1,p2 … pk)的概率使得所有n的p的和等于1,那么下列哪个函数可以用作输出层中的激活函数?(D
    A、Tanh
    B、ReLU
    C、Sigmoid
    D、softmax

  28. 当构建一个神经网络进行图片的语义分割时,通常采用下面哪种顺序?(A
    A、先用卷积神经网络处理输入,再用反卷积神经网络得到输出
    B、不确定
    C、先用反卷积神经网络处理输入,再用卷积神经网络得到输出

  29. Dropout是一种在深度学习环境中应用的正规化手段。它是这样运作的:在一次循环中我们先随机选择神经层中的一些单元并将其临时隐藏,然后再进行该次循环中神经网络的训练和优化过程。在下一次循环中,我们又将隐藏另外一些神经元,如此直至训练结束。根据以上描述,Dropout技术在下列哪种神经层中将无法发挥显著优势?(D
    神经网络与深度学习期末考试满分过题库!_第5张图片
    A、卷积层
    B、以上都不是
    C、放射层
    D、RNN层

  30. 有关数据流图描述正确的是(D
    神经网络与深度学习期末考试满分过题库!_第6张图片
    A 数据流图用“结点”(nodes)和“线”(edges)的有向图来描述数学计算
    B “节点” 一般用来表示施加的数学操作,但也可以表示数据输入(feed in)的起点/输出(push out)的终点,或者是读取/写入持久变量(persistent variable)的终点
    C “线”表示“节点”之间的输入/输出关系
    D 以上都是

  31. 有关“图”描述错误的是(A
    A、一个“图”代表一个或多个计算任务
    B、“图”会在会话中被启动
    C、不同计算图上的张量和运算不共享
    D、使用Graph函数生成新的计算图

  32. 在一个神经网络中,知道每一个神经元的权重和偏差是最重要的一步。如果知道了神经元准确的权重和偏差,便可以近似任何函数,但怎么获知每个神经的权重和偏移呢(D
    A、搜索每个可能的权重和偏差组合,直到得到最佳值
    B、以上都不正确
    C、随机赋值
    D、赋予一个初始值,然后检查跟最佳值的差值,不断迭代调整权重

  33. 下面那个决策边界是神经网络生成的(ABCD
    神经网络与深度学习期末考试满分过题库!_第7张图片

  34. 当神经网络的调参效果不好时,需要从哪些角度考虑?(12345
    1 是否找到合适的损失函数
    2 batch size是否合适
    3 是否选择了和是的激活函数
    4 是否选择合适的学习率
    5 是否过拟合

  35. 下列哪些项目是在图像识别任务中使用的数据扩增技术?(123456
    1 水平翻转
    2 随机裁剪
    3 随机缩放
    4 颜色抖动
    5 随机平移
    6 随机剪切

  36. 从图中趋势可见,如果增加神经网络的宽度,精确度会增加到一个特定阈值后,便开始降低。造成这一现象的可能原因是什么?(B
    神经网络与深度学习期末考试满分过题库!_第8张图片
    A、即使增加卷积核的数量,只有少部分的核会被用作预测
    B、当卷积核数量增加时,导致过拟合
    C、当卷积核数量增加时,神经网络的预测能力(Power)会降低
    D、以上都不正确

  37. 输入图像已被转换为大小为28×28的矩阵和大小为7×7的步幅为1的核心/滤波器,填充方式是valid 。卷积矩阵的大小是多少?(A
    A、22 X 22
    B、28 X 28
    C、21 X 21
    D、7X 7

  38. 给定一个长度为n的不完整单词序列,我们希望预测下一个字母是什么。比如输入是“predictio”(9个字母组成),希望预测第十个字母是什么。下面哪种神经网络结构适用于解决这个工作?(A
    A、循环神经网络
    B、以上都不是
    C、全连接神经网络
    D、卷积神经网络

  39. “门”的出现可以帮助防止在RNN中的梯度消失问题这句话是对的

  40. 假设在一个神经元上实现和(AND)函数,下表是和函数的表述()
    神经网络与深度学习期末考试满分过题库!_第9张图片
    激活函数:以下权重(w)和偏差(b),哪一组是正确的?(D
    A、b= 1.5, w1 = 2, w2 = 2
    B、以上都不正确
    C、b = 1, w1 = 1.5, w2 = 1.5
    D、b= -1.5, w1 = 1, w2 = 1

  41. 下列有关单层感知器的说法错误的是?(B
    A、“与门”的线性分割线的斜率有权值决定
    B、包含输入层、隐藏层和输出层
    C、包含求和和激活操作
    D、能够解决“与门”操作

  42. 在感知机中(Perceptron)的任务顺序是什么?(C
    1 随机初始化感知机的权重
    2 去到数据集的下一批(batch)
    3 如果预测值和输出不一致,则调整权重
    4 对一个输入样本,计算输出值
    A、3,1,2,4
    B、4,3,2,1
    C、1,4,3,2
    D、1,2,3,4

  43. 在输出层不能使用以下哪种激活函数来分类图像(A
    A、ReLU
    B、Tanh
    C、If(x> 5,1,0)
    D、sigmoid

  44. 一个完成的反向传播的步骤是(B
    1 将隐藏层误差反向传播给输入层,调节隐藏层到输入层的权值和阈值
    2 将输出层的误差反向传播给隐藏层,调整隐藏层到输出层的权值和阈值
    3 将隐藏层的误差反向传播给隐藏层,调节隐藏层到隐藏层的权值和阈值
    A、1 3 2
    B、2 3 1
    C、1 2 3
    D、2 1 3

  45. 相比sigmoid激活函数,relu激活函数有什么优势?( D)
    A、防止梯度消失
    B、ReLu输出具有稀疏性
    C、ReLu函数简繁计算速度快
    D、以上都是

  46. 在训练CNN时,可以对输入进行旋转、平移、缩放等预处理提高模型泛化能力。这么说是对的

  47. 构建一个神经网络,将前一层的输出和它自身作为输入。
    神经网络与深度学习期末考试满分过题库!_第10张图片
    下列哪一种架构有反馈连接?(B
    A、限制玻尔兹曼机
    B、循环神经网络
    C、以上都不正确
    D、卷积神经网络

  48. LSTM网络有哪些“门”。(B
    A、遗忘门
    B、以上都是
    C、输出门
    D、输入门

  49. 如果我们用了一个过大的学习速率会发生什么?(C
    A、神经网络会收敛
    B、都不对
    C、神经网络不会收敛
    D、不好说

  50. “所谓的权值共享就是说,用一个卷积核去卷积一张图,这张图每个位置是被同样数值的卷积核操作的,权重是一样的”,这句话是正确的

  51. 假设你有5个大小为7x7、边界值为0的卷积核,同时卷积神经网络第一层的深度为1。此时如果你向这一层传入一个维度为224x224x3的数据,那么神经网络下一层所接收到的数据维度是多少?(D
    A、2202205
    B、2182187
    C、2172178
    D、2182185

  52. 下列说法正确的是( C
    A、TensorFlow的场景仅包含训练场景和测试场景
    B、以上都是
    C、TensorFLow的运行机制属于“定义”和“操作”相分离
    D、会话Session在图中被启动

  53. 在下图中,我们可以观察到误差出现了许多小的"涨落"。 这种情况我们应该担心吗?( A
    神经网络与深度学习期末考试满分过题库!_第11张图片
    A、不需要,只要在训练集和交叉验证集上有累积的下降就可以了
    B、不确定
    C、需要,这也许意味着神经网络的学习速率存在问题

  54. 您正在构建一个用于识别黄瓜(y=1)和西瓜(y=0)的二进制分类器。您建议将这些激活函数中的哪一个用于输出层?(C
    A、Leaky ReLU
    B、ReLU
    C、sigmoid
    D、tanh

  55. 深度学习与机器学习算法之间的区别在于,深度学习过程中无需进行特征提取工作,也就是说,我们建议在进行深度学习过程之前要首先完成特征提取的工作。这种说法是错误的

  56. 若输入x1=1,x2=0,对应的权值分别为0.5,0.5,则经过过sign函数后的值是多少?( )
    A、0
    B、1

  57. 在一个神经网络中,下面哪种方法可以用来处理过拟合?( )
    以上都可以
    分批归一化
    正则化
    dropout

  58. 一个完成的神经网络程序的步骤是( )
    1 定义损失函数,选择反向传播的优化算法
    2 定义神经网络的前向传播的结果
    3 生成会话,训练数据
    A、2 1 3
    B、1 3 2
    C、2 3 1
    D、1 2 3

  59. 在一个神经网络中,知道每一个神经元的权重和偏差是最重要的一步。如果知道了神经元准确的权重和偏差,便可以近似任何函数,但怎么获知每个神经的权重和偏移呢( )
    赋予一个初始值,然后检查跟最佳值的差值,不断迭代调整权重
    搜索每个可能的权重和偏差组合,直到得到最佳值
    以上都不正确
    随机赋值

  60. 下列哪一项在神经网络中引入了非线性?( )
    以上都不正确
    修正线性单元(ReLU)
    随机梯度下降
    卷积函数

  61. 下列的哪种方法可以用来降低深度学习模型的过拟合问题?( )
    1 增加更多的数据
    2 使用数据扩增技术(data augmentation)
    3 使用归纳性更好的架构
    4 正规化数据
    5 降低架构的复杂度
    A、1,2,3
    B、1,4,5
    C、1,3,4,5
    D、所有都可以

  62. 增加卷积核的大小对于改进卷积神经网络的效果是必要的吗?( )
    没听说过

    不知道

  63. 当数据太大而不能同时在RAM中处理时,哪种梯度技术更有优势?( )
    全批量梯度下降(Full Batch Gradient Descent )
    随机梯度下降(Stochastic Gradient Descent)

  64. 下图中,红色曲线表示关于深度学习算法中每个时期的训练精度。绿色和蓝色曲线都表示验证的准确性。哪条曲线表示过拟合overfitting?( )
    神经网络与深度学习期末考试满分过题库!_第12张图片
    蓝色曲线
    绿色曲线

  65. 下列有关LSTM的细胞状态正确的是。()
    LSTM决定从细胞状态中输出什么信息
    LSTM决定从细胞状态中丢弃什么信息
    LSTM决定什么信息增加到细胞状态中
    以上都是

  66. 假定你在神经网络中的隐藏层中使用激活函数 X。在特定神经元给定任意输入,你会得到输出「-0.0001」。X 可能是以下哪一个激活函数?( )
    以上都不是
    sigmoid
    ReLU
    tanh(x)

  67. 当在卷积神经网络中加入池化层(pooling layer)时,变换的不变性会被保留,是吗?( )
    看情况
    不知道

  68. 在一个简单的MLP模型中,输入层有8个神经元,隐藏层有5个神经元,输出层有1个神经元。隐藏输出层和输入隐藏层之间的权重矩阵的大小是多少( )
    [5×1],[8×5]
    [5×8],[5×1]
    [1 X 5],[5 X 8]
    [8×5],[1×5]

对任何层1和层2之间的权重的大小由[层1中的节点X 2层中的节点]

  1. 当训练一个神经网络来作图像识别任务时,通常会绘制一张训练集误差和交叉训练集误差图来进行调试。
    神经网络与深度学习期末考试满分过题库!_第13张图片
    在上图中,最好在哪个时间停止训练?( )
    A
    B
    C
    D
  2. 下列哪个神经网络结构会发生权重共享?( )
    循环神经网络
    卷积神经网络
    全连接神经网络
    A和B
  3. 对于二元分类问题,您会选择以下哪种架构?( )
    神经网络与深度学习期末考试满分过题库!_第14张图片
    神经网络与深度学习期末考试满分过题库!_第15张图片
    都不是
    1
    2
    任何一个
  4. 对于一个图像识别问题(在一张照片里找出一只猫),下面哪种神经网络可以更好地解决这个问题?( )
    A. 卷积神经网络
    B. 感知机
    C.循环神经网络
    D.多层感知机
  5. 单层感知器能够实现异或问题的分类,这句话是错误的
  6. 前馈神经网络是指网络只能前向传播,不能后向传播,这句话是错误的
  7. 将Sigmoid激活函数改为ReLu,将有助于克服梯度消失问题?这句话是对的
  8. TensorFlow的说法哪些是正确的( )
    A TensorFlow是由谷歌在2015年年底推出的一款开源框架
    B TensorFlow是基于DistDelief进行研发的第二代人工智能系统,用来快速实现深度学习(DL)和卷积神经网络(CNN)等各种算法
    C TensorFlow名字描述了执行的原理:Tensor(张量)意味着N维数组,Flow(流)意味着基于数据流图的计算
    D 以上都是
  9. 下列有关单层感知器的说法错误的是?( )
    包含输入层、隐藏层和输出层
    能够解决“与门”操作
    “与门”的线性分割线的斜率有权值决定
    包含求和和激活操作
  10. 下列哪个不是自适应学习率优化器?()
    RMSDrop优化器
    梯度下降优化器
    Adam 优化器
    AdamGrad优化器
  11. CNN是卷积神经网络,它的关键层有哪些?( 12345
    1 输入层
    2 卷积层
    3 激活层
    4 池化层
    5 全连接层
  12. 下列有关全连接网络说法正确的是( ):
    每个神经元具有激活函数功能
    每一个神经元与下一层的神经元完全连接
    神经元之间不存在跨层连接
    以上都正确
  13. 一个循环神经网络可以被展开成为一个完全连接的、具有无限长度的普通神经网络,这种说法是正确的
  14. 有关数据的流向机制描述正确的是( )
    取出机制,即向模式中输入数据
    注入机制,即从模式中得到结果
    注入机制是feed,取出机制是fetch
    注入机制是fetch,取出机制是feed
  15. 混沌度(Perplexity)是一种常见的应用在使用深度学习处理NLP问题过程中的评估技术,关于混沌度,哪种说法是正确的?( )
    混沌度没什么影响
    混沌度越低越好
    混沌度对结果的影响不一定
    混沌度越高越好
  16. 如果增加多层感知机(Multilayer Perceptron)的隐藏层层数,分类误差便会减小。这种陈述正确是错误
  17. Sigmoid是神经网络中最常用到的一种激活函数,除非当梯度太大导致激活函数被弥散,这叫作神经元饱和。
    神经网络与深度学习期末考试满分过题库!_第16张图片
    这就是为什么ReLU会被提出来,因为ReLU可以使得梯度在正向时输出值与原始值一样。
    神经网络与深度学习期末考试满分过题库!_第17张图片
    这是否意味着在神经网络中ReLU单元永远不会饱和?()
    错的
    对的

你可能感兴趣的:(大数据,神经网络,深度学习)