深度学习测试题(1)

深度学习测试题(1)_第1张图片

一、单选题

  1. 神经网络的“损失函数”(Loss fuction)衡量的是()

    A.预测值与真实值之间的差距

    B.训练集与测试集之间的差距

    C.dropout损失的信息量

    D.pooling损失的信息量

  2. 函数f(x)=1/(1+e^(-x))的导数在x>∞的极限是()

    A.1      B.0     C.0.5   D.∞

  3. 函数f(x)=ln(1+e^x)的二阶导数在x=0处的值是()

    A.0.25    B.0.5     C.1   D.0

  4. 在反向传播的过程中,首先被计算的变量()的梯度,之后将其反向传播。

    A.连接权重    B.损失函数     C.激活函数    D.特征映射

  5. 卷积神经网络VGG16名称中16指的是()

   A.论文发表于2016年

   B.网络总共有16层

   C.网络有16层的参数需要训练

  D.VGG发表的第16代网络

 6.keras当中,想要在模型中加入32尺寸为3*3的卷积核,并设置整流线性单    元激活函数,相应的Python语句是()

 A.model.add(Con2D(32,3,activation='relu'))

 B.model.add(Con2D(3,32,activation='relu'))

 C.model.add(Con2D(32,3,activation='sigmoid'))

 D.model.add(Con2D(32,3,activation='tanh'))

7.Keras中想要在模型中加入尺寸为2*2的最大池化层,相应的Python语句是()

A.model.add(MaxPool2D(2))

B.model.add(AvgPool2D(2))

C.model.add(AvgPool2D[2])

D.model.add(MaxPool2D[2])

8. 在神经网络中,“梯度消失”问题的主要来源是()

A.被Dropout丢弃

B.被Pooling丢弃

C.梯度为负数

D.梯度趋近于零

二、多选题

  1. 神经网络中参数极多,常用的初始化方法有哪些?

    A.全零初始化    B.随机初始化    C.加载预训练模型    D.使用深度信念网络

  2. 人工智能网络的常用激活函数有()

    A.sigmond    B.tanh    C.sinh    D.relu   E.cos

  3.对于神经网络,以下哪些是超参数?

   A.神经网络的层数(number of layers)

   B.神经网络的学习率(learning rate)

   C.神经网络的权重(weights)

   D.神经网络的偏置(bias)

  4.以关于梯度下降法叙述正确的有?

   A. 精度下降方法迭代时将沿着梯度方向进行更新

   B.梯度下降方法迭代时将沿着负梯度方向进行更新

   C.梯度方向是使得函数值下降最快的方向

   D.梯度方向是使得函数值上升降最快的方向

5.常用的池化层有哪些?

A.MaxPooling    B.AveragePooling     C.MinPooling   D.MedianPooling

6.Keras中想要引入Dropout,每次只让四分之三的神经元参与训练,相应的Python语句是()

A.model.add(Dropout(0.25))

B.model.add(Dropout(0.75))

C.model.add(Dropout(0.5))

D.model.add(Dropout(0.333))

7.相对于普通的神经网络,循环神经网络(RNN)的“循环”主要体现在()

A.训练过程中的反向传播次数更多

B.训练经过一定轮次之后将参数归零

C.深层节点的输出会反过来影响浅层节点

D.每个节点自循环

答案解析见下期!

你可能感兴趣的:(深度学习测试题(1))