《动手学》:卷积神经网络基础_课后作业

卷积神经网络基础

本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。

具体内容(附代码)链接:https://www.kesci.com/org/boyuai/project/share/5b7cfb4503c69f29

代码讲解视频链接:伯禹学习平台


选择题

1.

假如你用全连接层处理一张的彩色(RGB)图像,输出包含1000个神经元,在使用偏置的情况下,参数数量是:

A.65536001

B.65537000

C.196608001

D.196609000

答案:D

图像展平后长度为,权重参数和偏置参数的数量是 = 1966090003×256×256×1000+1000=196609000。

2.

假如你用全连接层处理一张的彩色(RGB)图像,卷积核的高宽是,输出包含10个通道,在使用偏置的情况下,这个卷积层共有多少个参数:

A.90

B.100

C.280

D.300

答案:C

输入通道数是3,输出通道数是10,所以参数数量是。

3.

conv2d = nn.Conv2d(in_channels=3, out_channels=4, kernel_size=3, padding=2),输入一张形状为的图像,输出的形状为:

A.

B.

C.

D.

答案:C

输出通道数是4,上下两侧总共填充4行,卷积核高度是3,所以输出的高度是,宽度同理可得。

4.

关于卷积层,以下哪种说法是错误的:

A.卷积可以看作是通道维上的全连接

B.某个二维卷积层用于处理形状为的输入,则该卷积层无法处理形状为的输入

C.卷积层通过填充、步幅、输入通道数、输出通道数等调节输出的形状

D.两个连续的卷积核的感受野与一个卷积核的感受野相同

答案:B

对于高宽维度,只要输入的高宽(填充后的)大于或等于卷积核的高宽即可进行计算

5.

关于池化层,以下哪种说法是错误的:

A.池化层不参与反向传播

B.池化层没有模型参数

C.池化层通常会减小特征图的高和宽

D.池化层的输入和输出具有相同的通道数

答案:A

选项A:池化层有参与模型的正向计算,同样也会参与反向传播

选项B:池化层直接对窗口内的元素求最大值或平均值,并没有模型参数参与计算

你可能感兴趣的:(《动手学》:卷积神经网络基础_课后作业)