课程链接:人工智能实践:Tensorflow笔记
课程源码:https://pan.baidu.com/s/19XC28Hz_TwnSQeuVifg1UQ
提取码:mocm
课件及笔记:http://note.youdao.com/s/V3qzP0XX
课程概述:课程梳理出Tensorflow2搭建优化神经网络的八股,带你逐步完善代码,实现图像识别与股票预测。课程以录像形式讲解知识点,以录屏形式分析源代码,通过助教的Tensorflow笔记实现回顾与扩展。内容包括:深度学习、神经网络的基本概念原理和代码实现示例。
说明:以上资源全来自课程,若有侵权,联系删。
1单选(2分)
该张量的维度是
[[ 1.3688478 1.0125661 ]
[ 0.17475659 -0.02224463]]
A.(2,1)
B.(4,1)
C.(1,2)
D.(2,2)
正确答案:D
2多选(2分)
人工智能主流的三个学派是什么?
A.行为主义
B.符号主义
C.计算主义
D.连接主义
正确答案:ABD
3判断(2分)
以下语句实现了损失函数loss 分别对可训练参数w1和b1求偏导数,并将计算结果保存到grads列表中。
with tf.GradientTape() as tape:
前向传播过程计算y
计算总loss
grads = tape.gradient(loss, [ w1, b1 ])
正确答案:✔
4判断(2分)
设计神经网络的步骤包括:准备数据、搭建网络、优化参数、应用网络。
正确答案:✔
5判断(2分)
神经网络可以让计算机具备感性思维,能实现图像识别、趋势预测。
正确答案:✔
1单选(2分)
在某个三分类问题中,已知真实标签y_=(0, 0, 1),神经网络预测值分别为y1=(0.51, 0.32, 0.17),y2=(0.22, 0.73, 0.05),y3=(0.15, 0.17, 0.68),y4=(0.04, 0.03, 0.93),哪个预测值更接近真实标签?
A.y2
B.y1
C.y3
D.y4
正确答案:D
2单选(2分)
tf.nn.relu([[-2., 1.], [0., 3.]])的计算结果是哪个?
A.tf.Tensor([ [0. 1.] [0. 3.] ], shape=(2,2), dtype=float32)
B.tf.Tensor([ 0. 1. 0. 3.], shape=(4,), dtype=float32)
C.tf.Tensor([ [-2. 1.] [0. 3.] ], shape=(2,2), dtype=float32)
D.tf.Tensor([ -2. 1. 0. 3.], shape=(4,), dtype=float32)
正确答案:A
3单选(2分)
下列哪一项是均方误差损失函数的代码实现?
A.-tf.reduce_sum(labels * tf.math.log(tf.nn.softmax(logits)), axis=1)
B.tf.reduce_mean(tf.abs(y_true-y_pred))
C.tf.reduce_mean(tf.square(y_true - y_pred))
D.-tf.reduce_sum(y_true * tf.math.log(y_pred))
正确答案:C
4多选(2分)
解决过拟合问题的方法有:
A.增加网络参数
B.增大训练集
C.采用正则化
D.减小正则化参数
正确答案:BC
5多选(2分)
下列属于神经网络优化器的有?
A.RMSProp
B.SGD
C.Adam
D.AdaGrad
正确答案:ABCD
1判断(2分)
本课中搭建神经网络六步法包括如下步骤:
1、import
2、train, test
3、Sequential / Class
4、model.compile
5、model.fit
6、model.summary
正确答案:✔
2单选(2分)
使用Sequential()函数搭建神经网络训练MNIST数据集的代码为:
model = tf.keras.models.Sequential([
tf.keras.layers.Flatten(),
tf.keras.layers.Dense(128, activation=‘relu’),
tf.keras.layers.Dense(10, activation=‘softmax’)])
请问使用model.summary()打印网络结构和参数统计中,Total params的数目为?
A.100480
B.1280
C.101770
D.101632
正确答案:101770
解析: 第一层:784128+128=100480
第二层:12810+10=1290
共计:101770
3单选(2分)
以下数据为训练过程中某个epoch的最终输出,其中最能直观有效反映网络准确度的数据是?
60000/60000 [==============================]
4s 68us/sample
loss: 0.2916
sparse_categorical_accuracy: 0.8920
val_loss: 0.3387
val_sparse_categorical_accuracy: 0.8770
A.0.2916
B.0.8920
C.0.3387
D.0.8770
正确答案:0.8770
解析: D、测试集准确率可以更好表征网络效果
4单选(2分)
如果标签以数值形式给出,模型推理结果以概率形式给出,则model.compile()函数中metrics参数应选择哪一项?
A.‘sparse_categorical_crossentropy’
B. ‘accuracy’
C.‘categorical_accuracy’
D.‘sparse_ categorical_accuracy’
正确答案:‘sparse_ categorical_accuracy’
解析: D、Metrics告知网络评测指标
Accuracy表示,y_和y都以数值形式给出 比如鸢尾花分类标签是 第1类鸢尾花 用数值 1 表示 网络输出结果也是 第1类鸢尾花 用 数值1表示 使用 字符串accuracy
categorical_accuracy表示 y_和y都是以独热码或概率分布形式给出 比如鸢尾花分类标签是 第1类鸢尾花 用 0 10 的独热码形式给出 网络输出结果是 第1类鸢尾花 用概率分布0.256 0.695 0.048表示 要使用字符串categorical_accuracy
sparse_categorical_accuracy 表示 y_是以数值形式给出,y以独热码形式给出 比如鸢尾花分类标签是 第1类鸢尾花 用数值1 表示 网络输出结果是 概率分布0.256 0.695 0.048使用字符串 sparse_categorical_accuracy
我们的例子都 以数值形式给出标签,以概率分布形式表示输出 所以应该 选用sparse_categorical_accuracy作为评测指标
5多选(2分)
以下关于MNIST数据集和Fashion_mnist数据集描述正确的是?
A.MNIST数据集一共包括7万张图片,其中6万张用于训练,1万张用于测试。
B.每张图片包括1024(32×32)个像素点。
C.MNIST数据集是为0到9的手写数字数据集。
D.Fashion_mnist数据集中的图片被分为20类。
正确答案:AC
1单选(2分)
数据增强函数ImageDataGenerator()的输入维度是多少?
A.1
B.2
C.3
D.4
正确答案:D
2单选(2分)
import numpy as np
np.set_printoptions( )
np.set_printoptions的括号内填写什么内容,可以保证print所有内容都明文显示?
A.threshold=1
B.precision=6
C.threshold=9
D.threshold=np.inf
正确答案:D
3单选(2分)
fashion_mnist数据集的规模是多少?训练集(),测试集()。
A.60000,60000
B.60000 10000
C.10000 60000
D.10000 10000
正确答案:B
4判断(2分)
本讲中的功能扩展模块包括自制数据集、数据增强、断点续训、参数提取、acc/loss可视化
正确答案:✔
5判断(2分)
如果训练集的准确率高,那么测试集的准确率也一定高。
正确答案:✔
1单选(2分)
已知两层3×3的卷积核与一层5×5的卷积核具有相同的感受野,那么前者(3×3)和后者(5×5)的参数量和计算量是什么关系(特征图尺寸为32)?
A.前者参数量小、后者计算量更小
B.前者计算量小、后者参数量更小
C.前者的参数量和计算量都更小
D.后者的参数量和计算量都更小
正确答案:C
2单选(2分)
在批标准化(BN)操作中,如果batch size大小为32,特征图深度为16,那么该BN层的总参数以及可训练参数个数分别为:
A.256,128
B.128,64
C.64,32
D.32,16
正确答案:B
3单选(2分)
卷积神经网络中常用的卷积层、激活层、BN层,它们最常见的顺序是怎样的?
A.卷积层→BN层→激活层
B.卷积层→激活层→BN层
C.BN层→卷积层→激活层
D.激活层→卷积层→BN层
正确答案:A
4单选(2分)
在ResNet的残差结构中,会涉及到特征的相加操作,即H(x) = F(x) + x,该操作对F(x)和x的维度(H×W×C)有什么要求?
A.特征图的尺寸(H×W)相同即可
B.特征图的通道数(C)相同即可
C.特征图的尺寸和通道数必须完全相同
D.特征图的尺寸和通道数都不必相同
正确答案:C
5单选(2分)
本课程中搭建卷积神经网络的八股是:
A.CBAPD
B.Conv2D
C.CBA
D.PD
正确答案:A
1单选(2分)
在RNN前向传播过程中按时间展开,记忆体状态信息ht、参数矩阵和两个偏置项是变化的还是不变的?
A.三者都固定不变;
B.三者都随时间刷新变化;
C.ht和参数矩阵随时间刷新变化、偏置项固定不变;
D.ht随时间刷新变化、参数矩阵和偏置项固定不变;
2单选(2分)
在tf.keras.layers.SimpleRNN()中,记忆体个数、return_sequences=False分别代表什么含义:
A.记忆体个数代表RNN层数、return_sequences=False代表返回最后时间步的输出值ht;
B.记忆体个数代表RNN循环核中记忆体的个数、return_sequences=False代表返回全部时间步的输出ht;
C.记忆体个数代表RNN循环核中记忆体的个数、return_sequences=False代表返回最后时间步的输出值ht;
D.记忆体个数代表RNN层数、return_sequences=False代表返回全部时间步的输出ht;
3单选(2分)
对abcde这几个字母进行独热编码,共需要几位数字?
A.3
B.5
C.4
D.2
4单选(2分)
关于tf.keras.layers.Embedding(词汇表大小,编码维度),下列表述错误的是?
A.词汇表大小:编码一共要表示多少个单词;
B.输出维度:三维张量[送入样本数,循环核时间展开步数,编码维度]
C.输入维度:二维张量[送入样本数,编码维度];
D.编码维度:用几个数字表达一个单词;
5单选(2分)
关于LSTM、GRU,下列说法错误的是?
A.GRU中ht表示短期记忆;
B.LSTM中Ct表示长期记忆;
C.LSTM中ht表示短期记忆;
D.GRU中有两个门,LSTM有三个门;