李宏毅机器学习课程自测练习题

暂停更新
Last Modified 2022.1.7 Fri 22:27


目录(计划包含以下内容):

  • 简介
  • 线性分类与感知机
  • 数学基础
  • 卷积神经网络
  • 循环神经网络
  • 自注意力机制
  • Transformer
  • 自监督学习
  • 自编码器
  • 对抗生成网络
  • 可解释AI与对抗攻击
  • 领域自适应
  • 深度强化学习

I. 序言

1. 下列哪种方法可以用来减小过拟合
A. 更多的训练数据
B. L1 正则化
C. L2 正则化
D. 减小模型的复杂度


2. 对于PCA说法正确的是
A. 我们必须在使用PCA前规范化数据
B. 我们应该选择使得模型有最大variance的主成分
C. 我们应该选择使得模型有最小variance的主成分
D. 我们可以使用PCA在低维度上做数据可视化


3. 下列方法中,可以用于特征降维的方法包括
A. 主成分分析 PCA
B. 线性判别分析 LDA
C. AutoEncoder
D. 矩阵奇异值分解 SVD
E. 最小二乘法 LeastSquares


4. 训练误差会降低模型的准确率,产生欠拟合,此时如何提升模拟拟合度
A. 增加数据量
B. 特征工程
C. 减少正则化参数
D. 提高模型复杂度


5. 下面关于无监督学习描述正确的是
A. 无监督算法只处理“特征”,不处理“标签”
B. 降维算法不属于无监督学习
C. K-meas算法和SVM算法都属于无监督学习
D. 以上都不对


6. 在一个神经网络里,知道每一个神经元的权重和偏差是最重要的一步,如果以某种方法知道了神经网络准确的权重和偏差,你就可以近似任何函数,实现这个最佳的方法是什么
A. 随机赋值,祈祷它们是正确的
B. 搜索所有权重的偏差的组合,直到得到最佳值
C. 赋予一个初始值,通过检查跟最佳值的差值,然后迭代更新权重
D. 以上都不是


7. 关于神经网络与深度学习的关系表述不正确的是
A. 深度学习的概念源于人工神经网络的研究
B. 含有多个隐层的神经网络算法就是一种深度学习算法
C. 单层神经网络也是深度学习的一种
D. 卷积神经网络属于深度学习的一种


8. 人工获得声音的特征与深度学习获得特征相比,以下哪个说法是正确的
A. 人获得的声音特征一般更好,可解释性性强
B. 通过人工和卷积神经网络结合的方式获得特征综合性能更好
C. 深度学习直接处理声音波形数据获得的特征更全面,因此对声音的分类效果可能比较好
D. 声音的特征可以用卷积神经网络直接处理时域信号就可以获得较好的性能


9. 有关声音信号的处理,以下哪些说法是正确的
A. 对于一维的声音序列或二维的频谱图,都可以使用卷积神经网络进行特征提取,学习相邻帧的关系等
B. 与图像不同,声音信号是一维的序列数据,通过FFT等频域转换为二维频谱,即可用卷积进行分类
C. 对于声音数据,可以先通过CNN来进行高维特征的提取,再使用RNN对时间相关性进行建模
D. 在声音处理中,深度神经网络的低层可以提取一些声音的特征,而高层提取类别间的判别信息


10. 下面哪个不是影响卷积神经网络性能的参数
A. 正则化系数
B. 填充的大小(padding)
C. 激活函数
D. 输入图片的清晰度


11. 下面哪种算法一般不适合做微博用户的情感分析
A. 编码解码器
B. 卷积神经网络
C. 朴素贝叶斯
D. 长短期记忆网络


12. 下面使用深度学习做情感分析的说法错误的是哪个
A. 使用循环神经网络进行情感分析时,每个时刻的输入是句子中词的编码,最后一个时刻才有输出,即情感类别
B. 卷积神经网络也能提取文本的特征,实现文本情感的分类
C. 当检验样本与训练样本有比较大的差别时,即使使用深度学习的算法,分类效果往往也不理想
D. 情感分析是一个分类问题,不需要人工标注样本


13. 下面哪项不是编码解码器的功能
A. 银行客户分组
B. 图像信息加密
C. 对诗(给上半句对下半句)
D. 图像压缩传输


14. 下面哪种结果不是利用机器学习算法从数据中得到的
A. 神经网络
B. 常识
C. 规则
D. 回归模型


15. 下面有关神经网络的说法,错误的是
A. 均方差损失函数是神经网络常用的一种代价函数(损失函数)
B. 神经网络不同层次的神经元可以使用不同的激活函数
C. 神经网络神经元的输出都是传给其他神经元,不能再反馈回来
D. 神经网络的训练主要是针对神经元之间的权重和神经元的偏置进行一定的调整,使得代价函数极小化


16. 关于训练样本的描述中,正确的说法是哪个
A. 样本越少,模型的方差越大
B. 如果模型性能不佳,可增加样本多样性进行优化
C. 增加数据可以减少模型方差
D. 样本越多,模型训练越快,性能越好


17. 以下哪种问题不适合使用深度学习解决
A. 银行信用卡客户欺诈检测
B. 人脸识别
C. 自动导播语音合成
D. 机器人写诗


18. 有关人工智能、深度学习和机器学习的关系,以下哪个认识是错误的
A. 深度学习与机器学习是相对独立的技术
B. 深度学习是处理计算机视觉、听觉和文字的有效机器学习技术,促进了人工智能的应用和发展
C. 深度学习算法和传统的机器学习算法构成了机器学习理论体系
D. 机器学习是人工智能的核心技术之一,也是实现人工智能的重要基础


19. 有关深度学习的说法,哪个是正确的
A. 深度学习的基础是神经网络,因此深度学习算法基本可以使用梯度下降法
B. 深度学习比较适合处理有大量样本的视频、图像、声音、文本等多模态数据的分析,这些数据的分析需要人工进行特征提取,这是与传统的机器学习不同的
C. 对于分类问题,深度学习算法一定优于传统的机器学习算法
D. 深度学习可以解决任意的机器学习问题


20. ​深度学习算法的三要素是指以下哪些方面
A. 模型
B. 数据
C. 优化算法
D. 学习准则


21. 有关深度学习的不足,以下哪些看法是正确的
A. 深度学习算法对数据量的要求一般都比较高,当样本不足时往往效果不好
B. 深度学习算法可以获得图像、文本和声音等数据的特征,但难以解释这些特征
C. 深度神经网络一般要优化的参数众多,因此对计算资源的要求比较高
D. 深度神经网络的结构一般比较复杂,训练速度快


22. 下面关于深度学习网络结构的描述,正确的说法是哪个
A. 在不同的网络结构中,层数与神经元数量正相关,层数越多,神经元数量一定越多
B. 深层网络结构中,学习到的特征一般与神经元的参数量有关,也与样本的特征多寡相关
C. 网络的层次越深,其训练时间越久,5层的网络要比4层的训练时间更长
D. 网络结构的层次越深,其学习的特征越多,10层的结构要优于5层的


23. 计算智能和感知智能的关键技术已经取得较大突破,弱人工智能应用条件基本成熟,但是以下哪个算法尚未突破,前景仍不明朗
A. 视频智能
B. 语音智能
C. 触觉智能
D. 认知智能


II. 线性分类与感知机

1. 在回归模型中,下列哪一项在权衡欠拟合(under-fitting)和过拟合(over-fitting)中影响最大
A. 多项式阶数
B. 更新权重w时,使用的是矩阵求逆还是梯度下降
C. 使用常数项


2. 如果我们说“线性回归”模型完美地拟合了训练样本(训练样本误差为零),则下面哪个说法是正确的
A. 测试样本误差始终为零
B. 测试样本误差不可能为零
C. 以上答案都不对


3. 以下关于逻辑回归的说法不正确的是
A. 逻辑回归必须对缺失值做预处理
B. 逻辑回归要求自变量和目标变量是线性关系
C. 逻辑回归比决策树,更容易过度拟合
D. 逻辑回归只能做2值分类,不能直接做多值分类


III. 数学基础

1. 下面梯度下降说法错误的是
A. 随机梯度下降是梯度下降中常用的一种
B. 梯度下降包括随机梯度下降和批量梯度下降
C. 梯度下降算法速度快且可靠
D. 随机梯度下降是深度学习算法当中常用的优化算法之一


2. 机器学习训练时,Mini-Batch 的大小优选为2个的幂,如 256 或 512。它背后的原因是什么
A. Mini-Batch 为偶数的时候,梯度下降算法训练的更快
B. Mini-Batch 设为2的幂,是为了符合CPU、GPU的内存要求,利于并行化处理
C. 不使用偶数时,损失函数是不稳定的
D. 以上说法都不对


3. 下列说法错误的是
A. 当目标函数是凸函数时,梯度下降算法的解一般就是全局最优解
B. 进行 PCA 降维时,需要计算协方差矩阵
C. 沿负梯度的方向一定是最优的方向
D. 利用拉格朗日函数能解带约束的优化问题


4. 关于 L1、L2 正则化下列说法正确的是
A. L2 正则化能防止过拟合,提升模型的泛化能力,但 L1 做不到这点
B. L2 正则化技术又称为 Lasso Regularization
C. L1 正则化得到的解更加稀疏
D. L2 正则化得到的解更加稀疏


5. 有N个样本,一半用于训练,一半用于测试。若增大N值,则训练误差和测试误差之间的差距会如何变化
A. 增大
B. 减小


6. 下列关于极大似然估计(Maximum Likelihood Estimate,MLE),说法正确的是
A. MLE 可能并不存在
B. MLE 总是存在
C. 如果 MLE 存在,那么它的解可能不是唯一的
D. 如果 MLE 存在,那么它的解一定是唯一的


7. 有关神经网络训练时使用的学习率参数说法错误的是
A. 学习率可以随着训练误差动态调整效果更好。
B. 学习率过大更容易导致训练陷入局部极小值。
C. 学习率可以与其他网络参数一起训练,对降低代价函数是有利的。
D. 网络训练时刚开始学习率可以大一些,以便提高学习速度,随后应减少学习率,以免引起学习震荡。

8. 下面哪个选项不是神经网络训练过程中过拟合的防止方法
A. dropout
B. 提前终止
C. 增加学习率
D. L2正则化


9‍. 有关神经网络参数初始化的说法错误的是哪个
A. 权重和偏置都可以取全零初始化
B. 合适的权重初始化可以加快神经网络的训练和效果
C. 使用正态分布初始化,但权重取太大或太小都会影响网络的训练
D. Xavier初始化可以减少梯度消失


10. s i g m o i d sigmoid sigmoid激活函数 y = 1 / ( 1 + e − x ) y=1/(1+e^{-x}) y=1/(1+ex)的导数是以下哪一个
A. 1 − y 2 1-y^2 1y2
B. 1 − l n x 1-lnx 1lnx
C. y ( 1 − y ) y(1-y) y(1y)
D. 1 + l n x 1+lnx 1+lnx


11. 梯度消失问题的认识哪个是正确的
A. 隐层的权重取值太小不容易导致梯度消失
B. 神经元处于Sigmoid等激活函数的饱和区工作
C. 隐藏层神经元的个数太多导致
D. 隐藏层太多时,可能导致靠近输入层的权重的偏导数太小而得不到更新


12. ​有关数据预处理对神经网络的影响,以下哪个说法是错误的
A. BP神经网络的输入属性不需要筛选,因为网络本身有特征获取能力
B. 连续性属性可以采用最小最大值归一化,减少数值过大和不同属性量纲不同对网络的影响
C. 对于非数值型的属性,可以使用独热(onehot)编码或模糊化转换成数值
D. 预处理与否对神经网络的训练速度和分类准确率影响比较大


13. 下面关于单个神经元输入输出正确的是哪个
A. 一个神经元只能拥有一个输入但可以有多个输出
B. 一个神经元只能拥有一个输入和一个输出
C. 一个神经元可以有多个输入和多个输出
D. 一个神经元可以拥有多个输入但只有一个输出


14. 以下不属于超参的是哪个因素
A. mini-batch的样本数
B. 学习步长(率)和冲量引子
C. 激活函数
D. 输出编码形式


15. 有关神经网络训练过程的说法,正确的是
A. 分析问题确定后,神经网络合适的结构就可以确定
B. 神经网络权重的初始化大小会对网络的训练结果影响
C. 使用增加训练次数的方法不一定可以减少代价函数的取值
D. 对神经网络训练的优化需要综合考虑激活函数、网络结构、权重更新方法等多种因素


16. 激活函数通常具有以下哪些性质
A. 可微性
B. 单调性
C. 计算简单
D. 非线性


17. 关于模型参数(权重值)的描述,正确的说法是哪些
A. 训练好的神经网络模型存储于一定结构的神经元之间的权重和神经元的偏置中
B. 在训练神经网络过程中,参数不断调整,其调整的依据是基于损失函数不断减少
C. 模型参数量越多越好,但没有固定的对应规则
D. 每一次Epoch都会对之前的参数进行调整,迭代次数越多,损失函数一般越小


18. 减少神经网络过拟合的说法,以下哪些是正确的
A. 通过增加数据扰动的数据增强增加了神经网络的过拟合
B. 在神经网络训练过程中类似dropout减少神经元或相关链接权的数量
C. 通过正则化可以减少网络参数的取值或个数,一定程度可能减少过拟合
D. 利用L1或L2正则化可以使权重衰减,从而一定程度上减少过拟合


19. 有关数据增强的说法正确是哪些
A. 数据增强会增加样本的个数,因此可能会减少过拟合
B. 对于手写体的识别,对样本的反转、旋转、裁剪、变形和缩放等操作会提高神经网络的识别效果
C. 对于分类问题,数据增强是减少数据不平衡的一种方法
D. 数据增强带来了噪声,因此一般会降低神经网络模型的效果


20. 关于深度学习的说法正确的是哪个
A. 梯度下降法实现简单,当目标函数是凸函数时,可基于二阶收敛快速到达目标值
B. 与Sigmoid函数相比,Relu较不容易使网络产生梯度消失
C. 用Sigmoid激活函数时,如果权重初始化较大或较小时,容易出现梯度饱和梯度消失,可选用Tanh函数改进
D. 批规范化(batch normalization)是在不引入新参数的情况下保证每一层网络的输入具有相同的分布


21. 下面关于池化的描述中,错误的是哪个
A. 池化在CNN中可以减少较多的计算量,加快模型训练
B. 池化方法可以自定义
C. 池化的常用方法包括最大化池化、最小化池化、平均化池化、全局池化
D. 在人脸识别中采用较多池化的原因是为了获得人脸部的高层特征


22. 对于神经网络而言,哪个不是输入的标准化的作用
A. 降低网络的计算量
B. 减少不同输入特征数据量纲的差别
C. 使得第一个隐层的输入不至于过大或过小,提高网络训练的收敛速度
D. 减少网络的过拟合


​以下哪些方法能改进卷积神经网络的训练质量
A. dropout
B. 增加更多的隐层数,提高网络的深度,深度增大性能也会不断提升
C. 权重归一化
D. batch nomalization


IV. 卷积神经网络

1. 增加卷积核的尺寸,一定能提高卷积神经网络的性能
A. 正确
B. 错误


2. 以下关于卷积神经网络,说法正确的是
A. 卷积神经网络只能有一个卷积核
B. 卷积神经网络可以有多个卷积核,但是必须同大小
C. 卷积神经网络可以有多个卷积核,可以不同大小
D. 卷积神经网络不能使用在文本这种序列数据中


3. 下面关于CNN的描述中,错误的说法是哪个
A. 局部感知使网络可以提取数据的局部特征,而权值共享大大降低了网络的训练难度
B. SAME填充(padding)一般是向图像边缘添加0值
C. 卷积是指对图像的窗口数据和滤波矩阵做内积的操作,在训练过程中滤波矩阵的大小和值不变
D. 卷积核一般是有厚度的,即通道(channel),通道数量越多,获得的特征图(feature map)就越多


4. 下面哪种操作不能改善卷积网络训练的稳定性
A. 动态的学习步长调整,例如Adam
B. 冲量项
C. 批归一化(batch normalization)
D. 提高mini-batch中的样本个数


5. 有关卷积核的大小对卷积神经网络的影响,哪个说法是正确的
A. 小的卷积核级联的效果等价于大卷积核的效果,但权重等参数会大大减少
B. 大的卷积核对应的感受野比较大,更容易获得图像的特征
C. 过大的卷积核对应大量的参数,卷积神经网络不容易出现过拟合
D. 小的卷积核可以获得图像比较细致的特征,它们组合起来可能降低网络的分类准确率


6. 以下有关卷积神经网络的说法,哪些是错误的
A. 卷积核越大,即感受野越大,网络需要优化的参数越少,训练速度越快
B. 卷积核中的取值都是事先人工设计的,在网络的训练过程中不变化
C. 共享权重大大减少了参数的个数,降低了网络的复杂度
D. 通过增加卷积核的大小和通道的个数,可以提升卷积神经网络特征获取的能力


7. 有关通道的说法,哪些说法是正确的
A. 在卷积操作时,每个卷积核要对输入特征图的所有通道分别做卷积后求和,得到对应的新特征图
B. 卷积层的输入特征图的通道数和输出特征图的通道数是相同的
C. 通道数越多,获得的特征图越多,网络获得的特征越充分
D. 随着卷积网络深度的增加,一般使用更小的卷积核和更多的通道,兼顾训练速度和网络分类性能


8. 下面有关卷积神经网络的说法哪些是正确的
A. 卷积神经网络的输出层不一定用全连接网络,也可能得到比较好的性能
B. 在卷积神经网络中,卷积和池化的作用主要是分类,全连接层的作用主要是特征获取
C. 在特征图padding时,各方向的填充像素数不一定相同(不对称填充),也不一定补0
D. 卷积核的高和宽不一定是相等的,且一般大小取奇数


9. 下面关于池化的描述中,正确的的说法有哪些
A. 池化方法也可以自定义
B. 池化在CNN中没有增加可训练的参数,但减少较多的计算量,加快模型训练时间
C. 池化的常用方法包括最大化池化、最小化池化、平均化池化、全局池化
D. 在人脸识别中采用较多池化的原因是为了获得人脸部的高层特征


10. 在卷积网络中,卷积层的参数是卷积核和偏置,池化层没有参数,因此在误差反向传播时只要优化卷积层的参数
A. 对
B. 错


11. ‌GoogLeNet使用了全局平均池化替代全连接层,使网络参数大幅减少
A. 对
B. 错


V. 循环神经网络

1. 以下哪种情景不适合采用Seq2Seq模型
A. 车牌识别
B. 文本摘要
C. 语音识别
D. 机器写诗


2. 关于循环神经网络(RNN)描述正确的是
A. 可以用于处理序列数据
B. 不能处理可变长序列数据
C. 不同于卷积神经网络,RNN的参数不能共享
D. 隐藏层上面的unit彼此没有关联


3. 下面有关Seq2Seq模型的说法哪个是错误的
A. 引入注意力机制后,解码器不同时刻的输入对应的语义向量是相同的
B. 在无注意力机制的Seq2Seq模型中,语义向量c对解码器的输出作用是无差异的
C. 在Seq2Seq模型中,编码器和解码器可以使用不同的RNN模型
D. 在Seq2Seq模型中,语义向量c的作用拟合编码器不同输入的关系,也要拟合与解码器输出之间的映射


4. 在SeqSeq模型中,以下有关上下文向量(语义表示向量)C的说法错误的是哪个
A. 上下文向量中的元素需要当做网络参数训练得到
B. 上下文向量拟合了编码器的不同时刻输入对解码器输出的影响
C. 上下文向量是注意力机制实现的手段
D. 上下文向量把编码器和解码器组合成完整的Seq2Seq模型


5. 在使用SeqSeq模型实现机器翻译时,解码器的输入(非上下文向量部分)和输出之间的映射作用是以下哪一项
A. 拟合解码器输出词之间的语义关系
B. 拟合编码器输入和解码器输出之间的词序关系
C. 拟合解码器输出词之间的顺序关系
D. 拟合编码器输入和解码器输出之间的语义关系


6. 使用带注意力机制的Seq2Seq模型实现机器翻译时,把一句中文翻译成英语和法语时,解码器不同时刻对应的上下文向量是以下哪种情况
A. 不相同
B. 其他三个答案都错误
C. 不确定
D. 相同


7. 编码器使用双向LSTM的作用是以下哪项
A. 更好地拟合编码器输入和输出之间的语义关系
B. 更好地拟合编码器输入词之间的语义关系
C. 更好地拟合编码器输入词之间的次序
D. 更好地拟合编码器输入和输出之间的次序关系


‎8. Seq2Seq模型引入注意力机制后,解码器某个时刻的输入语义向量的权重直接影响因素是哪些
A. 编码器各个时刻隐单元的输出
B. 解码器该时刻的输出
C. 解码器上一时刻隐层的输出
D. 编码器的输入


9. 对于LSTM算法,注意力机制是要找出输入序列的哪些部分或元素与输出序列元素具有更强的相关性
A. 对
B. 错


10. Seq2Seq模型引入注意力机制后,编码器各个时刻输入对解码器某个时刻输出的影响程度可以用编码器各个时刻隐层输出与解码器上一个时刻的隐层输出计算
A. 对
B. 错


11. 使用带注意力机制的Seq2Seq模型实现机器翻译时,增加了训练时,但提升了翻译的准确度
A. 对
B. 错


‏12. Seq2seq 模型是一对多对多的RNN模型组合
A. 对
B. 错


13. 引入注意力机制后,Seq2Seq模型的上下文向量是对于解码器的不同时刻是不同的,但训练后是稳定不变的
A. 对
B. 错


VI. 自注意力机制

1. 在带有注意力机制的编码解码器中,以下哪个说法是正确的
A. 注意力模型中有无权重向量对解码器的输出影响不大
B. 在计算权重值时,与当前词越近,权重值越大
C. 注意力模型中编码器将输入信息编码成一个向量
D. 注意力模型中编码器将输入信息编码成一个权重向量


2. 在计算上下文向量时,使用了以下哪种函数
A. ReLU
B. Softmax
C. Sigmoid
D. Tanh


3. 在计算上下文向量时,使用了解码器各个时刻隐层的输出,而不是编码器的输入,以下哪个说法是正确的
A. 两种做法没什么区别
B. 可以把编码器的输入之间的语义关系与解码器的输出之间的语义关系更好地对应
C. 前者的做法效果不如后者
D. 可以把编码器的输入之间的时序关系与解码器的输出之间的时序关系更好地对应


4. 下面关于编码器和注意力机制的对比描述正确的说法有哪些
A. 使用注意力机制之后会增加计算量,但是性能水平能够得到提升
B. 引注意力机制后会减少编码器(RNN)和解码器(RNN)的长跨度依赖问题
C. 注意力机制的含义表示输出与输入之间的对应关系
D. 解码器强化了不同时刻输出之间的关系


VII. Transformer

1. Transformer 中哪一部分会用到masked attention
A. encoder
B. decoder
C. 都需要
D. 都不需要


VIII. 自监督学习


IX. 自编码器

1. 自编码器对样本进行变换得到的向量不一定能覆盖潜在空间任意的任意采样和插值
A. 对
B. 错


2. 自编码解码器需要与注意力机制结合起来才能更好地拟合输入和输出的关系
A. 对
B. 错


3. 下面有关编码解码器(自编码器)的说法,哪些是正确的
A. 自编码器用于数据压缩时时有损的
B. 自编码器可以用于数据去噪,即把含有噪声的样本还原
C. 自编码器属于非监督学习,不需要损失函数
D. 自编码器可以作为一种数据降维技术


4. 以下关于自编码器说法正确的是
A. 过完备的自编码器可能只会把输入拷贝到输出,没有学到任何有用的特征
B. 自编码器可以用于数据的降维与特征提取
C. 如果编码层比输入和输出层大,则该自编码器是欠完备自编码器
D. 自编码器可以学得如何将输入压缩成潜在空间表征


X. 生成对抗网络

1. 以下有关生成对抗网络的说法哪个是错误的
A. 生成器可以由Autoencoder实现
B. 生成器用来产生带有随机噪声的一定分布数据和真实样本数据的映射关系,判别器用来区别实际数据和生成器产生的数据
C. 生成器和判别器需要交替训练,不断增加两者的性能,直至达到某种博弈的平衡
D. 生成器和判别器的代价函数在训练过程中是同时优化的


2. 有关生成对抗网络(GAN)的代价函数,下面哪个说法是错误的
A. 通过交替训练判别器和生成器,不断提高两者的性能,使两者的性能达到某个平衡点
B. 生成器要最小化判别模型D的判别准确率,而判别器要尽量最大化真假分类准确率
C. 一般来说,GAN通过训练总能达到代价函数的极小值
D. 训练GAN要达到生成器和判别器的博弈平衡,因此GAN的代价函数需要综合考虑两者的性能


3. 下面哪种情况可能不能使用生成对抗网络实现
A. 将白天景观改成黑夜景观
B. 当图像分类样本不足时做数据增强
C. 机器人取名字
D. 将黑白照片改成彩色照片


4. 对于生成对抗网络(GAN)的训练,下面哪个说法是正确的
A. 判别器的判别能力开始训练时越强,GAN越容易训练
B. 生成器由一个前馈神经网络或反卷积深度网络实现,其目标是要使生成的图像与真实的样本一样
C. 如果判别器发生了过拟合,那么生成器可能会生成一起很奇怪的样本
D. 若生成器产生新样本依赖的随机噪声z与真实样本的数据分布差别很大,GAN训练会失效


5. 在DCGAN中,判别器的激活函数可以使用Leaky ReLU,而不采用Sigmoid的原因是以下哪个
A. 生成器的任务重,减少计算量
B. 防止判别器在训练过程中发生梯度消失,降低鉴别器的能力
C. 增加生成样本的多样性
D. 判别器的任务是分类,而不是生成假样本


6. 有关生成器和判别器的代价函数,以下哪个说法是错误的
A. 通过交替调整生成器和判别器的权重等参数,使得生成器和判别器的性能达到一种平衡状态
B. 通过一同调整生成器和判别器的权重等参数,达到两者总的代价函数平衡
C. 两者的代价函数是对抗性质的
D. 通过多轮训练,使鉴别器达到最大评判能力的情况下生成器的样本尽量让鉴别器分不开


7. 有关生成器和判别器的交叉熵代价函数,以下哪个说法是错误的
A. 当训练判别器时,希望对真实样本而言其输出越接近1越好
B. 当训练判别器时,希望对假样本而言其输出越接近0越好
C. 当训练生成器时,希望判别器的输出越逼近0越好
D. 当训练生成器时,希望判别器的输出越逼近1越好


‏8. 有关获得较高质量生成样本的隐向量z的说法,下面说法错误的是哪个
A. 通过样本的先验分布获得
B. 可以随机取值
C. 与真实样本的分布尽可能接近,避免使生成器倾向于逼近真实样本分布的某个狭窄部分
D. 可以通过例如无监督的学习方式获得隐向量的语义特征


‏9. 当最初生成器的样本分布与真实样本分布不一致时,以下哪个说法是错误的
A. 代价函数设计合理(例如使用了EM距离)可能稳定训练
B. 代价函数设计不合理(例如使用了KL散度)会出现训练不稳定的结果
C. 出现了训练成功的算法(例如WGAN)
D. 无法训练成功


10. 比较自编码器和生成对抗网络,以下哪个说法是错误的
A. 它们都是深度生成模型
B. 自编码器可以作为一个生成对抗网络使用
C. 对于与训练样本分布不同的数据,自编码器的输出会有别于训练样本;生成对抗网络会判别为假样本
D. 它们都可以用于数据增强


11. 增加DCGAN模型的训练稳定性可以采用以下哪些措施
A. 生成器和判别器使用BN(batch normalization)层
B. 使用卷积层代替池化层
C. 去除全连接层
D. 增加训练次数


XI. 可解释AI与对抗攻击


XII. 领域自适应


XIII. 深度强化学习

1. 下列哪一个不是强化学习的基本要素
A. 奖励函数
B. 环境模型
C. 监督信息
D. 价值函数


2. 下列哪一个是强化学习的算法
A. Deep-learning
B. Q-learning
C. Time-learning
D. Quick-learning


3. 强化学习更不适合用于以下哪种场合
A. 对动物进行识别
B. 网络游戏
C. 工业机器人拾取物品
D. 自动驾驶汽车


4. 下面有关策略的说法错误的是哪个
​A. 策略是从agent的状态到其在该状态下要采取的行为的映射
B. 策略都是确定性的,即某种状态下需要采取特定的行为
C. 采取不同的策略,会使agent得到不同的状态,对应不同的价值函数值
D. 策略定义了agent在给定状态下的行为准则


5. 下列哪些方法是常见解决分类模型之类别不平衡问题的方法
A. 欠采样
B. 过采样
C. 强化学习
D. 生成对抗网络


6. 下列说法正确的有哪些
A. 价值函数用于度量agent采取某种行为的影响
B. 奖励函数是根据agent动作价值函数能否改善agent的价值函数确定
C. 动作价值函数用来度量再某种状态中采取某种行动的好坏程度
D. 优势函数由动作价值函数、价值函数确定


7. 强化学习是一种强大的学习方法,不需要标记数据,因此它是非监督学习算法
A. 对
B. 错


8. 在估计状态值函数V时,我们可以采用蒙特卡洛(MC)方法和空间差分(TD)方法,那么关于两种方法的区别,下面描述正确的是
A. MC方法的方差较大
B. TD方法的方差较大
C. MC在训练的一开始可能存在估计不准确的问题
D. TD在训练的一开始可能存在估计不准确的问题


Ref

https://aistudio.baidu.com/aistudio/projectdetail/1824803

你可能感兴趣的:(杂文,划水)