E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
nndl
NNDL
作业11:优化算法比较
1.编程实现图6-1,并观察特征importnumpyasnpfrommatplotlibimportpyplotaspltfrommpl_toolkits.mplot3dimportAxes3D#https://blog.csdn.net/weixin_39228381/article/details/108511882deffunc(x,y):returnx*x/20+y*ydefpaint_
Perfect(*^ω^*)
·
2022-12-12 12:35
算法
python
NNDL
实验八 网络优化与正则化(3)不同优化算法比较
7.3不同优化算法的比较分析除了批大小对模型收敛速度的影响外,学习率和梯度估计也是影响神经网络优化的重要因素。神经网络优化中常用的优化方法也主要是如下两方面的改进,包括:学习率调整:通过自适应地调整学习率使得优化更稳定。AdaGrad、RMSprop、AdaDelta算法等。梯度估计修正:通过修正每次迭代时估计的梯度方向来加快收敛速度。动量法、Nesterov加速梯度方法等。本节还会介绍综合学习率
真不想再学了
·
2022-12-12 11:43
算法
python
深度学习
NNDL
实验八 网络优化与正则化(3)不同优化算法比较
NNDL
实验八网络优化与正则化(3)不同优化算法比较7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.1.3与TorchAPI对比,验证正确性
笼子里的薛定谔
·
2022-12-12 11:10
DL实验
算法
python
深度学习
NNDL
作业12:第七章课后题
习题7-1在小批量梯度下降中,试分析为什么学习率要和批量大小成正比读过的一篇论文:Oneweirdtrickforparallelizingconvolutionalneuralnetworks中,有这样一句话:Sinceonestepinlargemini-batchNshouldmatchtheeffectivenessofkaccumulativestepsinsmallmini-batch
笼子里的薛定谔
·
2022-12-12 11:07
DL实验
深度学习
人工智能
NNDL
作业12:第七章课后题
习题7-1:在小批量梯度下降中,试分析为什么学习率要和批量大小成正比.答:在小批量梯度下降中:令,则:因此我们要使得参数最优,则αK\frac{\alpha}{K}Kα为最优的时候的常数,故学习率要和批量大小成正比。习题7-2:在Adam算法中,说明指数加权平均的偏差修正的合理性(即公式(7.27)和公式(7.28)).答:在Adam算法中:因此当的时候:因此可以发现此时梯度消失,因此需要进行偏差
Perfect(*^ω^*)
·
2022-12-12 09:42
深度学习
神经网络
人工智能
NNDL
作业11:优化算法比较
目录1.编程实现图6-1,并观察特征2.观察梯度方向3.编写代码实现算法,并可视化轨迹4.分析上图,说明原理5.总结SGD、Momentum、AdaGrad、Adam的优缺点参考1.编程实现图6-1,并观察特征importnumpyasnpfrommatplotlibimportpyplotaspltfrommpl_toolkits.mplot3dimportAxes3D#https://blog
Stacey.933
·
2022-12-12 09:09
算法
python
numpy
NNDL
实验八 网络优化与正则化 (3)不同优化算法比较
目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验分别实例化自定义SimpleBatchGD优化器和调用torch.optim.SGDAPI,验证自定义优化器的正确性7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化
LzeKun
·
2022-12-12 09:35
算法
人工智能
NNDL
实验八 网络优化与正则化(3)不同优化算法比较
目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比7.3.4.1构建一个三维空间中的被优化函数【选做题】ref7.3不同优化算法的比较分析除了批大小
cdd04
·
2022-12-12 09:35
算法
深度学习
NNDL
实验八 网络优化与正则化(3)不同优化算法比较
目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比7.3.4.1构建一个三维空间中的被优化函数【选做题】总结参考7.3不同优化算法的比较分析开源项目
Stacey.933
·
2022-12-12 09:00
人工智能
深度学习
NNDL
作业12:第七章课后题
目录习题7-1在小批量梯度下降中,试分析为什么学习率要和批量大小成正比习题7-2在Adam算法中,说明指数加权平均的偏差修正的合理性习题7-9证明在标准的随机梯度下降中,权重衰减正则化和编辑正则化的效果相同.并分析这一结论在动量法和Adam算法中是否依然成立第七章总结ref习题7-1在小批量梯度下降中,试分析为什么学习率要和批量大小成正比在迷你批量梯度下降法中,批量大小(BatchSize)对网络
cdd04
·
2022-12-12 09:30
python
深度学习
循环神经网络(RNN)——1
总结学习
NNDL
(By邱锡鹏)在前馈神经网络中,信息的传递是单向的,这种限制虽然使得网络变得更容易学习,但在一定程度上也减弱了神经网络模型的能力。
大源阿良
·
2022-12-11 22:12
rnn
人工智能
深度学习
NNDL
作业12:第七章课后题
文章目录前言一、习题7-1在小批量梯度下降中,试分析为什么学习率要和批量大小成正比.二、习题7-2在Adam算法中,说明指数加权平均的偏差修正的合理性(即公式(7.27)和公式(7.28)).三、习题7-9证明在标准的随机梯度下降中,权重衰减正则化和L2正则化的效果相同.并分析这一结论在动量法和Adam算法中是否依然成立.L2正则化和权重衰减是一样的吗?总结前言这次写的很细,但是真的有点累,因为哥
别被打脸
·
2022-12-11 14:25
人工智能
深度学习
神经网络
算法
NNDL
作业12:第七章课后题
目录习题7-1在小批量梯度下降中,试分析为什么学习率要和批量大小成正比.习题7-2在Adam算法中,说明指数加权平均的偏差修正的合理性(即公式(7.27)和公式(7.28).习题7-9证明在标准的随机梯度下降中,权重衰减正则化和l2正则化的效果相同.并分析这一结论在动量法和Adam算法中是否依然成立.总结参考习题7-1在小批量梯度下降中,试分析为什么学习率要和批量大小成正比.小批量梯度下降中有:令
牛奶园雪梨
·
2022-12-11 13:16
python
开发语言
NNDL
实验八 网络优化与正则化(3)不同优化算法比较
文章目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比【选做题】总结参考7.3不同优化算法的比较分析除了批大小对模型收敛速度的影响外,学习率和梯度估
牛奶园雪梨
·
2022-12-11 13:42
算法
python
NNDL
作业11:优化算法比较
目录编程实现图6-1,并观察特征观察梯度方向编写代码实现算法,并可视化轨迹分析上图,说明原理(选做)1.为什么SGD会走“之字形”?其它算法为什么会比较平滑?2.Momentum、AdaGrad对SGD的改进体现在哪里?速度?方向?在图上有哪些体现?3.仅从轨迹来看,Adam似乎不如AdaGrad效果好,是这样么?4.四种方法分别用了多长时间?是否符合预期?5.调整学习率、动量等超参数,轨迹有哪些
白小码i
·
2022-12-11 12:19
算法
python
开发语言
NNDL
实验八 网络优化与正则化(3)不同优化算法比较
目录不同优化算法的比较分析优化算法的实验设定2D可视化实验简单拟合实验学习率调整AdaGrad算法RMSprop算法梯度估计修正动量法Adam算法不同优化器的3D可视化对比选做题参考不同优化算法的比较分析除了批大小对模型收敛速度的影响外,学习率和梯度估计也是影响神经网络优化的重要因素。神经网络优化中常用的优化方法也主要是如下两方面的改进,包括:学习率调整:通过自适应地调整学习率使得优化更稳定。Ad
白小码i
·
2022-12-11 12:19
算法
人工智能
NNDL
作业12:第七章课后题
习题7-1在小批量梯度下降中,试分析为什么学习率要和批量大小成正比.很明显可以看出,学习率要和批量大小成正比。批量大小越大,随机梯度的方差越小,引入的噪声也越小,训练也越稳定,因此可以设置较大的学习率,而批量大小较小时,需要设置较小的学习率,否则模型会不收敛,因此学习率随批量大小的增加而反应也增大,即成正比关系。习题7-2在Adam算法中,说明指数加权平均的偏差修正的合理性(即公式(7.27)和公
白小码i
·
2022-12-11 12:43
深度学习
神经网络
NNDL
实验八 网络优化与正则化(3)不同优化算法比较
文章目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.1.3与TorchAPI对比,验证正确性7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比【选做题】总结参考文章7.3不同优化算法的比较
辰 希
·
2022-12-11 11:17
算法
深度学习
人工智能
NNDL
作业12:第七章课后题
目录习题7-1在小批量梯度下降中,试分析为什么学习率要和批量大小成正比.习题7-2在Adam算法中,说明指数加权平均的偏差修正的合理性(即公式(7.27)和公式(7.28)).习题7-9证明在标准的随机梯度下降中,权重衰减正则化和l2正则化的效果相同.并分析这一结论在动量法和Adam算法中是否依然成立.总结习题7-1在小批量梯度下降中,试分析为什么学习率要和批量大小成正比.在小批量梯度下降中有:其
乳酸蔓越莓吐司
·
2022-12-11 11:45
算法
深度学习
人工智能
NNDL
实验八 网络优化与正则化(3)不同优化算法比较
目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.1.3与TorchAPI对比,验证正确性7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比【选做题】总结参考7.3不同优化算法的比较分析除了批大小对模型收敛速度
乳酸蔓越莓吐司
·
2022-12-11 11:42
算法
python
深度学习
NNDL
作业7:第五章课后题
目录习题5-2证明宽卷积具有交换性,即公式:习题5-3分析卷积神经网络中用1×1的卷积核的作用参考习题5-4对于一个输入为100×100×256的特征映射组,使用3×3的卷积核,输出为100×100×256的特征映射组的卷积层,求其时间和空间复杂度。如果引入一个1×1的卷积核,先得到100×100×64的特征映射,再进行3×3的卷积,得到100×100×256的特征映射组,求其时间和空间复杂度习题
Stacey.933
·
2022-12-11 09:36
深度学习
cnn
python
NNDL
作业12:第七章课后题
目录习题7-1在小批量梯度下降中,试分析为什么学习率要和批量大小成正比习题7-2在Adam算法中,说明指数加权平均的偏差修正的合理性(即公式(7.27)和公式(7.28))习题7-9证明在标准的随机梯度下降中,权重衰减正则化和l2正则化的效果相同.并分析这一结论在动量法和Adam算法中是否依然成立总结习题7-1在小批量梯度下降中,试分析为什么学习率要和批量大小成正比在小批量梯度下降中:令,则:因此
AI-2 刘子豪
·
2022-12-11 09:35
深度学习
算法
NNDL
实验八 网络优化与正则化(3)不同优化算法比较
文章目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.1.3与TorchAPI对比,验证正确性7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比【选做题】总结参考7.3不同优化算法的比较分析
萐茀37
·
2022-12-11 09:35
算法
python
深度学习
NNDL
作业12:第七章课后题
文章目录习题7-1在小批量梯度下降中,试分析为什么学习率要和批量大小成正比习题7-2在Adam算法中,说明指数加权平均的偏差修正的合理性(即公式(7.27)和公式(7.28).习题7-9证明在标准的随机梯度下降中,权重衰减正则化和L2正则化的效果相同.并分析这一结论在动量法和Adam算法中是否依然成立全面总结网络优化总结参考习题7-1在小批量梯度下降中,试分析为什么学习率要和批量大小成正比在小批量
萐茀37
·
2022-12-11 08:51
python
算法
NNDL
实验八 网络优化与正则化(3)不同优化算法比较
文章目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.1.3与TorchAPI对比,验证正确性7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比【选做题】总结7.3不同优化算法的比较分析除了
plum-blossom
·
2022-12-11 08:02
NNDL实验
算法
python
深度学习
NNDL
作业10:第六章课后题(LSTM | GRU)
目录习题6-3当使用公式(6.50)作为循环神经网络得状态更新公式时,分析其可能存在梯度爆炸的原因并给出解决办法.习题6-4推导LSTM网络中参数的梯度,并分析其避免梯度消失的效果编辑习题6-5推导GRU网络中参数的梯度,并分析其避免梯度消失的效果习题6-3当使用公式(6.50)作为循环神经网络得状态更新公式时,分析其可能存在梯度爆炸的原因并给出解决办法.公式(6.50)为:在计算误差项时,梯度可
HBU_Hbdwhb
·
2022-12-11 01:45
lstm
gru
深度学习
NNDL
实验七 循环神经网络(3)LSTM的记忆能力实验
目录6.3.1模型构建6.3.1.1LSTM层6.3.1.2模型汇总6.3.2模型训练6.3.2.1训练指定长度的数字预测模型6.3.2.2多组训练6.3.2.3损失曲线展示6.3.3模型评价6.3.3.1在测试集上进行模型评价6.3.3.2模型在不同长度的数据集上的准确率变化图6.3.3.3LSTM模型门状态和单元状态的变化全面总结RNN(必做)参考6.3LSTM的记忆能力实验使用LSTM模型重
HBU_Hbdwhb
·
2022-12-11 01:45
rnn
lstm
深度学习
NNDL
实验六 卷积神经网络(1)卷积
目录5.1卷积5.1.1二维卷积运算5.1.2二维卷积算子5.1.3二维卷积的参数量和计算量5.1.4感受野5.1.5卷积的变种5.1.6带步长和零填充的二维卷积算子5.1.7使用卷积运算完成图像边缘检测任务卷积神经网络(ConvolutionalNeuralNetwork,CNN)受生物学上感受野机制的启发而提出。一般是由卷积层、汇聚层和全连接层交叉堆叠而成的前馈神经网络有三个结构上的特性:局部
HBU_Hbdwhb
·
2022-12-11 01:15
cnn
深度学习
人工智能
NNDL
作业9:分别使用numpy和pytorch实现BPTT
6-1P:推导RNN反向传播算法BPTT.6-2P:设计简单RNN模型,分别用Numpy、Pytorch实现反向传播算子,并代入数值测试.importtorchimportnumpyasnpclassRNNCell:def__init__(self,weight_ih,weight_hh,bias_ih,bias_hh):self.weight_ih=weight_ihself.weight_hh
HBU_Hbdwhb
·
2022-12-11 01:15
pytorch
深度学习
人工智能
NNDL
作业4:第四章课后题
习题4-2 试设计一个前馈神经网络来解决XOR问题,要求该前馈神经网络具有两个隐藏神经元和一个输出神经元,并使用ReLU作为激活函数。XOR问题就是异或问题,(数学符号为“⨁\bigoplus⨁”,程序符号为“^”)代码实现:importtorchimporttorch.nnasnnimporttorch.optimasoptimimportnumpyasnpclassXORModule(nn.
HBU_Hbdwhb
·
2022-12-11 01:14
深度学习
人工智能
神经网络
NNDL
实验二 pytorch入门
目录前言一、张量,算子是什么?二、使用Pytorch实现张量运算1.2张量1.2.1创建张量1.2.2张量的属性1.2.3张量与Numpy数组的转换1.2.4张量的访问1.2.5张量的运算三。数据预处理总结前言通过对张量和算子的学习能够做到入门pytorch提示:以下是本篇文章正文内容,下面案例可供参考一、张量,算子是什么?张量是矩阵的扩展,向量是一阶张量,矩阵是二阶张量---算子是深度学习中的一
HBU_Hbdwhb
·
2022-12-11 01:44
python
机器学习
pandas
NNDL
实验五 前馈神经网络(1)二分类任务
4.1神经元使用pytorch计算一组输入的净活性值z净活性值z经过一个非线性函数f(·)后,得到神经元的活性值a使用pytorch计算一组输入的净活性值zzz。代码实现如下:、importtorchimportnumpyasnpimportmatplotlib.pyplotaspltX=torch.rand([2,5])#2个特征数为5的样本w=torch.rand([5,1])#含有5个参数的
HBU_Hbdwhb
·
2022-12-11 01:44
神经网络
分类
算法
NNDL
作业11:优化算法比较
目录1.编程实现图6-1,并观察特征2.观察梯度方向3.编写代码实现算法,并可视化轨迹5.总结SGD、Momentum、AdaGrad、Adam的优缺点1.编程实现图6-1,并观察特征importnumpyasnpfrommatplotlibimportpyplotaspltfrommpl_toolkits.mplot3dimportAxes3Ddeffunc(x,y):returnx*x/20+
HBU_Hbdwhb
·
2022-12-11 01:44
算法
python
HBU-
NNDL
实验八 网络优化与正则化(3)不同优化算法比较
目录7.3不同优化算法的比较分析7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验7.3.1.3与TorchAPI对比,验证正确性7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比7.3.4.1构建一个三维空间中的被优化函数心得体
不是蒋承翰
·
2022-12-10 16:54
算法
人工智能
NNDL
实验八 网络优化与正则化(3)不同优化算法比较
目录不同优化算法的比较分析优化算法的实验设定2D可视化实验简单拟合实验与TorchAPI对比,验证正确性学习率调整AdaGrad算法RMSprop算法梯度估计修正动量法Adam算法编辑不同优化器的3D可视化对比【选做题】总结ref不同优化算法的比较分析除了批大小对模型收敛速度的影响外,学习率和梯度估计也是影响神经网络优化的重要因素。神经网络优化中常用的优化方法也主要是如下两方面的改进,包括:学习率
沐一mu
·
2022-12-10 16:14
算法
人工智能
NNDL
实验五 前馈神经网络(1)二分类任务 神经元与基于前馈神经网络的二分类任务
pytorch实现4.1神经元4.1.1净活性值使用pytorch计算一组输入的净活性值z净活性值z经过一个非线性函数f(·)后,得到神经元的活性值a使用pytorch计算一组输入的净活性值,代码参考paddle例题:importpaddle#2个特征数为5的样本X=paddle.rand(shape=[2,5])#含有5个参数的权重向量w=paddle.rand(shape=[5,1])#偏置项
真不想再学了
·
2022-12-09 19:38
神经网络
分类
深度学习
NNDL
实验五 前馈神经网络(3)鸢尾花分类
目录深入研究鸢尾花数据集4.5.1小批量梯度下降法4.5.1.1数据分组4.5.2数据处理4.5.2.2用DataLoader进行封装4.5.3模型构建4.5.4完善Runner类4.5.5模型训练4.5.6模型评价4.5.7模型预测思考题总结通过前两次对前馈神经网络的探究实验,基础掌握了前馈神经网络的基本概念、网络结构及代码实现,利用前馈神经网络完成一个分类任务,并通过两个简单的实验,观察前馈神
冰冻胖头鱼
·
2022-12-09 16:53
神经网络
分类
深度学习
NNDL
实验五 前馈神经网络(2)自动梯度计算 & 优化问题
自动梯度计算&优化问题4.3自动梯度计算和预定义算子4.3.1使用pytorch的预定义算子来重新实现二分类任务4.3.2完善Runner类4.3.3模型训练4.3.4性能评价4.3.5增加一个3个神经元的隐藏层,再次实现二分类,并与1做对比。(必做)4.3.6自定义隐藏层层数和每个隐藏层中的神经元个数,尝试找到最优超参数完成二分类。可以适当修改数据集,便于探索超参数。(选做)4.4优化问题4.4
乳酸蔓越莓吐司
·
2022-12-09 16:49
神经网络
深度学习
pytorch
NNDL
实验八 网络优化与正则化(1) 小批量梯度下降法
本章内容主要包含两部分:网络优化:通过案例和可视化对优化算法、参数初始化、逐层规范化等网络优化算法进行分析和对比,展示它们的效果,通过代码详细展示这些算法的实现过程。网络正则化:通过案例和可视化对ℓ1和ℓ2正则化、权重衰减、暂退法等网络正则化方法进行分析和对比,展示它们的效果。提醒在本书中,对《神经网络与深度学习》中一些术语的翻译进行修正。Normalization翻译为规范化、Dropout翻译
HBU_David
·
2022-12-09 16:48
DeepLearning
深度学习
神经网络
NNDL
实验八 网络优化与正则化(3)不同优化算法比较
目录7.3.1优化算法的实验设定7.3.1.12D可视化实验7.3.1.2简单拟合实验与TorchAPI对比,验证正确性7.3.2学习率调整7.3.2.1AdaGrad算法7.3.2.2RMSprop算法7.3.3梯度估计修正7.3.3.1动量法7.3.3.2Adam算法7.3.4不同优化器的3D可视化对比7.3.4.1构建一个三维空间中的被优化函数【选做题】心得体会:参考博客除了批大小对模型收敛
AI-2 刘子豪
·
2022-12-09 16:11
算法
人工智能
NNDL
实验七 循环神经网络(3)LSTM的记忆能力实验
文章目录6.3LSTM的记忆能力实验6.3.1模型构建6.3.1.1LSTM层6.3.1.2模型汇总6.3.2模型训练6.3.2.1训练指定长度的数字预测模型6.3.2.2多组训练6.3.2.3损失曲线展示6.3.3模型评价6.3.3.1在测试集上进行模型评价6.3.3.2模型在不同长度的数据集上的准确率变化图6.3.3.3LSTM模型门状态和单元状态的变化思考题【思考题1】【思考题2】【思考题3
凉堇
·
2022-12-08 22:49
rnn
lstm
深度学习
NNDL
作业11:优化算法比较
文章目录1.编程实现图6-1,并观察特征2.观察梯度方向3.编写代码实现算法,并可视化轨迹4.分析上图,说明原理(选做)5.总结SGD、Momentum、AdaGrad、Adam的优缺点(选做)6.Adam这么好,SGD是不是就用不到了?(选做)总结心得体会参考链接1.编程实现图6-1,并观察特征代码如下:importnumpyasnpfrommatplotlibimportpyplotasplt
凉堇
·
2022-12-08 22:14
算法
python
NNDL
作业10:第六章课后题(LSTM | GRU)
目录习题6-3当使用公式(6.50)作为循环神经网络得状态更新公式时,分析其可能存在梯度爆炸的原因并给出解决办法.习题6-4推导LSTM网络中参数的梯度,并分析其避免梯度消失的效果编辑习题6-5推导GRU网络中参数的梯度,并分析其避免梯度消失的效果参考习题6-3当使用公式(6.50)作为循环神经网络得状态更新公式时,分析其可能存在梯度爆炸的原因并给出解决办法.公式(6.50)为:在公式为在第K时刻
喝无糖雪碧
·
2022-12-08 11:35
深度学习
人工智能
NNDL
作业5 卷积
目录作业1编程实现生成原图像:1.图1使用卷积核编辑,输出特征图2.图1使用卷积核编辑,输出特征图3.图2使用卷积核编辑,输出特征图4.图2使用卷积核编辑,输出特征图5.图3使用卷积核编辑,编辑,编辑,输出特征图作业2一、概念卷积:卷积核步长特征图特征选择填充感受野二、探究不同卷积核的作用三、编程实现1.实现灰度图的边缘检测、锐化、模糊。2.调整卷积核参数,测试并总结。3.使用不同尺寸图片,测试并
喝无糖雪碧
·
2022-12-08 11:04
python
numpy
机器学习
NNDL
作业9:分别使用numpy和pytorch实现BPTT
目录6-1P:推导RNN反向传播算法BPTT.6-2P:设计简单RNN模型,分别用Numpy、Pytorch实现反向传播算子,并代入数值测试.参考6-1P:推导RNN反向传播算法BPTT.6-2P:设计简单RNN模型,分别用Numpy、Pytorch实现反向传播算子,并代入数值测试.代码实现:importtorchimportnumpyasnpclassRNNCell:def__init__(se
喝无糖雪碧
·
2022-12-08 11:04
pytorch
深度学习
人工智能
NNDL
实验七 循环神经网络(3)LSTM的记忆能力实验
目录6.3LSTM的记忆能力实验6.3.1模型构建6.3.1.1LSTM层6.3.1.2模型汇总6.3.2模型训练6.3.2.1训练指定长度的数字预测模型6.3.2.2多组训练6.3.2.3损失曲线展示【思考题1】LSTM与SRN实验结果对比,谈谈看法。(选做)6.3.3模型评价6.3.3.1在测试集上进行模型评价6.3.3.2模型在不同长度的数据集上的准确率变化图【思考题2】LSTM与SRN在不
喝无糖雪碧
·
2022-12-08 11:04
rnn
lstm
深度学习
NNDL
实验一 numpy
numpy的array操作1.导入numpy库importnumpyasnp#没有numpy库的可以通过pip下载。#利用清华源下载:pipinstallnumpy-ihttps://pypi.tuna.tsinghua.edu.cn/simple2.建立一个一维数组a初始化为[4,5,6](1)输出a的类型(type)(2)输出a的各维度的大小(shape)(3)输出a的第一个元素(值为4)a=
喝无糖雪碧
·
2022-12-08 11:34
numpy
python
机器学习
NNDL
实验3 线性回归
目录2.2线性回归2.2.1数据集构建2.2.2模型构建2.2.3损失函数2.2.4模型优化2.2.5模型训练2.2.6模型评估2.2.7样本数量&正则化系数2.3多项式回归2.3.1数据集构建.2.3.2模型构建2.3.3模型训练2.3.4模型评估2.4Runner类介绍2.5基于线性回归的波士顿房价预测2.5.1数据处理2.5.1.2数据清洗2.5.1.3数据集划分2.5.1.4特征工程2.5
喝无糖雪碧
·
2022-12-08 11:34
机器学习
算法
人工智能
NNDL
作业4:第四章课后题
习题4-2:试设计一个前馈神经网络来解决XOR问题,要求该前馈神经网络具有两个隐藏神经元和一个输出神经元,并使用ReLU作为激活函数。XOR就是逻辑运算中的异或问题,异或是对两个运算元的一种逻辑分析类型,当两两数值相同时为否,而数值不同时为真。下面是异或运算表:输入输出ABAXOR000011101110代码:importtorchfromtorch.nn.initimportconstant_,
喝无糖雪碧
·
2022-12-08 11:34
深度学习
人工智能
NNDL
作业11:优化算法比较
1.编程实现图6-1,并观察特征代码实现importnumpyasnpfrommatplotlibimportpyplotaspltfrommpl_toolkits.mplot3dimportAxes3Ddeffunc(x,y):returnx*x/20+y*ydefpaint_loss_func():x=np.linspace(-50,50,100)#x的绘制范围是-50到50,从改区间均匀取1
喝无糖雪碧
·
2022-12-08 11:04
算法
python
开发语言
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他