E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
nndl
NNDL
作业10:第六章课后题(LSTM | GRU)
习题6-3当使用公式(6.50)作为循环神经网络得状态更新公式时,分析其可能存在梯度爆炸的原因并给出解决办法.公式(6.50)为:在计算误差项时,可能会出现梯度过大的情况,解决办法为:使用长短期神经网络。习题6-4推导LSTM网络中参数的梯度,并分析其避免梯度消失的效果图13.Cell状态(长时记忆)4.Cell输出(短时记忆)5.遗忘门6.输入门效果:LSTM把原本RNN的单元改造成一个叫做CE
AI-2 刘子豪
·
2022-11-28 02:06
lstm
gru
人工智能
NNDL
实验七 循环神经网络(1)RNN记忆能力实验
文章目录6.1循环神经网络的记忆能力实验6.1.1数据集构建6.1.1.1数据集的构建函数6.1.1.2加载数据并进行数据划分6.1.1.3构造Dataset类6.1.2模型构建6.1.2.1嵌入层6.1.2.2SRN层6.1.2.3线性层6.1.2.4模型汇总6.1.3模型训练6.1.3.1训练指定长度的数字预测模型6.1.3.2多组训练6.1.3.3损失曲线展示6.1.4模型评价【动手练习】6
萐茀37
·
2022-11-27 19:29
rnn
语音识别
人工智能
NNDL
作业10:第六章课后题(LSTM | GRU)
文章目录习题6-3当使用公式(6.50)作为循环神经网络得状态更新公式时,分析其可能存在梯度爆炸的原因并给出解决办法.习题6-4推导LSTM网络中参数的梯度,并分析其避免梯度消失的效果编辑习题6-5推导GRU网络中参数的梯度,并分析其避免梯度消失的效果编辑附加题6-1P什么时候应该用GRU?什么时候用LSTM?附加题6-2PLSTMBP推导,并用Numpy实现总结参考习题6-3当使用公式(6.50
萐茀37
·
2022-11-27 19:29
lstm
gru
深度学习
NNDL
实验七 循环神经网络(2)梯度爆炸实验
文章目录6.2梯度爆炸实验6.2.1梯度打印函数6.2.2复现梯度爆炸现象6.2.3使用梯度截断解决梯度爆炸问题总结参考6.2梯度爆炸实验造成简单循环网络较难建模长程依赖问题的原因有两个:梯度爆炸和梯度消失。梯度爆炸问题:比较容易解决,一般通过权重衰减或梯度截断可以较好地来避免;梯度消失问题:更加有效的方式是改变模型,比如通过长短期记忆网络LSTM来进行缓解。本节将首先进行复现简单循环网络中的梯度
萐茀37
·
2022-11-27 19:58
rnn
深度学习
NNDL
实验七 循环神经网络(2)梯度爆炸实验
文章目录6.2梯度爆炸实验6.2.1梯度打印函数6.2.2复现梯度爆炸现象6.2.3使用梯度截断解决梯度爆炸问题总结参考文章6.2梯度爆炸实验造成简单循环网络较难建模长程依赖问题的原因有两个:梯度爆炸和梯度消失。梯度爆炸问题:比较容易解决,一般通过权重衰减或梯度截断可以较好地来避免;梯度消失问题:更加有效的方式是改变模型,比如通过长短期记忆网络LSTM来进行缓解。本节将首先进行复现简单循环网络中的
辰 希
·
2022-11-27 10:45
rnn
深度学习
NNDL
实验七 循环神经网络(1)RNN记忆能力实验
循环神经网络(RecurrentNeuralNetwork,RNN)是一类具有短期记忆能力的神经网络.在循环神经网络中,神经元不但可以接受其他神经元的信息,也可以接受自身的信息,形成具有环路的网络结构.和前馈神经网络相比,循环神经网络更加符合生物神经网络的结构.目前,循环神经网络已经被广泛应用在语音识别、语言模型以及自然语言生成等任务上.简单循环网络在参数学习时存在长程依赖问题,很难建模长时间间隔
Guo_weiqi
·
2022-11-27 09:07
rnn
语音识别
人工智能
NNDL
作业9:分别使用numpy和pytorch实现BPTT
6-1P:推导RNN反向传播算法BPTT.6-2P:设计简单RNN模型,分别用Numpy、Pytorch实现反向传播算子,并代入数值测试.#GRADEDFUNCTION:rnn_forwardimportnumpyasnpdefrnn_forward(x,a0,parameters):"""Implementtheforwardpropagationoftherecurrentneuralnetw
Guo_weiqi
·
2022-11-27 09:07
pytorch
numpy
深度学习
NNDL
实验五 前馈神经网络(3)鸢尾花分类
深入研究鸢尾花数据集画出数据集中150个数据的前两个特征的散点分布图:【统计学习方法】感知机对鸢尾花(iris)数据集进行二分类4.5实践:基于前馈神经网络完成鸢尾花分类继续使用第三章中的鸢尾花分类任务,将Softmax分类器替换为前馈神经网络。损失函数:交叉熵损失;优化器:随机梯度下降法;评价指标:准确率。4.5.1小批量梯度下降法为了减少每次迭代的计算复杂度,我们可以在每次迭代时只采集一小部分
Guo_weiqi
·
2022-11-27 09:37
深度学习
机器学习
人工智能
NNDL
作业5:卷积
作业1编程实现卷积神经网络工作原理的直观理解_superdont的博客-CSDN博客importtorchimportmatplotlib.pyplotaspltimporttorch.nn.functionalasFimportnumpyasnp#生成图片defcreate_pic():picture=torch.Tensor([[0,0,0,255,255,255],[0,0,0,255,25
Guo_weiqi
·
2022-11-27 09:37
python
深度学习
开发语言
NNDL
作业8:RNN - 简单循环网络
1.使用Numpy实现SRNimportnumpyasnpinputs=np.array([[1.,1.],[1.,1.],[2.,2.]])#初始化输入序列print('inputsis',inputs)state_t=np.zeros(2,)#初始化存储器print('state_tis',state_t)w1,w2,w3,w4,w5,w6,w7,w8=1.,1.,1.,1.,1.,1.,1.
Guo_weiqi
·
2022-11-27 09:37
rnn
python
人工智能
NNDL
实验三 线性回归
使用pytorch实现2.2线性回归2.2.1数据集构建构造一个小的回归数据集:生成150个带噪音的样本,其中100个训练样本,50个测试样本,并打印出训练数据的可视化分布。importtorchimportmathdeflinear_func(x,w=1.2,b=0.5):y=w*x+breturnydefcreate_toy_data(func,interval,sample_num,nois
Guo_weiqi
·
2022-11-27 09:07
线性回归
机器学习
深度学习
NNDL
实验五 前馈神经网络(2)自动梯度计算 & 优化问题
4.3自动梯度计算虽然我们能够通过模块化的方式比较好地对神经网络进行组装,但是每个模块的梯度计算过程仍然十分繁琐且容易出错。在深度学习框架中,已经封装了自动梯度计算的功能,我们只需要聚焦模型架构,不再需要耗费精力进行计算梯度。飞桨提供了paddle.nn.Layer类,来方便快速的实现自己的层和模型。模型和层都可以基于paddle.nn.Layer扩充实现,模型只是一种特殊的层。继承了paddle
Guo_weiqi
·
2022-11-27 09:07
NNDL
实验七 循环神经网络(2)梯度爆炸实验
6.2梯度爆炸实验造成简单循环网络较难建模长程依赖问题的原因有两个:梯度爆炸和梯度消失。梯度爆炸问题:比较容易解决,一般通过权重衰减或梯度截断可以较好地来避免;梯度消失问题:更加有效的方式是改变模型,比如通过长短期记忆网络LSTM来进行缓解。本节将首先进行复现简单循环网络中的梯度爆炸问题,然后尝试使用梯度截断的方式进行解决。采用长度为20的数据集进行实验,训练过程中将进行输出W,U,b的梯度向量的
Guo_weiqi
·
2022-11-27 09:34
rnn
深度学习
NNDL
实验六 卷积神经网络(3)LeNet实现MNIST
目录5.3基于LeNet实现手写体数字识别实验5.3.2模型构建5.3.3模型训练5.3.4模型评价5.3.5模型预测使用前馈神经网络实现MNIST识别,与LeNet效果对比。(选做)可视化LeNet中的部分特征图和卷积核,谈谈自己的看法。(选做)手写体数字识别是计算机视觉中最常用的图像分类任务,让计算机识别出给定图片中的手写体数字(0-9共10个数字)。由于手写体风格差异很大,因此手写体数字识别
HBU_David
·
2022-11-27 09:22
DeepLearning
cnn
深度学习
计算机视觉
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
目录5.5实践:基于ResNet18网络完成图像分类任务5.5.1数据处理5.5.1.1数据集介绍5.5.1.2数据读取5.5.1.3构造Dataset类5.5.2模型构建5.5.3模型训练5.5.4模型评价1.什么是“预训练模型”?什么是“迁移学习”?(1)、什么是迁移学习(2)、预训练模型2.比较“使用预训练模型”和“不使用预训练模型”的效果。思考题1.阅读《DeepResidualLearn
红肚兜
·
2022-11-27 09:44
cnn
分类
深度学习
NNDL
实验六 卷积神经网络(4)ResNet18实现MNIST
目录5.4基于残差网络的手写体数字识别实验5.4.1模型构建5.4.1.1残差单元5.4.1.2残差网络的整体结构5.4.2没有残差连接的ResNet185.4.2.1模型训练5.4.2.2模型评价5.4.3带残差连接的ResNet185.4.3.1模型训练5.4.3.2模型评价5.4.4与高层API实现版本的对比实验参考文献5.4基于残差网络的手写体数字识别实验 残差网络(ResidualNe
红肚兜
·
2022-11-27 09:14
cnn
深度学习
神经网络
NNDL
作业7:第五章课后题(1×1 卷积核 | CNN BP)
目录习题5-2证明宽卷积具有交换性。即公式rot180(W)⨂~X=rot180(X)⨂~Wrot180(W){\widetilde{\bigotimes}}X=rot180(X){\widetilde{\bigotimes}}Wrot180(W)⨂X=rot180(X)⨂W5-3分析卷积神经网络中用1×1的卷积核的作用。1、跨通道的特征整合2、降维/升维3、加非线性4、跨通道信息交互(chann
红肚兜
·
2022-11-27 09:13
cnn
深度学习
计算机视觉
NNDL
实验六 卷积神经网络(1)卷积
目录5.1卷积5.1.1二维卷积运算5.1.2二维卷积算子5.1.3二维卷积的参数量和计算量5.1.4感受野5.1.5卷积的变种5.1.5.1步长(Stride)5.1.5.2零填充(ZeroPadding)5.1.6带步长和零填充的二维卷积算子5.1.7使用卷积运算完成图像边缘检测任务边缘检测系列1:传统边缘检测算子引入算法原理代码实现构建通用的边缘检测算子图像边缘检测测试函数Roberts算子
红肚兜
·
2022-11-27 09:13
cnn
深度学习
计算机视觉
NNDL
实验四 线性分类
目录第3章线性分类3.1基于Logistic回归的二分类任务3.1.1数据集构建3.1.1.1导入基本库3.1.1.2构造带噪音的弯月形状数据集3.1.1.3可视化数据集3.1.1.4划分训练集、验证集、测试集3.1.2模型构建3.1.2.1Logistic函数简介3.1.2.2Logstic函数定义及绘制3.1.2.3构建Logistic回归算子3.1.3损失函数3.1.3.1交叉熵损失函数简介
红肚兜
·
2022-11-27 09:43
线性回归
深度学习
机器学习
NNDL
实验七 循环神经网络(2)梯度爆炸实验
目录6.2梯度爆炸实验6.2.1定义梯度打印函数6.2.2复现梯度爆炸现象6.2.3使用梯度截断解决梯度爆炸问题思考题 梯度截断解决梯度爆炸问题的原理是什么?参考文献6.2梯度爆炸实验造成简单循环网络较难建模长程依赖问题的原因有两个:梯度爆炸和梯度消失。梯度爆炸问题:比较容易解决,一般通过权重衰减或梯度截断可以较好地来避免;梯度消失问题:更加有效的方式是改变模型,比如通过长短期记忆网络LSTM来进
红肚兜
·
2022-11-27 09:29
rnn
深度学习
python
NNDL
作业10:第六章课后题(LSTM | GRU)
习题6-3使用公式(6-50)作为神经网络的更新公式时,分析其产生梯度抱着的原因习题6-4推导lstm参数的梯度,并分析其在缓解梯度消失中的作用公式推导其在缓解梯度消失中的作用习题6-5分析GRU的梯度在梯度缓解中的作用什么时候用GRU?什么时候用LSTM?参考习题6-3使用公式(6-50)作为神经网络的更新公式时,分析其产生梯度抱着的原因习题6-4推导lstm参数的梯度,并分析其在缓解梯度消失中
刘先生TT
·
2022-11-27 08:58
lstm
gru
深度学习
NNDL
实验七 循环神经网络(2)梯度爆炸实验
目录6.2梯度爆炸实验6.2.1梯度打印函数【思考】什么是范数,什么是L2范数,这里为什么要打印梯度范数?6.2.2复现梯度爆炸现象6.2.3使用梯度截断解决梯度爆炸问题【思考题】梯度截断解决梯度爆炸问题的原理是什么?6.2梯度爆炸实验造成简单循环网络较难建模长程依赖问题的原因有两个:梯度爆炸和梯度消失。梯度爆炸问题:比较容易解决,一般通过权重衰减或梯度截断可以较好地来避免;梯度消失问题:更加有效
captainMo_11
·
2022-11-27 05:50
深度学习
神经网络
NNDL
实验六 卷积神经网络(1)卷积
目录5.1.2二维卷积算子5.1.3二维卷积的参数量和计算量5.1.4感受野5.1.5卷积的变种5.1.6带步长和零填充的二维卷积算子5.1.7使用卷积运算完成图像边缘检测任务选做5.1卷积5.1.1二维卷积运算5.1.2二维卷积算子在本书后面的实现中,算子都继承paddle.nn.Layer,并使用支持反向传播的飞桨API进行实现,这样我们就可以不用手工写backword()的代码实现。impo
captainMo_11
·
2022-11-27 05:49
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
5.5实践:基于ResNet18网络完成图像分类任务图像分类(ImageClassification是计算机视觉中的一个基础任务,将图像的语义将不同图像划分到不同类别。很多任务可以转换为图像分类任务,比如人脸检测就是判断一个区域内是否有人脸,可以看作一个二分类的图像分类任务。数据集:CIFAR-10数据集,网络:ResNet18模型,损失函数:交叉熵损失,优化器:Adam优化器,Adam优化器的介
captainMo_11
·
2022-11-27 05:49
cnn
分类
深度学习
NNDL
作业8:RNN - 简单循环网络
1.使用Numpy实现SRNimportnumpyasnpinputs=np.array([[1.,1.],[1.,1.],[2.,2.]])#初始化输入序列print('inputsis',inputs)state_t=np.zeros(2,)#初始化存储器print('state_tis',state_t)w1,w2,w3,w4,w5,w6,w7,w8=1.,1.,1.,1.,1.,1.,1.
captainMo_11
·
2022-11-27 05:49
rnn
人工智能
深度学习
NNDL
实验二 pytorch入门
一.概念:张量、算子张量是形似n维数组,是向量,算子是张量之间的映射二.使用pytorch实现张量运算1.2张量1.2.1创建张量1.2.1.1指定数据创建张量a=np.array([1,2,3])t1=torch.Tensor(a)1.2.1.2指定形状创建#全零张量a=torch.zeros([2,3])#全一张量b=torch.ones([2,3])#指定值张量c=torch.full([2
captainMo_11
·
2022-11-27 05:19
pytorch
深度学习
python
NNDL
作业5:卷积
目录作业1作业2一、概念二、探究不同卷积核的作用三、编程实现实现灰度图的边缘检测、锐化、模糊。(必做)2,调整卷积核参数,测试并总结。(必做)3,使用不同尺寸图片,测试并总结。(必做)作业1编程实现importtorchfromtorchimportnnimporttorchasd2limportmatplotlib.pyplotaspltdefcorr2d(X,K):#@save"""计算二维互
captainMo_11
·
2022-11-27 05:19
python
深度学习
算法
NNDL
实验七 循环神经网络(1)RNN记忆能力实验
目录6.1循环神经网络的记忆能力实验循环神经网络的一种简单实现是简单循环网络(SimpleRecurrentNetwork,SRN)6.1.1数据集构建6.1.1.1数据集的构建函数6.1.1.2加载数据并进行数据划分6.1.1.3构造Dataset类6.1.2模型构建6.1.2.1嵌入层6.1.2.2SRN层6.1.2.3线性层6.1.2.4模型汇总6.1.3模型训练6.1.3.2多组训练6.1
captainMo_11
·
2022-11-27 05:13
rnn
语音识别
人工智能
NNDL
实验七 循环神经网络(2)梯度爆炸实验
目录6.2梯度爆炸实验6.2.1梯度打印函数6.2.2复现梯度爆炸现象6.2.3使用梯度截断解决梯度爆炸问题【思考】什么是范数,什么是L2范数,这里为什么要打印梯度范数?什么是范数什么是L2范数为什么要打印梯度范数?【思考题】梯度截断解决梯度爆炸问题的原理是什么?总结:6.2梯度爆炸实验造成简单循环网络较难建模长程依赖问题的原因有两个:梯度爆炸和梯度消失。一般来讲,循环网络的梯度爆炸问题比较容易解
HBU_fangerfang
·
2022-11-27 03:27
rnn
深度学习
NNDL
实验七 循环神经网络(2)梯度爆炸实验
文章目录前言6.2.1梯度打印函数【思考】什么是范数,什么是L2范数,这里为什么要打印梯度范数?6.2.2复现梯度爆炸现象6.2.3使用梯度截断解决梯度爆炸问题编辑【思考题】梯度截断解决梯度爆炸问题的原理是什么?总结前言这次真是差点写不完了,我在最后说了这几天干啥了,大体就是听说莲池要封就会了老家,结果,回家之后,听到了全保定封控的消息,这次写了好久,熬夜写完了。希望疫情快点过去吧,写的不太好,请
别被打脸
·
2022-11-26 13:32
python
开发语言
NNDL
实验七 循环神经网络(2)梯度爆炸实验
文章目录6.2梯度爆炸实验6.2.1梯度打印函数【思考】什么是范数,什么是L2范数,这里为什么要打印梯度范数?6.2.2复现梯度爆炸现象6.2.3使用梯度截断解决梯度爆炸问题【思考题】梯度截断解决梯度爆炸问题的原理是什么?总结参考6.2梯度爆炸实验造成简单循环网络较难建模长程依赖问题的原因有两个:梯度爆炸和梯度消失。梯度爆炸问题:比较容易解决,一般通过权重衰减或梯度截断可以较好地来避免;梯度消失问
牛奶园雪梨
·
2022-11-25 23:52
rnn
深度学习
NNDL
实验六 卷积神经网络(2)基础算子
目录卷积神经网络的基础算子卷积层算子多通道卷积多通道卷积层算子卷积算子的参数量和计算量汇聚层算子选做题使用pytorch实现ConvolutionDemo总结参考卷积神经网络的基础算子卷积神经网络是目前计算机视觉中使用最普遍的模型结构,如下图所示,由M个卷积层和b个汇聚层组合作用在输入图片上,在网络的最后通常会加入K个全连接层。从上图可以看出,卷积网络是由多个基础的算子组合而成。下面我们先实现卷积
白小码i
·
2022-11-25 11:34
cnn
人工智能
算法
NNDL
作业8:RNN-简单循环网络
简单循环网络(SimpleRecurrentNetwork,SRN)是只有一个隐藏层的神经网络。目录1、使用Numpy实现SRN2、在1的基础上,增加激活函数tanh3、分别使用nn.RNNCell、nn.RNN实现SRN5、实现“Character-LevelLanguageModels”源代码7、“编码器-解码器”的简单实现参考1、使用Numpy实现SRN代码实现:importnumpyasn
白小码i
·
2022-11-25 11:34
rnn
人工智能
深度学习
NNDL
作业6:基于CNN的XO识别
实现卷积-池化-激活Numpy版本:手工实现卷积-池化-激活自定义卷积算子、池化算子实现,源码如下:importnumpyasnpx=np.array([[-1,-1,-1,-1,-1,-1,-1,-1,-1],[-1,1,-1,-1,-1,-1,-1,1,-1],[-1,-1,1,-1,-1,-1,1,-1,-1],[-1,-1,-1,1,-1,1,-1,-1,-1],[-1,-1,-1,-1,
白小码i
·
2022-11-25 11:33
深度学习第五次实验
NNDL
实验五前馈神经网络本次实验是基于学习第四章前馈神经网络所做,神经网络是由神经元按照一定的连接结构组合而成的网络。
白小码i
·
2022-11-25 11:33
深度学习
人工智能
神经网络
深度学习第二次实验
NNDL
实验二pytorch入门这是课程深度学习的第二次实验,也是第二次在csdn上发布文章,共同进步!一.概念:张量、算子张量(Tensor):深度学习中表示和存储数据的主要形式。
白小码i
·
2022-11-25 11:03
深度学习
python
pytorch
NNDL
实验六 卷积神经网络(1)卷积
目录卷积二维卷积运算二维卷积算子二维卷积的参数量和计算量感受野卷积的变种带步长和零填充的二维卷积算子使用卷积运算完成图像边缘检测任务选做题心得体会参考卷积神经网络(ConvolutionalNeuralNetwork,CNN)受生物学上感受野机制的启发而提出。一般是由卷积层、汇聚层和全连接层交叉堆叠而成的前馈神经网络有三个结构上的特性:局部连接、权重共享、汇聚。具有一定程度上的平移、缩放和旋转不变
白小码i
·
2022-11-25 11:03
NNDL
作业9:分别使用numpy和pytorch实现BPTT
6-1P:推导RNN反向传播算法BPTT.以下是自己的求导过程:BPTT求导主要就是包括三个步骤:1.前向计算每个神经元的输出值2.反向计算每个神经元的误差项,它是误差函数E对神经元的加权输入的偏导数3.计算每个权重的梯度,最后再用随机梯度下降算法更新权重1.1前向计算循环层的前向计算,隐层:1.2误差项的计算BPTT算法将第l层t时刻的误差项沿两个方向传播,一个方向时传递到上一层网络,这部分只和
白小码i
·
2022-11-25 11:22
pytorch
numpy
深度学习
NNDL
作业5:卷积
作业1编程实现1.图1使用卷积核,输出特征图2.图1使用卷积核,输出特征图3.图2使用卷积核,输出特征图4.图2使用卷积核,输出特征图5.图3使用卷积核,,,输出特征图importnumpyasnpimporttorchfromtorchimportnnfromtorch.autogradimportVariablefromPILimportImageimportmatplotlib.pyplot
weixin_51715088
·
2022-11-25 10:17
python
算法
卷积神经网络
NNDL
作业五:卷积
目录作业一作业二概念探究不同卷积核的作用编程实现总结参考作业一编程实现以下要求:1.图1使用卷积核,输出特征图2.图1使用卷积核,输出特征图3.图2使用卷积核,输出特征图4.图2使用卷积核,输出特征图5.图3使用卷积核,,,输出特征图代码实现:importnumpyasnpimporttorchfromtorchimportnnfromtorch.autogradimportVariablefro
白小码i
·
2022-11-25 10:46
java
服务器
开发语言
NNDL
实验八 网络优化与正则化(6)网络正则化
7.6网络正则化方法正则化(Regularization)是一类通过限制模型复杂度,从而避免过拟合、提高泛化能力的方法,比如引入约束、增加先验、提前停止等。本节构建一个小数据集和多层感知器来模拟一个过拟合的实验场景,并实现ℓ2正则化、权重衰减和暂退法,观察这些正则化方法是否可以缓解过拟合现象。7.6.1数据集构建7.6.2模型构建7.6.2.1ReLU算子7.6.2.2自定义多层感知器7.6.2.
HBU_David
·
2022-11-25 10:14
DeepLearning
深度学习
人工智能
NNDL
实验八 网络优化与正则化(5)逐层规范化
7.5逐层规范化(Layer-wiseNormalization)将传统机器学习中的数据规范化方法应用到深度神经网络中,对神经网络中隐藏层的输入进行规范化,从而使得网络更容易训练。下面介绍两种比较常用的逐层规范化方法:批量规范化(BatchNormalization)层规范化(LayerNormalization)7.5.1批量规范化7.5.1.1BatchNorm算子7.5.1.2支持逐层规范化
HBU_David
·
2022-11-25 10:14
DeepLearning
python
开发语言
NNDL
实验八 网络优化与正则化(4)参数初始化-Xavier
7.4参数初始化7.4.1基于固定方差的参数初始化高斯分布和均匀分布初始化的实现方式可以参考第4.4.1节参数初始化代码。7.4.2基于方差缩放的参数初始化本节动手实现Xavier初始化,并观察其效果。7.4.2.1模型构建7.4.2.2观察模型神经元的方差变化7.4.2.3观察模型训练收敛性
HBU_David
·
2022-11-25 10:44
DeepLearning
深度学习
人工智能
NNDL
作业3:分别使用numpy和pytorch实现FNN例题
1.过程推导-了解BP原理神经网络结构如下图所示,总体上由三部分组成:输入层、隐藏层(为方便起见,图中给出一层,实际中可以有多层)和输出层。对于每一层,都是由若干个单元(神经元)组成。相邻两层的神经元之间是全连接的,但是同一层内,各神经元之间无连接。这是一个简单的神经网络。正向传播:输入层——隐藏层为了方便我们用sigmoid函数进行激活:隐藏层——输出层:这样我们就得到了输出值out(o1)和o
HBU_fangerfang
·
2022-11-25 10:12
神经网络与深度学习
numpy
pytorch
python
NNDL
作业11:优化算法比较
目录1.编程实现图6-1,并观察特征2.观察梯度方向3.编写代码实现算法,并可视化轨迹4.分析上图,说明原理(选做)5.总结SGD、Momentum、AdaGrad、Adam的优缺点(选做)6.Adam这么好,SGD是不是就用不到了?(选做)7.增加RMSprop、Nesterov算法。(选做)8.基于MNIST数据集的更新方法的比较(选做)参考:深度学习入门:基于Python的理论与实现(itu
HBU_David
·
2022-11-25 10:39
算法
python
numpy
NNDL
实验七 循环神经网络(1)RNN记忆能力实验
NNDL
实验七循环神经网络(1)RNN记忆能力实验6.1循环神经网络的记忆能力实验6.1.1数据集构建6.1.1.1数据集的构建函数6.1.1.2加载数据并进行数据划分6.1.1.3构造Dataset类
Perfect(*^ω^*)
·
2022-11-25 10:06
rnn
语音识别
人工智能
NNDL
实验六 卷积神经网络(1)卷积
NNDL
实验六卷积神经网络(1)卷积5.1卷积5.1.1二维卷积运算5.1.2二维卷积算子5.1.3二维卷积的参数量和计算量5.1.4感受野5.1.5卷积的变种5.1.5.1步长(Stride)5.1.5.2
Perfect(*^ω^*)
·
2022-11-25 10:06
cnn
深度学习
计算机视觉
NNDL
实验七 循环神经网络(2)梯度爆炸实验
NNDL
实验七循环神经网络(2)梯度爆炸实验6.2梯度爆炸实验6.2.1梯度打印函数【思考】什么是范数,什么是L2范数,这里为什么要打印梯度范数?
Perfect(*^ω^*)
·
2022-11-25 10:36
rnn
深度学习
NNDL
作业四:第四章课后习题
NNDL
作业四:第四章课后习题习题4-2:试设计一个前馈神经网络来解决XOR问题,要求该前馈神经网络具有两个隐藏神经元和一个输出神经元,并使用ReLU作为激活函数.答:XOR问题:X1X2Output000011101110importtorch.nnasnnimporttorchimporttorch.optimasoptim
Perfect(*^ω^*)
·
2022-11-25 10:35
深度学习
人工智能
NNDL
实验五 前馈神经网络(3)鸢尾花分类
NNDL
实验五前馈神经网络(3)鸢尾花分类文章目录一、深入研究鸢尾花数据集二、4.5实践:基于前馈神经网络完成鸢尾花分类4.5.1小批量梯度下降法4.5.1.1数据分组4.5.2数据处理4.5.2.2用
Perfect(*^ω^*)
·
2022-11-25 10:35
神经网络
分类
python
上一页
3
4
5
6
7
8
9
10
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他