E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
nndl
NNDL
作业9:分别使用numpy和pytorch实现BPTT
文章目录6-1P:推导RNN反向传播算法BPTT.6-2P:设计简单RNN模型,分别用Numpy、Pytorch实现反向传播算子,并代入数值测试.总结参考6-1P:推导RNN反向传播算法BPTT.6-2P:设计简单RNN模型,分别用Numpy、Pytorch实现反向传播算子,并代入数值测试.#coding=gbkimportosos.environ['KMP_DUPLICATE_LIB_OK']=
萐茀37
·
2022-11-23 06:54
numpy
pytorch
python
NNDL
作业8:RNN - 简单循环网络
目录1.使用Numpy实现SRN2.在1的基础上,增加激活函数tanh3.分别使用nn.RNNCell、nn.RNN实现SRN3.1用torch.nn.RNNCell()3.2用nn.RNN()4.分析“二进制加法”源代码(选做)5.实现“Character-LevelLanguageModels”源代码(必做)6.分析“序列到序列”源代码(选做)7.“编码器-解码器”的简单实现(必做)总结参考1
乳酸蔓越莓吐司
·
2022-11-23 06:23
python
深度学习
人工智能
NNDL
实验五 前馈神经网络(3)鸢尾花分类
目录深入研究鸢尾花数据集4.5实践:基于前馈神经网络完成鸢尾花分类4.5.1小批量梯度下降法4.5.2数据处理4.5.2.1加载数据集4.5.2.2用DataLoader进行封装4.5.3模型构建4.5.4完善Runner类4.5.5模型训练4.5.6模型评价4.5.7模型预测思考题1.对比Softmax分类和前馈神经网络分类。(必做)2.自定义隐藏层层数和每个隐藏层中的神经元个数,尝试找到最优超
乳酸蔓越莓吐司
·
2022-11-23 06:53
神经网络
分类
python
NNDL
作业6:基于CNN的XO识别
目录一、实现卷积-池化-激活1.Numpy版本:手工实现卷积-池化-激活2.Pytorch版本:调用函数实现卷积-池化-激活3.可视化:了解数字与图像之间的关系二、基于CNN的XO识别1.数据集2.构建模型3.训练模型4.测试训练好的模型5.计算模型的准确率6.查看训练好的模型的特征图7.查看训练好的模型的卷积核8.训练模型源代码9.测试模型源代码总结一、实现卷积-池化-激活1.Numpy版本:手
乳酸蔓越莓吐司
·
2022-11-23 06:53
cnn
深度学习
python
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
目录5.5实践:基于ResNet18网络完成图像分类任务5.5.1数据处理5.5.2模型构建5.5.3模型训练5.5.4模型评价5.5.5模型预测思考题1.阅读《DeepResidualLearningforImageRecognition》,了解5种深度的ResNet(18,34,50,101和152),并简单谈谈自己的看法。(选做)2.用自己的话简单评价:LeNet、AlexNet、VGG、G
乳酸蔓越莓吐司
·
2022-11-23 06:53
cnn
分类
python
HBU-
NNDL
实验六 卷积神经网络(4)ResNet18实现MNIST
目录5.4基于残差网络的手写体数字识别实验5.4.1模型构建5.4.1.1残差单元5.4.1.2残差网络的整体结构5.4.2没有残差连接的ResNet185.4.2.1模型训练5.4.2.2模型评价5.4.3带残差连接的ResNet185.4.3.1模型训练5.4.3.2模型评价5.4.4与高层API实现版本的对比实验心得体会5.4基于残差网络的手写体数字识别实验残差网络(ResidualNetw
不是蒋承翰
·
2022-11-23 06:47
cnn
人工智能
深度学习
pytorch
NNDL
实验七 循环神经网络(2)梯度爆炸实验
目录6.2梯度爆炸实验6.2.1梯度打印函数6.2.2复现梯度爆炸现象6.2.3使用梯度截断解决梯度爆炸问题总结参考6.2梯度爆炸实验造成简单循环网络较难建模长程依赖问题的原因有两个:梯度爆炸和梯度消失。梯度爆炸问题:比较容易解决,一般通过权重衰减或梯度截断可以较好地来避免;梯度消失问题:更加有效的方式是改变模型,比如通过长短期记忆网络LSTM来进行缓解。本节将首先进行复现简单循环网络中的梯度爆炸
乳酸蔓越莓吐司
·
2022-11-23 06:40
rnn
深度学习
NNDL
作业9:分别使用numpy和pytorch实现BPTT
目录6-1P:推导RNN反向传播算法BPTT6-2P:设计简单RNN模型,分别用Numpy、Pytorch实现反向传播算子,并代入数值测试总结参考6-1P:推导RNN反向传播算法BPTT6-2P:设计简单RNN模型,分别用Numpy、Pytorch实现反向传播算子,并代入数值测试#coding=gbkimporttorchimportnumpyasnpclassRNNCell:def__init_
乳酸蔓越莓吐司
·
2022-11-23 06:10
numpy
pytorch
python
NNDL
实验五 前馈神经网络(3)鸢尾花分类
目录深入研究鸢尾花数据集4.5实践:基于前馈神经网络完成鸢尾花分类4.5.1小批量梯度下降法4.5.1.1数据分组4.5.2数据处理4.5.2.2用DataLoader进行封装4.5.3模型构建4.5.4完善Runner类4.5.5模型训练4.5.6模型评价4.5.7模型预测思考题1.对比Softmax分类和前馈神经网络分类。(必做)2.自定义隐藏层层数和每个隐藏层中的神经元个数,尝试找到最优超参
_Gypsophila___
·
2022-11-23 05:38
分类
数据挖掘
人工智能
NNDL
作业5:卷积
目录作业1编程实现作业2一、概念二、探究不同卷积核的作用三、编程实现1、实现灰度图的边缘检测、锐化、模糊。(必做)2、调整卷积核参数,测试并总结。(必做)3、使用不同尺寸图片,测试并总结。(必做)4、探索更多类型卷积核。(选做)5、尝试彩色图片边缘检测。(选做)总结:卷积常用于特征提取实验过程中注意认真体会“特征提取”,弄清楚为什么卷积能够提取特征。作业1编程实现1.图1使用卷积核,输出特征图im
_Gypsophila___
·
2022-11-23 05:38
深度学习
python
人工智能
NNDL
实验六 卷积神经网络(3)LeNet实现MNIST
目录5.3基于LeNet实现手写体数字识别实验5.3.1数据5.3.1.1数据预处理5.3.2模型构建1.测试LeNet-5模型,构造一个形状为[1,1,32,32]的输入数据送入网络,观察每一层特征图的形状变化。2.使用自定义算子,构建LeNet-5模型3.测试两个网络的运算速度。4.令两个网络加载同样的权重,测试一下两个网络的输出结果是否一致。5.这里还可以统计一下LeNet-5模型的参数量和
_Gypsophila___
·
2022-11-23 05:38
人工智能
卷积神经网络
NNDL
实验六 卷积神经网络(4)ResNet18实现MNIST
目录5.4基于残差网络的手写体数字识别实验5.4.1模型构建5.4.1.1残差单元5.4.1.2残差网络的整体结构5.4.2没有残差连接的ResNet185.4.2.1模型训练5.4.2.2模型评价5.4.3带残差连接的ResNet185.4.3.1模型训练5.4.3.2模型评价5.4.4与高层API实现版本的对比实验5.4基于残差网络的手写体数字识别实验残差网络(ResidualNetwork,
_Gypsophila___
·
2022-11-23 05:08
cnn
深度学习
NNDL
实验五 前馈神经网络(2)自动梯度计算 & 优化问题
目录4.3自动梯度计算1.使用pytorch的预定义算子来重新实现二分类任务。(必做)4.3.1利用预定义算子重新实现前馈神经网络4.3.2完善Runner类4.3.3模型训练4.3.4性能评价2.增加一个3个神经元的隐藏层,再次实现二分类,并与1做对比。(必做)3.自定义隐藏层层数和每个隐藏层中的神经元个数,尝试找到最优超参数完成二分类。可以适当修改数据集,便于探索超参数。(选做)4.4优化问题
_Gypsophila___
·
2022-11-23 05:07
神经网络
人工智能
深度学习
NNDL
实验二 pytorch入门
一、概念:张量、算子算子:算子是一个函数空间到函数空间上的映射0:X→X广义上的算子可以推广到任何空间,如内积空间等。深度学习算法由一个个计算单元组成,我们称这些计算单元为算子。在网络模型中,算子对应层中的计算逻辑,比如卷积层是一个算子,全连接层中的权值求和过程也称之是一个算子广义的讲,对任何函数进行某一项操作都可以认为是一个算子,算子就是映射,就是关系,就是变换。从一个函数空间(比如Banach
_Gypsophila___
·
2022-11-23 05:37
python
pytorch
深度学习
NNDL
作业8:RNN - 简单循环网络
简单循环网络(SimpleRecurrentNetwork,SRN)只有一个隐藏层的神经网络.目录1.使用Numpy实现SRN2.在1的基础上,增加激活函数tanh3.分别使用nn.RNNCell、nn.RNN实现SRN4.分析“二进制加法”源代码(选做)5.实现“Character-LevelLanguageModels”源代码(必做)6.分析“序列到序列”源代码(选做)7.“编码器-解码器”的
_Gypsophila___
·
2022-11-23 05:31
rnn
人工智能
深度学习
NNDL
作业3:分别使用numpy和pytorch实现FNN例题
过程推导-了解BP原理下附上周志华老师的机器学习中的一张图:推导:数值计算-手动计算,掌握细节代码实现-numpy手推+pytorch自动对比【numpy】和【pytorch】程序,总结并陈述。使用numpy实现importnumpyasnpdefsigmoid(z):a=1/(1+np.exp(-z))returnadefforward_propagate(x1,x2,y1,y2,w1,w2,w
冰冻胖头鱼
·
2022-11-23 04:02
深度学习
人工智能
机器学习
NNDL
实验六 卷积神经网络(3)LeNet实现MNIST
目录5.3基于LeNet实现手写体数字识别实验5.3.1MNIST数据集5.3.1.1数据预处理5.3.2模型构建5.3.5模型预测5.3.4模型评价5.3.5模型预测选做使用前馈神经网络实现MNIST识别,与LeNet效果对比。总结参考:5.3基于LeNet实现手写体数字识别实验5.3.1MNIST数据集在本节中,我们实现经典卷积网络LeNet-5,并进行手写体数字识别任务。手写体数字识别是计算
冰冻胖头鱼
·
2022-11-23 04:02
cnn
深度学习
计算机视觉
NNDL
实验六 卷积神经网络(4)ResNet18实现MNIST
目录5.4基于残差网络的手写体数字识别实验5.4.1模型构建5.4.1.1残差单元5.4.1.2残差网络的整体结构5.4.2没有残差连接的ResNet185.4.2.1模型训练5.4.2.2模型评价5.4.3带残差连接的ResNet185.4.3.1模型训练5.4.3.2模型评价5.4.4与高层API实现版本的对比实验参考5.4基于残差网络的手写体数字识别实验残差网络(ResidualNetwor
冰冻胖头鱼
·
2022-11-23 04:02
cnn
人工智能
神经网络
NNDL
作业8:RNN - 简单循环网络
简单循环网络(SimpleRecurrentNetwork,SRN)只有一个隐藏层的神经网络.目录1.使用Numpy实现SRN2.在1的基础上,增加激活函数tanh3.分别使用nn.RNNCell、nn.RNN实现SRN5.实现“Character-LevelLanguageModels”源代码(必做)7.“编码器-解码器”的简单实现(必做)编辑参考1.使用Numpy实现SRN代码实现import
冰冻胖头鱼
·
2022-11-23 04:02
rnn
人工智能
深度学习
NNDL
实验三 线性回归
目录前言2.2线性回归2.2.1数据集构建2.2.2模型构建2.2.3损失函数2.2.4模型优化2.2.5模型训练2.2.6模型评估2.2.7样本数量&正则化系数2.3多项式回归2.3.1数据集构建2.3.2模型构建2.3.3模型训练2.3.4模型评估2.4Runner类介绍2.5基于线性回归的波士顿房价预测2.5.1数据处理2.5.2模型构建2.5.3完善Runner类2.5.4模型训练3.5模
冰冻胖头鱼
·
2022-11-23 04:32
线性回归
算法
回归
NNDL
作业4:第四章课后题
习题4-1试设计一个前馈神经网络来解决XOR问题,要求该前馈神经网络具有两个隐藏神经元和一个输出神经元,并使用ReLU作为激活函数。答:XOR就是逻辑运算中的异或问题,异或是对两个运算元的一种逻辑分析类型,当两两数值相同时为否,而数值不同时为真。下面是异或运算表:输入输出ABAXOR000011101110要解决XOR运算问题,需要生成非线性的决策边界。因此,我们使用多层感知机进行求解,在单层前馈
冰冻胖头鱼
·
2022-11-23 04:32
深度学习
人工智能
【
NNDL
实验二 pytorch入门】
目录前言一、张量、算子是什么?二、使用pytorch实现张量运算1.2张量1.2.1创建张量1.2.2张量的属性1.2.4张量的访问1.2.5张量的运算三.数据预处理总结前言本文主要是对张量和算子进行简单的解释,以及使用pytorch实现张量运算和数据的预处理。一、张量、算子是什么?张量:在我理解来说,张量是一种数据类型,其实就是多维的数组。简单点来讲,拿一个小区如果把一个数装进一个房间里,那这个
冰冻胖头鱼
·
2022-11-23 04:31
python
机器学习
人工智能
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
目录5.5实践:基于ResNet18网络完成图像分类任务5.5.1数据处理5.5.1.1数据集介绍5.5.1.2数据读取5.5.1.3构造Dataset类5.5.2模型构建5.5.3模型训练5.5.4模型评价5.5.5模型预测总结编辑参考5.5实践:基于ResNet18网络完成图像分类任务图像分类(ImageClassification)是计算机视觉中的一个基础任务,将图像的语义将不同图像划分到不
冰冻胖头鱼
·
2022-11-23 04:57
cnn
分类
深度学习
NNDL
作业8:RNN - 简单循环网络
一、使用Numpy实现SRN#coding=gbkimportnumpyasnpinputs=np.array([[1.,1.],[1.,1.],[2.,2.]])#初始化输入序列print('inputsis',inputs)state_t=np.zeros(2,)#初始化存储器print('state_tis',state_t)w1,w2,w3,w4,w5,w6,w7,w8=1.,1.,1.,
weixin_51715088
·
2022-11-23 00:38
rnn
numpy
python
NNDL
实验七 循环神经网络(1)RNN记忆能力实验
循环神经网络(RecurrentNeuralNetwork,RNN)是一类具有短期记忆能力的神经网络.在循环神经网络中,神经元不但可以接受其他神经元的信息,也可以接受自身的信息,形成具有环路的网络结构.和前馈神经网络相比,循环神经网络更加符合生物神经网络的结构.目前,循环神经网络已经被广泛应用在语音识别、语言模型以及自然语言生成等任务上.简单循环网络在参数学习时存在长程依赖问题,很难建模长时间间隔
weixin_51715088
·
2022-11-23 00:38
rnn
人工智能
深度学习
python
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
5.5实践:基于ResNet18网络完成图像分类任务图像分类(ImageClassification)计算机视觉中的一个基础任务,将图像的语义将不同图像划分到不同类别。很多任务可以转换为图像分类任务。比如人脸检测就是判断一个区域内是否有人脸,可以看作一个二分类的图像分类任务。数据集:CIFAR-10数据集,网络:ResNet18模型,损失函数:交叉熵损失,优化器:Adam优化器,Adam优化器的介
weixin_51715088
·
2022-11-23 00:38
cnn
分类
深度学习
NNDL
实验六 卷积神经网络(1)卷积
卷积神经网络(ConvolutionalNeuralNetwork,CNN)受生物学上感受野机制的启发而提出。一般是由卷积层、汇聚层和全连接层交叉堆叠而成的前馈神经网络有三个结构上的特性:局部连接、权重共享、汇聚。具有一定程度上的平移、缩放和旋转不变性。和前馈神经网络相比,卷积神经网络的参数更少。主要应用在图像和视频分析的任务上,其准确率一般也远远超出了其他的神经网络模型。近年来卷积神经网络也广泛
weixin_51715088
·
2022-11-23 00:08
深度学习
卷积神经网络
NNDL
实验六 卷积神经网络(2)基础算子
5.2卷积神经网络的基础算子我们先实现卷积网络的两个基础算子:卷积层算子和汇聚层算子。5.2.1卷积算子卷积层是指用卷积操作来实现神经网络中一层。为了提取不同种类的特征,通常会使用多个卷积核一起进行特征提取。附上二维卷积提取原理动图----很形象(来源:刘先生TT)拥有多个通道的卷积,例如处理彩色图像时,分别对R,G,B这3个层处理的3通道卷积再将三个通道的卷积结果进行合并(一般采用元素相加),得
weixin_51715088
·
2022-11-23 00:08
卷积神经网络
深度学习
NNDL
实验三 线性回归
使用pytorch实现2.2线性回归2.2.1数据集构建构造一个小的回归数据集:生成150个带噪音的样本,其中100个训练样本,50个测试样本,并打印出训练数据的可视化分布。importtorchimportnumpyasnp#真实函数的参数缺省值为w=1.2,b=0.5deflinear_func(x,w=1.2,b=0.5):y=w*x+breturnydefcreate_toy_data(f
weixin_51715088
·
2022-11-23 00:07
线性回归
机器学习
python
NNDL
实验五 前馈神经网络(2)自动梯度计算 & 优化问题
4.3自动梯度计算虽然我们能够通过模块化的方式比较好地对神经网络进行组装,但是每个模块的梯度计算过程仍然十分繁琐且容易出错。在深度学习框架中,已经封装了自动梯度计算的功能,我们只需要聚焦模型架构,不再需要耗费精力进行计算梯度。pytorch中的相应内容是什么?请简要介绍。答:不同于飞桨提供的paddle.nn.Layer类,在pytorch中是torch.nn.Module类,torch.nn是专
weixin_51715088
·
2022-11-23 00:07
神经网络
人工智能
深度学习
NNDL
实验七 循环神经网络(1)RNN记忆能力实验
目录6.1循环神经网络的记忆能力实验6.1.1数据集构建6.1.1.1数据集的构建函数6.1.1.2加载数据并进行数据划分6.1.1.3构造Dataset类6.1.2模型构建6.1.2.1嵌入层6.1.2.2SRN层6.1.2.3线性层6.1.2.4模型汇总6.1.3模型训练6.1.3.1训练指定长度的数字预测模型6.1.3.2多组训练6.1.3.3损失曲线展示6.1.4模型评价【动手练习】6.1
乳酸蔓越莓吐司
·
2022-11-23 00:29
rnn
语音识别
人工智能
NNDL
作业9:分别使用numpy和pytorch实现BPTT
6-1P:推导RNN反向传播算法BPTT.写一遍:要完全手推对我来说还是太难了,只能参考大神的博客和老师提供的图片慢慢理解。6-2P:设计简单RNN模型,分别用Numpy、Pytorch实现反向传播算子,并代入数值测试.激活函数tanh性质:importtorchimportnumpyasnpclassRNNCell:def__init__(self,weight_ih,weight_hh,bia
weixin_51715088
·
2022-11-23 00:49
pytorch
深度学习
人工智能
卷积神经网络
《神经网络与深度学习》
nndl
读书笔记
目录本书的知识体系深度学习与神经网络概要人工智能机器学习机器学习模型步骤表示学习局部表示与分布式表示深度学习常用的深度学习框架端到端学习神经网络人工神经网络神经网络的发展历史机器学习概述基本概念机器学习的三个基本要素模型学习准则损失函数风险最小化准则优化算法线性回归——机器学习的简单示例偏差-方差分解机器学习算法的类型监督学习无监督学习强化学习数据的特征表示传统的特征学习**特征选择**特征抽取评
二元_
·
2022-11-22 22:45
人工智能
深度学习
神经网络
NNDL
实验三 线性回归、多元线性回归、Runner类的封装和基于线性回归的波士顿房价预测
使用pytorch实现2.2线性回归2.2.1数据集构建用到的库importrandomimportmatplotlib.pyplotaspltimporttorchimporttorch.nnfromtorchimportoptimimportnumpyasnp构造一个小的回归数据集:生成150个带噪音的样本,其中100个训练样本,50个测试样本,并打印出训练数据的可视化分布。defadd_ga
真不想再学了
·
2022-11-22 01:58
线性回归
机器学习
python
NNDL
作业5:卷积
文章目录作业1编程实现1.图1使用卷积核(1−1),输出特征图2.图1使用卷积核(−11^{1}_{-1}−11),输出特征图3.图2使用卷积核(1−1),输出特征图4.图2使用卷积核(−11^{1}_{-1}−11),输出特征图5.图3使用卷积核(1−1),(−11^{1}_{-1}−11),(−11^{1}_{-1}−111−1^{-1}_{1}1−1)输出特征图作业2一、概念二、探究不同卷积
牛奶园雪梨
·
2022-11-22 00:48
深度学习
python
pytorch
NNDL
作业9:分别使用numpy和pytorch实现BPTT
文章目录6-1P:推导RNN反向传播算法BPTT.6-2P:设计简单RNN模型,分别用Numpy、Pytorch实现反向传播算子,并代入数值测试.总结参考6-1P:推导RNN反向传播算法BPTT.6-2P:设计简单RNN模型,分别用Numpy、Pytorch实现反向传播算子,并代入数值测试.#coding=gbkimportosos.environ['KMP_DUPLICATE_LIB_OK']=
牛奶园雪梨
·
2022-11-22 00:48
numpy
pytorch
python
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
文章目录5.5实践:基于ResNet18网络完成图像分类任务5.5.1数据处理5.5.1.1数据集介绍5.5.1.2数据读取5.5.1.3构造Dataset类5.5.2模型构建什么是“预训练模型”?什么是“迁移学习”?(必做)比较“使用预训练模型”和“不使用预训练模型”的效果。(必做)5.5.3模型训练5.5.4模型评价5.5.5模型预测思考题1.阅读《DeepResidualLearningfo
牛奶园雪梨
·
2022-11-22 00:18
cnn
分类
深度学习
NNDL
实验七 循环神经网络(1)RNN记忆能力实验
文章目录6.1循环神经网络的记忆能力实验6.1.1数据集构建6.1.1.1数据集的构建函数6.1.1.2加载数据并进行数据划分6.1.1.3构造Dataset类6.1.2模型构建6.1.2.1嵌入层6.1.2.2SRN层6.1.2.3线性层6.1.2.4模型汇总6.1.3模型训练6.1.3.1训练指定长度的数字预测模型6.1.3.2多组训练6.1.3.3损失曲线展示6.1.4模型评价【动手练习】总
牛奶园雪梨
·
2022-11-22 00:18
rnn
语音识别
人工智能
NNDL
作业1:第二章课后题
习题2-1分析为什么平方损失函数不适用于分类问题,交叉熵损失函数不适用于回归问题.答:(1)平方损失函数经常用在预测标签y,y为实数值的任务中,定义为:从概率的角度看问题,线性回归中求解最优参数w中使用最大似然估计和最小二乘法的解相同,而此处的最大似然估计的是对于高斯分布而言的,既然求解参数效果相同,那么若使用平方损失函数就类似于假设了高斯先验,高斯分布不太适合用在分类问题中,那么平方损失函数自然
牛奶园雪梨
·
2022-11-22 00:18
深度学习
人工智能
NNDL
实验二 pytorch入门
一.概念:张量、算子张量在深度学习的实践中,我们通常使用向量或矩阵运算来提高计算效率。比如w1x1+w2x2+⋯+wNxN的计算可以用w⊤x来代替(其中w=[w1w2⋯wN]⊤,x=[x1x2⋯xN]⊤),这样可以充分利用计算机的并行计算能力,特别是利用GPU来实现高效矩阵运算。在深度学习框架中,数据经常用张量(Tensor)的形式来存储。张量是矩阵的扩展与延伸,可以认为是高阶的矩阵。1阶张量为向
牛奶园雪梨
·
2022-11-22 00:47
pytorch
深度学习
python
NNDL
作业8:RNN - 简单循环网络
简单循环网络(SimpleRecurrentNetwork,SRN)只有一个隐藏层的神经网络.目录1.使用Numpy实现SRN2.在1的基础上,增加激活函数tanh3.分别使用nn.RNNCell、nn.RNN实现SRN4.分析“二进制加法”源代码(选做)5.实现“Character-LevelLanguageModels”源代码(必做)6.分析“序列到序列”源代码(选做)7.“编码器-解码器”的
牛奶园雪梨
·
2022-11-22 00:42
rnn
python
深度学习
NNDL
作业3:分别使用numpy和pytorch实现FNN例题
文章目录1.过程推导-了解BP原理2.数值计算-手动计算,掌握细节3.代码实现-numpy手推+pytorch自动代码实现使用numpy实现使用pytorch实现1、对比【numpy】和【pytorch】程序,总结并陈述。2、激活函数Sigmoid用PyTorch自带函数torch.sigmoid(),观察、总结并陈述。3、激活函数Sigmoid改变为Relu,观察、总结并陈述。4、损失函数MSE
plum-blossom
·
2022-11-21 20:19
NNDL实验
pytorch
numpy
python
NNDL
作业9:分别使用numpy和pytorch实现BPTT
文章目录前言一、6-1P:推导RNN反向传播算法BPTT.二、设计简单RNN模型,分别用Numpy、Pytorch实现反向传播算子,并代入数值测试.总结前言这次,收拾了一天,晚上终于有点时间来写了,有点累,但是还是坚持,我原本不想走的,但是没办法,希望疫情快点过去吧。最后,写的不太好,希望老师和各位同学多教教我,并且真的感谢老师的帮助。6-1P:推导RNN反向传播算法BPTT.6-2P:设计简单R
别被打脸
·
2022-11-21 20:11
pytorch
神经网络
人工智能
深度学习
rnn
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
5.5实践:基于ResNet18网络完成图像分类任务图像分类(ImageClassification)计算机视觉中的一个基础任务,将图像的语义将不同图像划分到不同类别。很多任务可以转换为图像分类任务。比如人脸检测就是判断一个区域内是否有人脸,可以看作一个二分类的图像分类任务。数据集:CIFAR-10数据集,网络:ResNet18模型,损失函数:交叉熵损失,优化器:Adam优化器,Adam优化器的介
真不想再学了
·
2022-11-21 19:01
cnn
分类
深度学习
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
5.5实践:基于ResNet18网络完成图像分类任务图像分类(ImageClassification)计算机视觉中的一个基础任务,将图像的语义将不同图像划分到不同类别。很多任务可以转换为图像分类任务。比如人脸检测就是判断一个区域内是否有人脸,可以看作一个二分类的图像分类任务。数据集:CIFAR-10数据集,网络:ResNet18模型,损失函数:交叉熵损失,优化器:Adam优化器,Adam优化器的介
Guo_weiqi
·
2022-11-21 12:56
深度学习
pytorch
人工智能
NNDL
实验六 卷积神经网络(4)ResNet18实现MNIST
文章目录5.4基于残差网络的手写体数字识别实验5.4.1模型构建5.4.1.1残差单元5.4.1.2残差网络的整体结构5.4.2没有残差连接的ResNet185.4.2.1模型训练5.4.2.2模型评价5.4.3带残差连接的ResNet185.4.3.1模型训练5.4.3.2模型评价5.4.4与高层API实现版本的对比实验学习并在实验中使用:torchvision.models.resnet18(
牛奶园雪梨
·
2022-11-21 00:04
深度学习
python
pytorch
NNDL
学习笔记-第四章 前馈神经网络
NNDL
学习笔记第四章4.1神经元1.基本概念输入:该神经元获得的上一层输入——x净输入:神经元所获得的输入信息的加权和——zz=wTx+bz=w^Tx+bz=wTx+b活性值:净输入经过激活函数后的输出
西南小游侠
·
2022-11-20 23:58
NNDL学习
NNDL
作业8:RNN - 简单循环网络
文章目录1.使用Numpy实现SRN2.在1的基础上,增加激活函数tanh3.分别使用nn.RNNCell、nn.RNN实现SRN4.分析“二进制加法”源代码(选做)5.实现“Character-LevelLanguageModels”源代码(必做)6.分析“序列到序列”源代码(选做)7.“编码器-解码器”的简单实现(必做)总结参考简单循环网络(SimpleRecurrentNetwork,SRN
plum-blossom
·
2022-11-20 21:18
NNDL实验
rnn
python
深度学习
NNDL
实验六 卷积神经网络(3)LeNet实现MNIST
文章目录5.3基于LeNet实现手写体数字识别实验5.3.1MNIST数据集5.3.1.1数据预处理5.3.2模型构建5.3.2.1构建LeNet-5模型:5.3.2.2模型测试5.3.2.3测试两个网络的运算速度。5.3.2.4令两个网络加载同样的权重,测试一下两个网络的输出结果是否一致。5.3.2.5统计LeNet-5模型的参数量和计算量。5.3.3模型训练5.3.4模型评价5.3.5模型预测
plum-blossom
·
2022-11-20 21:47
NNDL实验
cnn
深度学习
人工智能
NNDL
实验六 卷积神经网络(1)卷积
文章目录5.1卷积5.1.1二维卷积运算5.1.2二维卷积算子5.1.3二维卷积的参数量和计算量5.1.4感受野5.1.5卷积的变种5.1.5.1步长(Stride)5.1.5.2零填充(ZeroPadding)5.1.6带步长和零填充的二维卷积算子5.1.7使用卷积运算完成图像边缘检测任务选做题1.实现一些传统边缘检测算子,如:Roberts、Prewitt、Sobel、Scharr、Kirsc
plum-blossom
·
2022-11-20 21:47
NNDL实验
上一页
5
6
7
8
9
10
11
12
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他