E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
nndl
NNDL
作业5:卷积
文章目录作业1编程实现1.图1使用卷积核(1−1),输出特征图2.图1使用卷积核(1−1)^T^,输出特征图3.图2使用卷积核(1−1),输出特征图4.图2使用卷积核(1−1)^T^,输出特征图5.图3使用卷积核(1−1),(1−1)^T^,![在这里插入图片描述](https://img-blog.csdnimg.cn/55c0e8ff4ef3447e9adc228cd177d510.png)作
plum-blossom
·
2022-11-20 21:16
NNDL实验
深度学习
python
pytorch
NNDL
实验六 卷积神经网络(4)ResNet18实现MNIST
文章目录5.4基于残差网络的手写体数字识别实验5.4.1模型构建5.4.1.1残差单元5.4.1.2残差网络的整体结构5.4.2没有残差连接的ResNet185.4.2.1模型训练5.4.2.2模型评价5.4.3带残差连接的ResNet185.4.3.1模型训练5.4.3.2模型评价5.4.4与高层API实现版本的对比实验总结参考5.4基于残差网络的手写体数字识别实验残差网络(ResidualNe
plum-blossom
·
2022-11-20 21:16
NNDL实验
cnn
深度学习
神经网络
NNDL
实验四 线性分类
文章目录第3章线性分类3.1基于Logistic回归的二分类任务3.1.1数据集构建3.1.2模型构建3.1.3损失函数3.1.4模型优化3.1.5评价指标3.1.6完善Runner类3.1.7模型训练3.1.8模型评价3.2基于Softmax回归的多分类任务3.2.1数据集构建3.2.2模型构建3.2.3损失函数3.2.4模型优化3.2.5模型训练3.2.6模型评价3.3实践:基于Softmax
plum-blossom
·
2022-11-20 21:16
NNDL实验
分类
机器学习
深度学习
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
文章目录5.5实践:基于ResNet18网络完成图像分类任务5.5.1数据处理5.5.1.1数据集介绍5.5.1.2数据读取5.1.1.3构造Dataset类5.5.2模型构建什么是“**预训练模型**”?什么是“迁移学习”?(必做)比较“使用预训练模型”和“不使用预训练模型”的效果。(必做)5.5.3模型训练5.5.4模型评价5.5.5模型预测思考题1.阅读《DeepResidualLearni
plum-blossom
·
2022-11-20 21:38
NNDL实验
cnn
分类
深度学习
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
目录5.5实践:基于ResNet18网络完成图像分类任务5.5.1数据处理5.5.1.1数据集介绍5.5.1.2数据读取5.5.1.3构造Dataset类5.5.2模型构建5.5.3模型训练5.5.4模型评价5.5.5模型预测思考题1.阅读《DeepResidualLearningforImageRecognition》,了解5种深度的ResNet(18,34,50,101和152),并简单谈谈自
_Gypsophila___
·
2022-11-20 15:49
cnn
深度学习
神经网络
NNDL
作业8:RNN - 简单循环网络
简单循环网络(SimpleRecurrentNetwork,SRN)只有一个隐藏层的神经网络。目录1.使用Numpy实现SRN2.在1的基础上,增加激活函数tanh3.分别使用nn.RNNCell、nn.RNN实现SRN4.分析“二进制加法”源代码(选做)5.实现“Character-LevelLanguageModels”源代码6.分析“序列到序列”源代码(选做)7.“编码器-解码器”的简单实现
cdd04
·
2022-11-20 12:06
rnn
深度学习
NNDL
实验六 卷积神经网络(3)LeNet实现MNIST
目录5.3基于LeNet实现手写体数字识别实验5.3.1数据5.3.1.1数据预处理5.3.2模型构建5.3.3模型训练5.3.4模型评价5.3.5模型预测使用前馈神经网络实现MNIST识别,与LeNet效果对比。(选做)心得体会ref5.3基于LeNet实现手写体数字识别实验在本节中,我们实现经典卷积网络LeNet-5,并进行手写体数字识别任务。5.3.1数据手写体数字识别是计算机视觉中最常用的
cdd04
·
2022-11-20 12:36
cnn
人工智能
神经网络
NNDL
实验六 卷积神经网络(4)ResNet18实现MNIST
目录5.4基于残差网络的手写体数字识别实验5.4.1模型构建5.4.1.1残差单元5.4.1.2残差网络的整体结构5.4.2没有残差连接的ResNet185.4.2.1模型训练5.4.2.2模型评价5.4.3带残差连接的ResNet185.4.3.1模型训练5.4.3.2模型评价5.4.4与高层API实现版本的对比实验心得体会5.4基于残差网络的手写体数字识别实验残差网络(ResidualNetw
cdd04
·
2022-11-20 12:36
cnn
深度学习
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
目录5.5实践:基于ResNet18网络完成图像分类任务5.5.1数据处理5.5.1.1数据集介绍5.5.1.2数据读取5.5.1.3构造Dataset类5.5.2模型构建5.5.3模型训练5.5.4模型评价5.5.5模型预测思考题1.阅读《DeepResidualLearningforImageRecognition》,了解5种深度的ResNet(18,34,50,101和152),并简单谈谈自
cdd04
·
2022-11-20 12:29
cnn
分类
深度学习
NNDL
实验六 卷积神经网络(4)ResNet18实现MNIST
文章目录5.4基于残差网络的手写体数字识别实验5.4.1模型构建5.4.1.1残差单元5.4.1.2残差网络的整体结构5.4.2没有残差连接的ResNet185.4.2.1模型训练5.4.2.2模型评价5.4.3带残差连接的ResNet185.4.3.1模型训练5.4.3.2模型评价5.4.4与高层API实现版本的对比实验总结心得体会参考链接5.4基于残差网络的手写体数字识别实验残差网络(Resi
凉堇
·
2022-11-20 08:16
cnn
深度学习
神经网络
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
5.5实践:基于ResNet18网络完成图像分类任务5.5.1数据处理5.5.1.1数据集介绍5.5.1.2数据读取5.5.1.3构造Dataset类5.5.2模型构建必做题什么是“预训练模型”?什么是“迁移学习”?比较“使用预训练模型”和“不使用预训练模型”的效果。5.5.3模型训练5.5.4模型评价5.5.5模型预测思考题1.阅读《DeepResidualLearningforImageRec
凉堇
·
2022-11-20 08:16
深度学习
cnn
NNDL
实验六 卷积神经网络(3)LeNet实现MNIST
文章目录5.3基于LeNet实现手写体数字识别实验5.3.1数据5.3.1.1数据预处理5.3.2模型构建5.3.3模型训练5.3.4模型评价5.3.5模型预测选做题使用前馈神经网络实现MNIST识别,与LeNet效果对比。(选做)可视化LeNet中的部分特征图和卷积核,谈谈自己的看法。(选做)总结心得体会参考链接5.3基于LeNet实现手写体数字识别实验在本节中,我们实现经典卷积网络LeNet-
凉堇
·
2022-11-20 08:16
cnn
深度学习
神经网络
NNDL
作业6:基于CNN的XO识别
文章目录一、实现卷积-池化-激活1.Numpy版本:手工实现卷积-池化-激活2.Pytorch版本:调用函数实现卷积-池化-激活二、基于CNN的XO识别1.数据集2.构建模型3.训练模型4、测试训练好的模型5、计算模型的准确率6、查看训练好的模型特征图7、查看训练好的卷积核8、训练模型源代码9、测试源代码总结心得体会参考链接一、实现卷积-池化-激活可视化卷积核和特征图1.Numpy版本:手工实现卷
凉堇
·
2022-11-20 08:15
深度学习
pytorch
NNDL
作业3:分别使用numpy和pytorch实现FNN例题
目录题目一、过程推导-了解BP原理二、数值计算-手动计算,掌握细节三、代码实现-numpy手推+pytorch自动1、对比【numpy】和【pytorch】程序,总结并陈述。2、激活函数Sigmoid用PyTorch自带函数torch.sigmoid(),观察、总结并陈述。3、激活函数Sigmoid改变为Relu,观察、总结并陈述。4、损失函数MSE用PyTorch自带函数t.nn.MSELoss
凉堇
·
2022-11-20 08:45
python
深度学习
pytorch
NNDL
作业4:第四章课后题
目录4-2试设计一个前馈神经网络来解决XOR问题,要求该前馈神经网络具有两个隐藏神经元和一个输出神经元,并使用ReLUctant作为激活函数。4-3试举例说明“死亡ReLU问题”,并提出解决方法。4-7为什么在神经网络模型的结构化风险函数中不对偏置b进行正则化?4-8为什么在用反向传播算法进行参数学习时要采用随机参数初始化的方式而不是直接令W=0,b=0?4-9梯度消失问题是否可以通过增加学习率来
凉堇
·
2022-11-20 08:45
深度学习
机器学习
NNDL
作业5:卷积
目录作业11.图1使用卷积核(1-1),输出特征图2.图1使用卷积核编辑,输出特征图3.图2使用卷积核(1-1),输出特征图4.图2使用卷积核编辑,输出特征图5.图3使用卷积核(1-1),编辑,编辑,输出特征图作业2一、概念二、探究不同卷积核的作用三、编程实现1.实现灰度图的边缘检测、锐化、模糊。(必做)2.调整卷积核参数,测试并总结。(必做)3.使用不同尺寸图片,测试并总结。(必做)4.尝试彩色
凉堇
·
2022-11-20 08:45
深度学习
python
人工智能
NNDL
实验二 pytorch入门
文章目录一.概念:张量、算子二.使用pytorch实现张量运算1.2张量1.2.1创建张量1.2.2张量的属性1.2.3张量与Numpy数组转换1.2.4张量的访问1.2.5张量的运算三.使用pytorch实现数据预处理1.读取数据集house_tiny.csv、boston_house_prices.csv、Iris.csv2.处理缺失值3.转换为张量格式总结一.概念:张量、算子1.张量张量(T
凉堇
·
2022-11-20 08:44
pytorch
深度学习
python
NNDL
作业8:RNN - 简单循环网络
NNDL
作业8:RNN-简单循环网络1.使用Numpy实现SRN2.在1的基础上,增加激活函数tanh!
凉堇
·
2022-11-20 08:36
深度学习
rnn
python
【论文笔记】图注意力网络 GRAPH ATTENTION NETWORKS(GAT)
有关注意力机制的基本概念,可以参考https://
nndl
.github.io/本文介绍了一种使用注意力机制进行图的结点分类的架构。
勇敢铁铁
·
2022-11-20 05:00
论文笔记
GAT
图神经网络
图注意力网络
机器学习
神经网络
深度学习和神经网络基础知识
资料主要来源作者邱锡鹏:https://
nndl
.github.io/本文作为个人学习使用,侵删1、概述从根源上来说,深度学习是机器学习的一个分支,是指一类问题及解决这类问题的方法,即从有限样例中通过算法总结出一般性的规律
justaboutenougha
·
2022-11-20 04:49
深度学习
神经网络
人工智能
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
5.5实践:基于ResNet18网络完成图像分类任务图像分类(ImageClassification)计算机视觉中的一个基础任务,将图像的语义将不同图像划分到不同类别。很多任务可以转换为图像分类任务。比如人脸检测就是判断一个区域内是否有人脸,可以看作一个二分类的图像分类任务。5.5.1数据处理5.5.1.1数据集介绍CIFAR-10数据集包含了10种不同的类别、共60,000张图像,其中每个类别的
zc.9495
·
2022-11-19 22:30
cnn
分类
深度学习
NNDL
实验六 卷积神经网络(3)LeNet实现MNIST
5.3基于LeNet实现手写体数字识别实验5.3.1数据手写体数字识别是计算机视觉中最常用的图像分类任务,让计算机识别出给定图片中的手写体数字(0-9共10个数字)。由于手写体风格差异很大,因此手写体数字识别是具有一定难度的任务。我们采用常用的手写数字识别数据集:MNIST数据集。MNIST数据集是计算机视觉领域的经典入门数据集,包含了60,000个训练样本和10,000个测试样本。这些数字已经过
zc.9495
·
2022-11-19 22:59
cnn
深度学习
python
NNDL
实验六 卷积神经网络(4)ResNet18实现MNIST
5.4基于残差网络的手写体数字识别实验残差网络(ResidualNetwork,ResNet)是在神经网络模型中给非线性层增加直连边的方式来缓解梯度消失问题,从而使训练深度神经网络变得更加容易。假设f(x;θ)为一个或多个神经层,残差单元在f()的输入和输出之间加上一个直连边。不同于传统网络结构中让网络f(x;θ)去逼近一个目标函数h(x),在残差网络中,将目标函数h(x)拆为了两个部分:恒等函数
zc.9495
·
2022-11-19 22:59
cnn
深度学习
神经网络
NNDL
实验五 前馈神经网络(2)自动梯度计算 & 优化问题
4.3自动梯度计算和预定义算子虽然我们能够通过模块化的方式比较好地对神经网络进行组装,但是每个模块的梯度计算过程仍然十分繁琐且容易出错。在深度学习框架中,已经封装了自动梯度计算的功能,我们只需要聚焦模型架构,不再需要耗费精力进行计算梯度。飞桨提供了paddle.nn.Layer类,来方便快速的实现自己的层和模型。模型和层都可以基于paddle.nn.Layer扩充实现,模型只是一种特殊的层。继承了
zc.9495
·
2022-11-19 22:59
神经网络
深度学习
人工智能
NNDL
作业4:第四章课后题
4.2试设计一个前馈神经网络来解决XOR问题,要求该前馈神经网络具有两个隐藏神经元和一个输出神经元,并使用ReLU作为激活函数.XOR问题描述:异或是对两个运算元的一种逻辑分析类型,当两两数值相同时为否,而数值不同时为真。XOR运算的网络结构图:代码:importtorchimporttorch.nnasnnimporttorch.optimasoptim#异或门模块由两个全连接层构成classX
zc.9495
·
2022-11-19 22:59
深度学习
NNDL
作业3:分别使用numpy和pytorch实现FNN例题
分别使用numpy和pytorch实现FNN例题一.过程推导-了解BP原理二.数值计算-手动计算,掌握细节三.代码实现-numpy手推+pytorch自动代码实现:需要解决的问题:1.对比【numpy】和【pytorch】程序,总结并陈述。2.激活函数Sigmoid用PyTorch自带函数torch.sigmoid(),观察、总结并陈述。3.激活函数Sigmoid改变为Relu,观察、总结并陈述。
zc.9495
·
2022-11-19 22:28
pytorch
numpy
深度学习
NNDL
作业8:RNN - 简单循环网络
简单循环网络(SimpleRecurrentNetwork,SRN)只有一个隐藏层的神经网络1.使用Numpy实现SRNimportnumpyasnpinputs=np.array([[1.,1.],[1.,1.],[2.,2.]])#初始化输入序列print('inputsis',inputs)state_t=np.zeros(2,)#初始化存储器print('state_tis',state_
zc.9495
·
2022-11-19 22:38
rnn
python
深度学习
NNDL
作业3:分别使用numpy和pytorch实现FNN例题
目录1.过程推导-了解BP原理2.数值计算-手动计算,掌握细节3.代码实现-numpy手推+pytorch自动使用numpy实现使用pytorch实现4.心得体会1.过程推导-了解BP原理2.数值计算-手动计算,掌握细节3.代码实现-numpy手推+pytorch自动使用numpy实现importnumpyasnpw1,w2,w3,w4,w5,w6,w7,w8=0.2,-0.4,0.5,0.6,0
Sun.02
·
2022-11-19 21:00
numpy
pytorch
python
NNDL
作业5:卷积
目录作业1编程实现作业2一、概念二、探究不同卷积核的作用三、编程实现1、实现灰度图的边缘检测、锐化、模糊。(必做)2、调整卷积核参数,测试并总结。(必做)3、使用不同尺寸图片,测试并总结。(必做)总结作业1编程实现1.图1使用卷积核(1−1),输出特征图importtorchimportmatplotlib.pyplotaspltimporttorch.nn.functionalasFimport
Sun.02
·
2022-11-19 21:00
python
深度学习
开发语言
NNDL
实验六 卷积神经网络(3)LeNet实现MNIST
5.3基于LeNet实现手写体数字识别实验5.3.1数据手写体数字识别是计算机视觉中最常用的图像分类任务,让计算机识别出给定图片中的手写体数字(0-9共10个数字)。由于手写体风格差异很大,因此手写体数字识别是具有一定难度的任务。我们采用常用的手写数字识别数据集:MNIST数据集。MNISThandwrittendigitdatabase,YannLeCun,CorinnaCortesandChr
Sun.02
·
2022-11-19 21:30
cnn
人工智能
深度学习
NNDL
实验五 前馈神经网络(1)二分类任务
目录4.1神经元4.1.1净活性值4.1.2激活函数4.1.2.1Sigmoid型函数4.1.2.2ReLU型函数4.2基于前馈神经网络的二分类任务4.2.1数据集构建4.2.2模型构建4.2.2.1线性层算子4.2.2.2Logistic算子(激活函数)4.2.2.3层的串行组合4.2.3损失函数4.2.4模型优化4.2.4.1反向传播算法4.2.4.2损失函数4.2.4.3Logistic算子
Sun.02
·
2022-11-19 21:29
深度学习
机器学习
人工智能
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
目录5.5实践:基于ResNet18网络完成图像分类任务5.5.1数据处理5.5.2模型构建什么是“预训练模型”?什么是“迁移学习”?(必做)5.5.3比较“使用预训练模型”和“不使用预训练模型”的效果。(必做)5.5.4模型评价5.5.5模型预测思考题1.阅读《DeepResidualLearningforImageRecognition》,了解5种深度的ResNet(18,34,50,101和
Sun.02
·
2022-11-19 21:19
cnn
分类
深度学习
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
5.5实践:基于ResNet18网络完成图像分类任务图像分类(ImageClassification)计算机视觉中的一个基础任务,将图像的语义将不同图像划分到不同类别。很多任务可以转换为图像分类任务。比如人脸检测就是判断一个区域内是否有人脸,可以看作一个二分类的图像分类任务。数据集:CIFAR-10数据集,网络:ResNet18模型,损失函数:交叉熵损失,优化器:Adam优化器,Adam优化器的介
HBU_David
·
2022-11-19 14:58
DeepLearning
cnn
深度学习
人工智能
NNDL
作业8:RNN - 简单循环网络
目录1.使用Numpy实现SRN2.在1的基础上,增加激活函数tanh3.分别使用nn.RNNCell、nn.RNN实现SRN4.分析“二进制加法”源代码(选做)5.实现“Character-LevelLanguageModels”源代码(必做)6.分析“序列到序列”源代码(选做)7.“编码器-解码器”的简单实现(必做)总结:Ref:1.使用Numpy实现SRNimportnumpyasnpinp
沐一mu
·
2022-11-19 14:54
python
numpy
深度学习
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
文章目录前言一、5.5实践:基于ResNet18网络完成图像分类任务5.5.1数据处理5.5.1.1数据集介绍5.5.1.2数据读取5.5.1.3构造Dataset类5.5.2模型构建什么是“预训练模型”?什么是“迁移学习”?(必做)比较“使用预训练模型”和“不使用预训练模型”的效果。(必做)1、不使用预训练模型5.5.3模型训练5.5.4模型评价5.5.5模型预测二、思考题1.阅读《DeepRe
别被打脸
·
2022-11-19 13:24
人工智能
深度学习
pytorch
cnn
NNDL
实验七 循环神经网络(1)RNN记忆能力实验
文章目录前言循环神经网络(RecurrentNeuralNetwork,RNN)是一类具有短期记忆能力的神经网络.一、6.1循环神经网络的记忆能力实验6.1循环神经网络的记忆能力实验6.1.1数据集构建6.1.1.1数据集的构建函数6.1.1.2加载数据并进行数据划分6.1.1.3构造Dataset类6.1.2模型构建6.1.2.1嵌入层6.1.2.2SRN层6.1.2.3线性层编辑6.1.2.4
别被打脸
·
2022-11-19 13:24
人工智能
深度学习
神经网络
rnn
NNDL
实验六 卷积神经网络(4)ResNet18实现MNIST
文章目录前言一、基于残差网络的手写体数字识别实验5.4.1模型构建5.4.1.1残差单元5.4.1.2残差网络的整体结构5.4.2没有残差连接的ResNet185.4.2.1模型训练5.4.2.2模型评价5.4.3带残差连接的ResNet185.4.3.1模型训练5.4.3.2模型评价5.4.4与高层API实现版本的对比实验编辑遇到的问题总结前言这我还是写的很细,并且感觉这次用到了好多上一个实验的
别被打脸
·
2022-11-19 13:23
机器学习
人工智能
深度学习
神经网络
cnn
NNDL
作业4:第四章课后题
文章目章前言一、习题4-2试设计一个前馈神经网络来解决XOR问题,要求该前馈神经网络具有两个隐藏神经元和一个输出神经元,并使用ReLU作为激活函数.4.2.1网络的构建4.2.2参数的设置4.2.3训练模型4.2.4打印训练结果4.2.5可视化4.2.6与感知机的比较二、习题4-3试举例说明“死亡ReLU问题”,并提出解决方法.好了,废话说完了,我们来看一下,代码实例这个是用ReLU来实现的。使用
别被打脸
·
2022-11-19 13:53
python
机器学习
人工智能
深度学习
pytorch
NNDL
实验六 卷积神经网络(1)卷积
文章目录前言第5章卷积神经网络一、5.1卷积5.1.1二维卷积运算5.1.2二维卷积算子5.1.3二维卷积的参数量和计算量5.1.4感受野5.1.5卷积的变种5.1.5.1步长(Stride)5.1.5.2零填充(ZeroPadding)5.1.6带步长和零填充的二维卷积算子5.1.7使用卷积运算完成图像边缘检测任务二、选做题1.选做1实现一些传统边缘检测算子,如:Roberts、Prewitt、
别被打脸
·
2022-11-19 13:53
python
机器学习
深度学习
人工智能
pytorch
NNDL
实验五 前馈神经网络(1)二分类任务
目录前言一、4.1神经元4.1.1净活性值【思考题】加权相加与仿射变换之间有什么区别和联系?4.1.2激活函数动手实现《神经网络与深度学习》4.1节中提到的其他激活函数:4.2基于前馈神经网络的二分类任务4.2.1数据集构建4.2.2模型构建4.2.3损失函数4.2.4模型优化4.2.5完善Runner类:RunnerV2_14.2.6模型训练4.2.7性能评价【思考题】对比3.1基于Logist
别被打脸
·
2022-11-19 13:52
python
机器学习
pytorch
深度学习
人工智能
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
NNDL
实验六卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类5.5实践:基于ResNet18网络完成图像分类任务5.5.1数据处理5.5.1.1数据集导入5.5.1.2划分训练集、
Perfect(*^ω^*)
·
2022-11-19 13:21
cnn
分类
python
NNDL
作业8:RNN - 简单循环网络
目录1.使用Numpy实现SRN2.在1的基础上,增加激活函数tanh3.分别使用nn.RNNCell、nn.RNN实现SRN5.实现“Character-LevelLanguageModels”源代码6.分析“序列到序列”源代码7.“编码器-解码器”的简单实现总结1.使用Numpy实现SRNimportnumpyasnpinputs=np.array([[1.,1.],[1.,1.],[2.,2
.星.
·
2022-11-19 13:44
rnn
python
人工智能
NNDL
实验六 卷积神经网络(4)ResNet18实现MNIST
目录5.4基于残差网络的手写体数字识别实验5.4.1模型构建5.4.1.1残差单元5.4.1.2残差网络的整体结构5.4.2没有残差连接的ResNet185.4.2.1模型训练5.4.2.2模型评价5.4.3带残差连接的ResNet185.4.3.1模型训练5.4.3.2模型评价5.4.4与高层API实现版本的对比实验总结:5.4基于残差网络的手写体数字识别实验残差网络(ResidualNetwo
Persevere~~~
·
2022-11-19 13:06
深度学习
人工智能
NNDL
作业8:RNN - 简单循环网络
简单循环网络(SimpleRecurrentNetwork,SRN)只有一个隐藏层的神经网络.目录1.使用Numpy实现SRN2.在1的基础上,增加激活函数tanh3.分别使用nn.RNNCell、nn.RNN实现SRN4.分析“二进制加法”源代码(选做)5.实现“Character-LevelLanguageModels”源代码(必做)6.分析“序列到序列”源代码(选做)7.“编码器-解码器”的
Persevere~~~
·
2022-11-19 13:06
rnn
人工智能
深度学习
NNDL
实验五 前馈神经网络(3)鸢尾花分类
目录深入研究鸢尾花数据集4.5实践:基于前馈神经网络完成鸢尾花分类4.5.1小批量梯度下降法4.5.1.1数据分组4.5.2数据处理4.5.2.1加载数据集4.5.2.2用DataLoader进行封装4.5.3模型构建4.5.4完善Runner类4.5.5模型训练4.5.6模型评价4.5.7模型预测思考题1.对比Softmax分类和前馈神经网络分类。(必做)2.自定义隐藏层层数和每个隐藏层中的神经
Persevere~~~
·
2022-11-19 13:35
神经网络
分类
机器学习
NNDL
实验六 卷积神经网络(1)卷积
目录5.1卷积5.1.1二维卷积运算5.1.2二维卷积算子5.1.3二维卷积的参数量和计算量5.1.4感受野5.1.5卷积的变种5.1.5.1步长(Stride)5.1.5.2零填充(ZeroPadding)5.1.6带步长和零填充的二维卷积算子5.1.7使用卷积运算完成图像边缘检测任务选做题:Pytorch实现1、2;阅读3、4、5写体会。边缘检测系列1:传统边缘检测算子1.1构建通用的边缘检测
Persevere~~~
·
2022-11-19 13:35
NNDL
实验六 卷积神经网络(3)LeNet实现MNIST
目录5.3基于LeNet实现手写体数字识别实验5.3.1数据5.3.1.1数据预处理5.3.2模型构建5.3.3模型训练5.3.4模型评价5.3.5模型预测使用前馈神经网络实现MNIST识别,与LeNet效果对比。(选做)可视化LeNet中的部分特征图和卷积核,谈谈自己的看法(选做)总结:常用的手写数字识别数据集:MNIST数据集。MNISThandwrittendigitdatabase,Yan
Persevere~~~
·
2022-11-19 13:35
cnn
python
java
NNDL
实验二 pytorch入门
一.概念:张量、算子1、张量在深度学习的实践中,通常使用向量或矩阵运算来提高计算效率。在深度学习框架中,数据经常用张量(Tensor)的形式来存储。张量是矩阵的扩展与延伸,可以认为是高阶的矩阵。1阶张量为向量,2阶张量为矩阵。如果对Numpy熟悉,那么张量是类似于Numpy的多维数组(ndarray)的概念,可以具有任意多的维度。注意:这里的“维度”是“阶”的概念,和线性代数中向量的“维度”含义不
Persevere~~~
·
2022-11-19 13:05
pytorch
python
深度学习
NNDL
实验三 线性回归
目录2.2线性回归2.2.1数据集构建2.2.2模型构建2.2.3损失函数2.2.4模型优化2.2.5模型训练2.2.6模型评估2.2.7样本数量&正则化系数2.3多项式回归2.3.1数据集构建2.3.2模型构建2.3.3模型训练2.3.4模型评估2.4Runner类介绍2.5基于线性回归的波士顿房价预测2.5.1数据处理2.5.1.1数据集介绍2.5.1.2数据清洗2.5.1.3数据集划分2.5
Persevere~~~
·
2022-11-19 13:05
线性回归
机器学习
深度学习
NNDL
作业3:分别使用numpy和pytorch实现FNN例题
目录一、过程推导——了解BP原理二、数值计算三、代码实现-numpy手推+pytorch自动1、对比【numpy】和【pytorch】程序,总结并陈述。(1)使用numpy实现(2)使用pytorch实现2、激活函数Sigmoid用PyTorch自带函数torch.sigmoid(),观察、总结并陈述。3、激活函数Sigmoid改变为Relu,观察、总结并陈述。4、损失函数MSE用PyTorch自
Persevere~~~
·
2022-11-19 13:05
numpy
pytorch
python
上一页
6
7
8
9
10
11
12
13
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他