E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
nndl
HBU-
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
目录5.5实践:基于ResNet18网络完成图像分类任务5.5.1数据处理5.5.1.1数据集介绍5.5.1.2数据读取5.5.2模型构建5.5.3模型训练5.5.4模型评价5.5.5模型预测1.阅读《DeepResidualLearningforImageRecognition》,了解5种深度的ResNet(18,34,50,101和152),并简单谈谈自己的看法。2.用自己的话简单评价:LeN
不是蒋承翰
·
2022-11-19 13:32
深度学习
神经网络
人工智能
pytorch
cnn
NNDL
实验六 卷积神经网络(5) 使用预训练resnet18实现CIFAR-10分类
目录5.5实践:基于ResNet18网络完成图像分类任务5.5.1数据处理5.5.1.1数据集介绍5.5.1.2数据读取5.5.2模型构建1.什么是“预训练模型”?什么是“迁移学习”?(必做)2.比较“使用预训练模型”和“不使用预训练模型”的效果。(必做)5.5.3模型训练5.5.4模型评价5.5.5模型预测思考题1.阅读《DeepResidualLearningforImageRecogniti
LzeKun
·
2022-11-19 13:32
cnn
分类
深度学习
NNDL
作业8:RNN - 简单循环网络
文章目录前言一、使用Numpy实现SRN二、在1的基础上,增加激活函数tanh三、分别使用nn.RNNCell、nn.RNN实现SRN四、分析“二进制加法”源代码(选做)五、实现“Character-LevelLanguageModels”源代码(必做)六、分析“序列到序列”源代码(选做)七、“编码器-解码器”的简单实现(必做)关于有激活函数的问题的解决办法(希望老师,各位大佬批评指正)总结前言这
别被打脸
·
2022-11-19 13:26
人工智能
深度学习
神经网络
cnn
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
目录5.5实践:基于ResNet18网络完成图像分类任务5.5.1数据处理5.5.1.1数据集介绍5.5.1.2数据读取5.5.1.3构造Dataset类5.5.2模型构建5.5.3模型训练5.5.4模型评价5.5.5模型预测思考题1.阅读《DeepResidualLearningforImageRecognition》(https://arxiv.org/abs/1512.03385),了解5种
Persevere~~~
·
2022-11-19 13:55
cnn
分类
深度学习
NNDL
实验LeNet
5.3基于LeNet实现手写数字识别5.3.1观察数据集,可视化其中一张图片,并做预处理importjsonimportgzip#打印并观察数据集分布情况train_set,dev_set,test_set=json.load(gzip.open('./mnist.json.gz'))train_images,train_labels=train_set[0][:1000],train_set[1
mmmooonnneeeyyy
·
2022-11-19 12:54
python
numpy
深度学习
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
5.5实践:基于ResNet18网络完成图像分类任务图像分类(ImageClassification)数据集:CIFAR-10数据集,网络:ResNet18模型,损失函数:交叉熵损失,优化器:Adam优化器评价指标:准确率。5.5.1数据处理transformer=transforms.Compose([transforms.ToTensor(),transforms.Normalize(mean
mmmooonnneeeyyy
·
2022-11-19 12:54
cnn
分类
深度学习
nndl
作业3
过程推导-了解BP原理借用patternrecognitionandmachinelearning里的再次借用西瓜书和南瓜书里的推导:数值计算-手动计算,掌握细节根据上面的公式得到这里好像没有b是吧,没有就没有吧。代码实现-numpy手推+pytorch自动借用斋藤康毅了老师的代码:(https://github.com/oreilly-japan/deep-learning-from-scrat
mmmooonnneeeyyy
·
2022-11-19 12:24
python
numpy
深度学习
NNDL
实验6
卷积神经网络(ConvolutionalNeuralNetwork,CNN)受生物学上感受野机制的启发而提出。一般是由卷积层、汇聚层和全连接层交叉堆叠而成的前馈神经网络有三个结构上的特性:局部连接、权重共享、汇聚。具有一定程度上的平移、缩放和旋转不变性。和前馈神经网络相比,卷积神经网络的参数更少。主要应用在图像和视频分析的任务上,其准确率一般也远远超出了其他的神经网络模型。近年来卷积神经网络也广泛
mmmooonnneeeyyy
·
2022-11-19 12:24
深度学习
计算机视觉
pytorch
NNDL
作业8:RNN - 简单循环网络
1.使用Numpy实现SRNimportnumpyasnpinputs=np.array([[1.,1.],[1.,1.],[2.,2.]])#初始化输入序列print('inputsis',inputs)state_t=np.zeros(2,)#初始化存储器print('state_tis',state_t)w1,w2,w3,w4,w5,w6,w7,w8=1.,1.,1.,1.,1.,1.,1.
mmmooonnneeeyyy
·
2022-11-19 12:16
rnn
python
深度学习
NNDL
实验六 卷积神经网络(4)ResNet18实现MNIST
目录5.4基于残差网络的手写体数字识别实验5.4.1模型构建5.4.1.1残差单元5.4.1.2残差网络的整体结构5.4.2没有残差连接的ResNet185.4.2.1模型训练补充5.4.2.2模型评价5.4.3带残差连接的ResNet185.4.3.2模型评价5.4.4与高层API实现版本的对比实验参考:总结:5.4基于残差网络的手写体数字识别实验残差网络(ResidualNetwork,Res
Stacey.933
·
2022-11-19 12:00
cnn
深度学习
NNDL
实验六 卷积神经网络(1)卷积
目录5.1卷积5.1.1二维卷积运算5.1.2二维卷积算子5.1.3二维卷积的参数量和计算量5.1.4感受野5.1.5卷积的变种5.1.5.1步长(Stride)5.1.5.2零填充(ZeroPadding)5.1.6带步长和零填充的二维卷积算子5.1.7使用卷积运算完成图像边缘检测任务选做题边缘检测系列1:传统边缘检测算子-飞桨AIStudio1.1构建通用的边缘检测算子1.2图像边缘检测测试函
Stacey.933
·
2022-11-19 12:59
cnn
深度学习
计算机视觉
NNDL
作业一
深度学习第一次作业习题2-1分析为什么平方损失函数不适用于分类问题,交叉熵损失函数不适用于回归问题.分类问题不连续,使用平方损失函数,没有距离概念,在分类错误的情况下无法判断优化的好坏。交叉熵损失函数只和分类正确的预测结果有关,对于回归问题来说是不够的。习题2-2对于一个三分类问题,数据集的真实标签和模型的预测标签如下:分别计算模型的精确率、召回率、F1值以及它们的宏平均和微平均.精确率:召回率:
Stacey.933
·
2022-11-19 12:29
NNDL
实验六 卷积神经网络(3)LeNet实现MNIST
目录5.3基于LeNet实现手写体数字识别实验5.3.1数据5.3.1.1数据预处理5.3.2模型构建5.3.3模型训练5.3.4模型评价5.3.5模型预测使用前馈神经网络实现MNIST识别,与LeNet效果对比。(选做)可视化LeNet中的部分特征图和卷积核,谈谈自己的看法。(选做)总结:参考:手写体数字识别是计算机视觉中最常用的图像分类任务,让计算机识别出给定图片中的手写体数字(0-9共10个
Stacey.933
·
2022-11-19 12:29
cnn
人工智能
深度学习
NNDL
实验二 pytorch入门
一.概念:张量、算子写出定义,并用通俗易懂的语言描述自己的理解。二.使用pytorch实现张量运算1.2张量1.2.1创建张量1.2.1.1指定数据创建张量(1)通过指定的Python列表数据[2.0,3.0,4.0],创建一个一维张量。importnumpyasnpimporttorchTensor=torch.Tensor(np.array([1.0,2.0,3.0]));#np生成再转换成t
Stacey.933
·
2022-11-19 12:59
python
深度学习
NNDL
实验六 卷积神经网络(5) 使用预训练resnet18实现CIFAR-10分类
目录实践:基于ResNet18网络完成图像分类任务数据处理数据集介绍数据读取构造Dataset类模型构建模型训练模型评价模型预测思考题总结参考实践:基于ResNet18网络完成图像分类任务在本实践中,我们实践一个更通用的图像分类任务。图像分类(ImageClassification)是计算机视觉中的一个基础任务,将图像的语义将不同图像划分到不同类别。很多任务也可以转换为图像分类任务。比如人脸检测就
白小码i
·
2022-11-19 12:56
cnn
分类
深度学习
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
目录5.5实践:基于ResNet18网络完成图像分类任务5.5.1数据处理5.5.1.1数据集介绍5.5.1.2数据读取5.5.1.2数据集划分5.5.2模型构建5.5.2.1使用Resnet18进行图像分类实验5.2.2.2什么是“预训练模型”?什么是“迁移学习”?5.5.2.3比较“使用预训练模型”和“不使用预训练模型”的效果。5.5.3模型训练5.5.4模型评价5.5.5模型预测思考题1.阅
Stacey.933
·
2022-11-19 11:36
cnn
分类
深度学习
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
文章目录5.5实践:基于ResNet18网络完成图像分类任务5.5.1数据处理5.5.2模型构建5.5.3模型训练5.5.4模型评价5.5.5模型预测思考题1.阅读《DeepResidualLearningforImageRecognition》,了解5种深度的ResNet(18,34,50,101和152),并简单谈谈自己的看法。(选做)ResNet18实现MNIST
文章目录5.4基于残差网络的手写体数字识别实验5.4.1模型构建5.4.1.1残差单元5.4.1.2残差网络的整体结构5.4.2没有残差连接的ResNet185.4.2.1模型训练5.4.2.2模型评价5.4.3带残差连接的ResNet185.4.3.1模型训练5.4.3.2模型评价5.4.4与高层API实现版本的对比实验学习并在实验中使用:Pytorchtorchvision.models总结参
萐茀37
·
2022-11-19 08:47
cnn
深度学习
神经网络
NNDL
实验六 卷积神经网络(3)LeNet实现MNIST
文章目录5.3基于LeNet实现手写体数字识别实验5.3.1数据5.3.1.1数据集介绍5.3.1.2数据集导入5.3.2模型构建5.3.2.1使用自定义算子,构建LeNet-5模型5.3.2.2使用pytorch中的相应算子,构建LeNet-5模型5.3.2.3测试LeNet-5模型,构造一个形状为[1,1,32,32]的输入数据送入网络,观察每一层特征图的形状变化。5.3.2.4测试两个网络的
萐茀37
·
2022-11-19 08:17
cnn
深度学习
人工智能
NNDL
实验五 前馈神经网络(1)二分类任务
文章目录4.1神经元4.1.1净活性值4.1.2激活函数4.1.2.1Sigmoid型函数4.1.2.2ReLU型函数4.2基于前馈神经网络的二分类任务4.2.1数据集构建4.2.2模型构建4.2.2.1线性层算子4.2.2.2Logistic算子(激活函数)4.2.2.3层的串行组合4.2.3损失函数4.2.4模型优化4.2.4.1反向传播算法4.2.4.2损失函数4.2.4.3Logistic
萐茀37
·
2022-11-19 08:16
神经网络
分类
深度学习
NNDL
实验一 numpy
numpy的array操作1.导入numpy库importnumpyasnp2.建立一个一维数组a初始化为[4,5,6](1)输出a的类型(type)(2)输出a的各维度的大小(shape)(3)输出a的第一个元素(值为4)a=np.array([4,5,6])print(a.dtype)print(a.shape)print(a[0])运行结果:int32(3,)43.建立一个二维数组b,初始化
萐茀37
·
2022-11-19 08:46
numpy
python
机器学习
NNDL
实验二 pytorch入门
一.概念:张量、算子张量(Tensor)在深度学习的实践中,我们通常使用向量或矩阵运算来提高计算效率。比如w1x1+w2x2+⋯+wNxN的计算可以用w⊤x来代替(其中w=[w1w2⋯wN]⊤,x=[x1x2⋯xN]⊤),这样可以充分利用计算机的并行计算能力,特别是利用GPU来实现高效矩阵运算。在深度学习框架中,数据经常用张量(Tensor)的形式来存储。张量是矩阵的扩展与延伸,可以认为是高阶的矩
萐茀37
·
2022-11-19 08:46
pytorch
深度学习
python
NNDL
作业8:RNN - 简单循环网络
文章目录1.使用Numpy实现SRN2.在1的基础上,增加激活函数tanh3.分别使用nn.RNNCell、nn.RNN实现SRN3.1用torch.nn.RNNCell()3.2用nn.RNN()4.分析“二进制加法”源代码(选做)5.实现“Character-LevelLanguageModels”源代码(必做)6.分析“序列到序列”源代码(选做)7.“编码器-解码器”的简单实现(必做)总结参
萐茀37
·
2022-11-19 08:29
rnn
python
numpy
NNDL
作业8:RNN-简单循环网络
目录1.使用Numpy实现SRN2.在1的基础上,增加激活函数tanh3.分别使用nn.RNNCell、nn.RNN实现SRNnn.RNNCell()nn.RNN()4.分析“二进制加法”源代码(选做)5.实现“Character-LevelLanguageModels”源代码(必做)7.“编码器-解码器”的简单实现(必做)总结参考:1.使用Numpy实现SRNimportnumpyasnpinp
Stacey.933
·
2022-11-19 02:54
rnn
python
人工智能
NNDL
实验三 线性回归
2.2线性回归导入frommatplotlibimportpyplotasplt#matplotlib是Python的绘图库importtorchimportmathfromnndl.opimportOpimportpandasaspd#开源数据分析和操作工具fromnndl.opimportLinear2.2.1数据集构建fromnndl.opimportOp#真实函数的参数缺省值为w=1.2,
叶雨柳光
·
2022-11-19 02:42
线性回归
python
机器学习
NNDL
作业3:分别使用numpy和pytorch实现FNN例题
不知道为啥这次没目录,勉强看吧。分别使用numpy和pytorch实现FNN例题1.过程推导-了解BP原理2.数值计算-手动计算,掌握细节3.代码实现-numpy手推+pytorch自动代码实现:需要解决的问题:1.对比【numpy】和【pytorch】程序,总结并陈述。2.激活函数Sigmoid用PyTorch自带函数torch.sigmoid(),观察、总结并陈述。3.激活函数Sigmoid改
叶雨柳光
·
2022-11-19 02:42
numpy
pytorch
python
NNDL
实验六 卷积神经网络(4)ResNet18实现MNIST
5.4基于残差网络的手写体数字识别实验残差网络(ResidualNetwork,ResNet)是在神经网络模型中给非线性层增加直连边的方式来缓解梯度消失问题,从而使训练深度神经网络变得更加容易。在残差网络中,最基本的单位为残差单元。5.4.1模型构建构建ResNet18的残差单元,然后在组建完整的网络。5.4.1.1残差单元残差单元包裹的非线性层的输入和输出形状大小应该一致。如果一个卷积层的输入特
叶雨柳光
·
2022-11-19 02:42
cnn
深度学习
神经网络
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
5.5实践:基于ResNet18网络完成图像分类任务图像分类(ImageClassification是计算机视觉中的一个基础任务,将图像的语义将不同图像划分到不同类别。很多任务可以转换为图像分类任务,比如人脸检测就是判断一个区域内是否有人脸,可以看作一个二分类的图像分类任务。数据集:CIFAR-10数据集,网络:ResNet18模型,损失函数:交叉熵损失,优化器:Adam优化器,Adam优化器的介
叶雨柳光
·
2022-11-19 02:42
cnn
分类
深度学习
NNDL
作业6:基于CNN的XO识别
一、实现卷积-池化-激活1.Numpy版本:手工实现卷积-池化-激活自定义卷积算子、池化算子实现importnumpyasnp#初始化一张X图片矩阵x=np.array([[-1,-1,-1,-1,-1,-1,-1,-1,-1],[-1,1,-1,-1,-1,-1,-1,1,-1],[-1,-1,1,-1,-1,-1,1,-1,-1],[-1,-1,-1,1,-1,1,-1,-1,-1],[-1,
叶雨柳光
·
2022-11-19 02:11
cnn
深度学习
python
NNDL
实验六 卷积神经网络(3)LeNet实现MNIST
基于LeNet实现手写体数字识别实验5.3.1数据手写体数字识别是计算机视觉中最常用的图像分类任务,让计算机识别出给定图片中的手写体数字(0-9共10个数字)。由于手写体风格差异很大,因此手写体数字识别是具有一定难度的任务。我们采用常用的手写数字识别数据集:MNIST数据集。MNISThandwrittendigitdatabase,YannLeCun,CorinnaCortesandChrisB
叶雨柳光
·
2022-11-19 02:11
深度学习
人工智能
NNDL
作业8:RNN - 简单循环网络
NNDL
作业8:RNN-简单循环网络一、使用Numpy实现SRN二、在1的基础上,增加激活函数tanh三、分别使用nn.RNNCell、nn.RNN实现SRN1、用torch.nn.RNNCell()2
叶雨柳光
·
2022-11-19 02:57
python
NNDL
作业8:RNN - 简单循环网络
NNDL
作业8:RNN-简单循环网络1.使用Numpy实现SRN2.在1的基础上,增加激活函数tanh3.分别使用nn.RNNCell、nn.RNN实现SRN4.分析“二进制加法”源代码(选做)5.实现
Perfect(*^ω^*)
·
2022-11-19 00:52
rnn
python
深度学习
NNDL
实验七 循环神经网络(1) RNN记忆能力实验
目录循环神经网络的记忆能力实验数据集构建数据集的构建函数加载数据并进行数据划分构造Dataset类模型构建嵌入层SRN层线性层模型汇总模型训练训练指定长度的数字预测模型多组训练损失曲线展示模型评价总结:参考:循环神经网络(RecurrentNeuralNetwork,RNN)是一类具有短期记忆能力的神经网络。在循环神经网络中,神经元不但可以接受其他神经元的信息,也可以接受自身的信息,形成具有环路的
白小码i
·
2022-11-19 00:48
rnn
人工智能
深度学习
NNDL
实验七 循环神经网络(2)梯度爆炸实验
6.2梯度爆炸实验造成简单循环网络较难建模长程依赖问题的原因有两个:梯度爆炸和梯度消失。梯度爆炸问题:比较容易解决,一般通过权重衰减或梯度截断可以较好地来避免;梯度消失问题:更加有效的方式是改变模型,比如通过长短期记忆网络LSTM来进行缓解。本节将首先进行复现简单循环网络中的梯度爆炸问题,然后尝试使用梯度截断的方式进行解决。采用长度为20的数据集进行实验,训练过程中将进行输出W,U,b的梯度向量的
HBU_David
·
2022-11-19 00:45
DeepLearning
rnn
深度学习
人工智能
NNDL
实验七 循环神经网络(3)LSTM的记忆能力实验
6.3LSTM的记忆能力实验长短期记忆网络(LongShort-TermMemoryNetwork,LSTM)是一种可以有效缓解长程依赖问题的循环神经网络.6.3.1模型构建在本实验中,我们将使用第6.1.2.4节中定义Model_RNN4SeqClass模型,并构建LSTM算子.只需要实例化LSTM,并传入Model_RNN4SeqClass模型,就可以用LSTM进行数字求和实验。6.3.1.1
HBU_David
·
2022-11-19 00:45
DeepLearning
rnn
lstm
深度学习
NNDL
实验实验六 卷积神经网络(4)ResNet18实现MNIST
5.4基于残差网络的手写体数字识别实验5.4.1模型构建5.4.1.1残差单元importjsonimportgzipimportnumpyasnpfromPILimportImageimportmatplotlib.pyplotaspltfromtorchvision.transformsimportCompose,Resize,Normalize,ToTensorimportrandomimp
mmmooonnneeeyyy
·
2022-11-19 00:44
cnn
深度学习
python
NNDL
实验六 卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
NNDL
实验六卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类5.5实践:基于ResNet18网络完成图像分类任务5.5.1数据处理5.5.1.1数据集介绍5.5.1.2数据读取5.5.1.3
笼子里的薛定谔
·
2022-11-19 00:12
DL实验
cnn
分类
深度学习
NNDL
作业8:RNN - 简单循环网络
目录1.使用Numpy实现SRN2.在1的基础上,增加激活函数tanh3.分别使用nn.RNNCell、nn.RNN实现SRN4.分析“二进制加法”源代码5.实现“Character-LevelLanguageModels”源代码6.分析“序列到序列”源代码7.“编码器-解码器”的简单实现总结参考链接1.使用Numpy实现SRN代码:importnumpyasnpinputs=np.array([
笼子里的薛定谔
·
2022-11-19 00:12
DL实验
rnn
python
人工智能
NNDL
作业9:分别使用numpy和pytorch实现BPTT
目录6-1P:推导RNN反向传播算法BPTT.6-2P:设计简单RNN模型,分别用Numpy、Pytorch实现反向传播算子,并代入数值测试.总结参考链接6-1P:推导RNN反向传播算法BPTT.跟老师的PPT基本一致,比老师的PPT多了一点展开式,老师的PPT未完全展开(激活函数部分)。自己手推:6-2P:设计简单RNN模型,分别用Numpy、Pytorch实现反向传播算子,并代入数值测试.激活
笼子里的薛定谔
·
2022-11-19 00:12
DL实验
深度学习
人工智能
NNDL
实验五 前馈神经网络(2)自动梯度计算&优化问题
NNDL
实验五前馈神经网络(2)自动梯度计算&优化问题4.3自动梯度计算4.3.1使用pytorch的预定义算子来重新实现二分类任务4.3.2.增加一个3个神经元的隐藏层,再次实现二分类,并与4.3.1
笼子里的薛定谔
·
2022-11-19 00:11
DL实验
神经网络
深度学习
pytorch
NNDL
作业6:基于CNN的XO识别
目录一、实现卷积-池化-激活编辑1.Nmupy版本:手工实现卷积-池化-激活2.Pytorch版本:调用函数实现卷积-池化-激活二、基于CNN的XO识别1.数据集2.构建模型编辑3.训练模型4.测试训练好的模型5.计算模型的准确率6.查看训练好的模型的特征图7.查看训练好的模型的卷积核8.源码训练源码测试源码总结参考链接一、实现卷积-池化-激活重新复习一下以前提到的知识:卷积:在神经网络中,我理解
笼子里的薛定谔
·
2022-11-19 00:11
DL实验
深度学习
cnn
神经网络
NNDL
实验七 循环神经网络(1)RNN记忆能力实验
NNDL
实验七循环神经网络(1)RNN记忆能力实验6.1循环神经网络的记忆能力实验6.1.1数据集构建6.1.1.1数据集的构建函数6.1.1.2加载数据并进行数据划分6.1.1.3构造Dataset类
笼子里的薛定谔
·
2022-11-19 00:02
DL实验
rnn
语音识别
人工智能
[2022-09-14]神经网络与深度学习 hw1
nndl
第一次作业(P522-1,2-12)一、分析为什么平方损失函数不适用于分类问题?
三工修
·
2022-11-15 17:40
[DL]神经网络与深度学习
NNDL
作业4:第四章课后题
目录习题4-2习题4-3习题4-7习题4-8习题4-9总结参考习题4-2试设计一个前馈神经网络来解决XOR问题,要求该前馈神经网络具有两个隐藏神经元和一个输出神经元,并使用ReLU作为激活函数。XOR问题就是指我们自从学计算机就一直在接触的异或问题,异或问题有两个输入一个输出,若两个输入相同输出结果为0,如果两个输入不同输出结果为1。这里根据题目要求我们使用的前馈神经网络输入层两个神经元,隐藏层两
五元钱
·
2022-11-14 07:07
深度学习作业
深度学习
人工智能
pytorch
NNDL
作业7:第五章课后题(1×1 卷积核 | CNN BP)
目录习题5-2证明宽卷积具有交换性,即公式(5.13)习题5-3分析卷积神经网络中用1×1的卷积核的作用习题5-4对于一个输入为100×100×256的特征映射组,使用3×3的卷积核,输出为100×100×256的特征映射组的卷积层,求其时间和空间复杂度。如果引入一个1×1的卷积核,先得到100×100×64的特征映射,再进行3×3的卷积,得到100×100×256的特征映射组,求其时间和空间复杂
AI-2 刘子豪
·
2022-11-14 07:30
cnn
人工智能
神经网络
NNDL
实验六 卷积神经网络(4)ResNet18实现MNIST
目录5.4基于残差网络的手写体数字识别实验5.4.1模型构建5.4.1.1残差单元5.4.1.2残差网络的整体结构5.4.2没有残差连接的ResNet185.4.2.1模型训练5.4.3带残差连接的ResNet185.4.3.1模型训练5.4.3.2模型评价使用残差链接和不使用残差连接的resnet5.4.4与高层API实现版本的对比实验学习使用pytorchtorchvision.models声
刘先生TT
·
2022-11-14 07:00
cnn
深度学习
神经网络
NNDL
实验六 残差网络实现CIFAR10
5.5实践:基于ResNet18网络完成图像分类任务5.5.1数据处理5.5.1.1数据集介绍5.5.1.2数据读取5.5.1.3构造Dataset类5.5.2模型构建什么是“预训练模型”?什么是“迁移学习”?(必做)5.5.3比较“使用预训练模型”和“不使用预训练模型”的效果。(必做)对比5.5.4模型评价5.5.5模型预测用自己的话简单评价LeNet、AlexNet、VGG、GoogLeNet
刘先生TT
·
2022-11-14 07:00
深度学习
python
计算机视觉
NNDL
作业7:第五章课后题(1×1 卷积核 | CNN BP)
习题5-2证明宽卷积具有交换性习题5-3分析卷积核中1*1卷积核的作用习题5-4对于一个输入为100×100×256的特征映射组,使用3×3的卷积核,输出为100×100×256的特征映射组的卷积层,求其时间和空间复杂度。如果引入一个1×1的卷积核,先得到100×100×64的特征映射,再进行3×3的卷积,得到100×100×256的特征映射组,求其时间和空间复杂度。单个卷积层的时间复杂度:整体的
刘先生TT
·
2022-11-14 07:59
深度学习
计算机视觉
cnn
NNDL
作业9:分别使用numpy和pytorch实现BPTT
6-1P:推导RNN反向传播算法BPTT.6-2P:设计简单RNN模型,分别用Numpy、Pytorch实现反向传播算子,并代入数值测试.代码实现可参考:L5W1作业1手把手实现循环神经网络_追寻远方的人的博客-CSDN博客
HBU_David
·
2022-11-14 07:28
深度学习
人工智能
NNDL
作业1:第二章课后题
习题2-1分析为什么平方损失函数不适用于分类问题,交叉熵损失函数不适用于回归问题.平方损失函数的定义是机器学习模型的输出为,实际的结果为。从这个定义来看平方损失函数对每一个输出结果都非常看重。而分类问题中我们只关心模型对数据的真实类别的预测概率而不关注对其他类别的预测概率。所以平方损失函数不适用于分类问题。交叉熵损失函数的定义是在机器学习训练网络时,输入数据与标签常常已经确定,那么真实概率分布P(
HBU_fangerfang
·
2022-11-14 07:26
神经网络与深度学习
深度学习
人工智能
上一页
6
7
8
9
10
11
12
13
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他