E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
《神经网络与深度学习》
神经网络与深度学习
(邱锡鹏版本)学习笔记11.23
写在前面:开启新的学习模块——“
神经网络与深度学习
”。参考书目:《
神经网络与深度学习
》,邱锡鹏版本。纯小白级别的入门选择,将会在此记录一点读书的思考和感悟,如果有志同道合的小伙伴感兴趣可以一起。
百无一用是书生_helloworld
·
2022-11-24 19:23
学习笔记
神经网络
深度学习
《Deep Learning for Computer Vision withPython》阅读笔记-StarterBundle(第2 - 3章)
2.1
神经网络与深度学习
简史在许多应用中,CNN现在被认为是最强大的图像分类器,目前负责推动利用机器学习的计算机视觉子领域的最新发展。
Dream_WLB
·
2022-11-24 18:41
研0基础沉淀
深度学习
计算机视觉
人工智能
图像处理
神经网络与深度学习
作业9:分别使用numpy和pytorch实现BPTT
神经网络与深度学习
作业9:分别使用numpy和pytorch实现BPTT6-1P:推导RNN反向传播算法BPTT.6-2P:设计简单RNN模型,分别用Numpy、Pytorch实现反向传播算子,并代入数值测试
小鬼缠身、
·
2022-11-24 17:28
深度学习
pytorch
numpy
作业8:RNN - 简单循环网络
目录
神经网络与深度学习
作业8:RNN-简单循环网络1.使用Numpy实现SRN2.在1的基础上,增加激活函数tanh3.分别使用nn.RNNCell、nn.RNN实现SRN4.分析“二进制加法”源代码5
岳轩子
·
2022-11-23 19:43
深度学习习题
rnn
python
深度学习
神经网络与深度学习
作业9:分别使用numpy和pytorch实现BPTT
目录6-1P:推导RNN反向传播算法BPTT.6-2P:设计简单RNN模型,分别用Numpy、Pytorch实现反向传播算子,并代入数值测试.参考资料6-1P:推导RNN反向传播算法BPTT.BPTT算法推导-Hiroki-博客园(cnblogs.com)以下是老师给出的6-2P:设计简单RNN模型,分别用Numpy、Pytorch实现反向传播算子,并代入数值测试.importtorchimpor
Jacobson Cui
·
2022-11-23 17:28
《神经网络与深度学习》课后习题
深度学习
pytorch
神经网络
神经网络与深度学习
-1- 机器学习概述-PyTorch
前言:《
神经网络与深度学习
》邱锡鹏https://www.bilibili.com/video/BV1Vx411j7kT?
明朝百晓生
·
2022-11-23 16:38
人工智能
深度学习
机器学习
神经网络
神经网络与深度学习
(七)循环神经网络(2)梯度爆炸实验
目录6.2梯度爆炸实验6.2.1梯度打印函数【思考】什么是范数,什么是L2范数,这里为什么要打印梯度范数?6.2.2复现梯度爆炸现象6.2.3使用梯度截断解决梯度爆炸问题【思考题】梯度截断解决梯度爆炸问题的原理是什么?参考资料6.2梯度爆炸实验造成简单循环网络较难建模长程依赖问题的原因有两个:梯度爆炸和梯度消失。一般来讲,循环网络的梯度爆炸问题比较容易解决,一般通过权重衰减或梯度截断可以较好地来避
Jacobson Cui
·
2022-11-23 16:35
神经网络与深度学习
深度学习
神经网络
rnn
语义表示——
神经网络与深度学习
语义鸿沟是人工智能的挑战之一。底层特征VS高层语义人们对文本、图像的理解无法从字符串或者图像的底层特征直接获得。底层特征和高层语义之间建立直接的映射十分困难。例如对于一张简单的照片,我们拿到最底层的特征——图像的像素,比如一些红色、蓝色的像素,将这些底层特征和高层语义建立关系其实是非常难的,也就是说想建立一个直接的映射非常困难;例如一张情侣照片,人眼很容易根据图片的信息判断是情侣关系,但是从底层特
smartzhao.
·
2022-11-23 08:29
神经网络
深度学习
神经网络学习(一)-- 框架建立
资料来源是SimonHaykin著《神经网络与机器学习》(第三版)和《
神经网络与深度学习
》(邱锡鹏著)
尾生爱柱子
·
2022-11-23 07:03
小白之路
神经网络
学习
python
神经网络与深度学习
的运用(手写数字识别)
大家好,鉴于上次分享了一篇关于神经网络的文章,这篇文章的目的是为了巩固神经网络知识以及在解决实际问题中对神经网络的优化。关于手写数字识别问题的解决,小编先运用简单的二层前馈神经网络,然后我们再开始对网络进行优化,小编会在二层前馈网络的基础上增加卷积层、池化层以及Dropout层,我们将得到的型网络模型处理手写数字,最后对比前后两者的性能,看看进化后的网络有多。若文章有不妥之处,还望不吝指出。目录一
偶做前堂客
·
2022-11-23 06:47
Python
深度学习
神经网络
cnn
神经网络与深度学习
实验day12-基于ResNet18完成cifar-10图像分类任务
神经网络与深度学习
实验day12-基于ResNet18完成cifar-10图像分类任务5.5实践:基于ResNet18网络完成图像分类任务5.5.1数据处理5.5.1.1数据集导入5.5.1.2划分训练集
小鬼缠身、
·
2022-11-23 06:42
深度学习
神经网络
分类
神经网络与深度学习
day08-卷积神经网络1:卷积
神经网络与深度学习
day08-卷积神经网络1:卷积5.1卷积5.1.1二维卷积运算5.1.2二维卷积算子5.1.3二维卷积的参数量和计算量5.1.4感受野5.1.5卷积的变种5.1.6带步长和零填充的二维卷积算子
小鬼缠身、
·
2022-11-23 06:41
神经网络与深度学习
实验day14-循环神经网络(2)梯度爆炸实验
神经网络与深度学习
实验day14-循环神经网络(2)梯度爆炸实验6.2梯度爆炸实验6.2.1定义梯度打印函数6.2.2复现梯度爆炸现象6.2.3使用梯度截断解决梯度爆炸问题思考题总结References
小鬼缠身、
·
2022-11-23 06:08
深度学习
神经网络
rnn
【深度学习】基本的反向传播准则
这其实是个一直想记录下来的问题,之前看到《深入浅出
神经网络与深度学习
》这本书中发现对此有一易懂的描述。结合最近跑的例程,来直观地回顾下。
月亮鱼与十四行
·
2022-11-23 03:16
深度学习
深度学习
神经网络
pytorch
《
神经网络与深度学习
》nndl读书笔记
目录本书的知识体系深度学习与神经网络概要人工智能机器学习机器学习模型步骤表示学习局部表示与分布式表示深度学习常用的深度学习框架端到端学习神经网络人工神经网络神经网络的发展历史机器学习概述基本概念机器学习的三个基本要素模型学习准则损失函数风险最小化准则优化算法线性回归——机器学习的简单示例偏差-方差分解机器学习算法的类型监督学习无监督学习强化学习数据的特征表示传统的特征学习**特征选择**特征抽取评
二元_
·
2022-11-22 22:45
人工智能
深度学习
神经网络
卷积神经网络(Convolutional Neural Networks, CNN)小总结
先列参考资料,这篇文章基本是以下资料相关部分的拼接和概括:邱锡鹏《
神经网络与深度学习
》卷积层-深度学习入门-卷积神经网络(一)-知乎池化层(Poolinglayers)吴恩达深度学习笔记(79)深度卷积神经网络综述
笃谷
·
2022-11-22 21:06
cnn
神经网络
深度学习
卷积神经网络
人工智能
神经网络与深度学习
第一周测验 Introduction to Deep Learning
第一周测验IntroductiontoDeepLearning1.Whatdoestheanalogy“AIisthenewelectricity”referto?AI是新的电力指的是?AIrunsoncomputersandisthuspoweredbyelectricity,butitislettingcomputersdothingsnotpossiblebefore.AI在计算机上运行,由
沧夜2021
·
2022-11-22 18:38
深度学习专项课程
神经网络与深度学习
-chapter1 神经网络
英语原文:NeuralNetworksandDeepLearning(MichaelNielsen)中文译文:
神经网络与深度学习
(MichaelNielsen)第1章使用神经网络识别手写数字1、感知机(
保持理智802
·
2022-11-22 12:34
深度学习
神经网络
深度学习
神经网络与深度学习
-chapter2 反向传播算法
英语原文:NeuralNetworksandDeepLearning(MichaelNielsen)中文译文:
神经网络与深度学习
(MichaelNielsen)第2章反向传播算法如何工作1、一种基于矩阵的快速计算神经网络输出的方法从符号开始
保持理智802
·
2022-11-22 12:34
深度学习
神经网络
深度学习
神经网络与深度学习
三:编写单隐层神经网络
三:编写单隐层神经网络1神经网络概述这篇文章你会学到如何实现一个神经网络,在我们深入学习技术细节之前,现在先大概快速的了解一下如何实现神经网络,如果你对某些内容不甚理解(后面的文章中会深入其中的细节)上周我们讨论了logistic回归,一起了解了这个模型和下面这个流程图的联系这里面你需要输入特征x,参数w和b,用那些计算z,然后用z计算出a,我们用a表示y^\hat{y}y^,接下来你就可以计算损
开始King
·
2022-11-22 03:41
深度学习
深度学习
人工智能
神经网络
【
神经网络与深度学习
】 Pytorch实现卷积神经网络
1、实验名称Pytorch实现卷积神经网络2、实验要求用python的Pytorch模块实现卷积神经网络。网络结构为一个输入层、两个卷积层、一个全连接层、一个输出层。3、实验目的熟悉并掌握pytorch框架掌握卷积神经网络的基本原理掌握卷积神经网络的结构掌握卷积神经网络的代码流程4、实验过程本次实验完全在itc的虚拟环境中操作并且运行。为了突出重点,操作流程不再赘述,对编程流程进行详细地描述。首先
乐心唯帅
·
2022-11-22 03:33
神经网络与深度学习
深度学习
神经网络
python
【
神经网络与深度学习
】 Numpy 实现全连接神经网络
1、实验名称Numpy实现全连接神经网络实验指南2、实验要求用python的numpy模块实现全连接神经网络。网络结构为一个输入层、一个隐藏层、一个输出层。隐藏层的激活函数为Relu函数。输出层的激活函数为softmax函数。损失函数为交叉熵。3、实验目的学习如何使用Numpy实现一个只有一个输入层、一个中间层和一个输出层全连接神经网络,并利用它来处理一个简单的分类任务,即识别手写数字,通过实践来
乐心唯帅
·
2022-11-22 03:31
神经网络与深度学习
深度学习
python
神经网络
4.
神经网络与深度学习
(三)—BP算法
引言:在上节课中,我们知道梯度下降算法的核心是要重复对w,b求偏导数,这样我们就能够让代价函数一直减小,最后让实际输出值尽量拟合预计输出值,那么我们怎么去求w和b的偏导数呢?这节课,我们就来讲一下。1)基本规则既然我们想求出每个位置相应的w和b,我们就需要先将每个位置的w和b清晰的表示出来。请看下图:这里你可能会奇怪,为什么下标先写2,再写4呢?按照常理来说,第二层的第四个神经元应该放在前面,第三
quinn1994
·
2022-11-21 11:24
机器学习
神经网络与机器学习
【优化算法】——
神经网络与深度学习
目录一、梯度下降二、随机梯度下降三、小批量梯度下降法(mini-batch)四、包含动量的梯度下降(Momentum)五、自适应梯度(AdaGrad)与RMSProp六、Adam算法一、梯度下降在机器学习中,最简单就是没有任何优化的梯度下降(GD,GradientDescent),我们每一次循环都是对整个训练集进行学习,这叫做批量梯度下降(BatchGradientDescent),我们之前说过了
Joker_咖啡逗
·
2022-11-21 04:20
深度学习
机器学习比赛必备知识
python
计算机视觉
深度学习
神经网络
神经网络与深度学习
实验day11-基于torch用ResNet18模型实现MNIST
神经网络与深度学习
实验day11-基于torch用ResNet18模型实现MNIST5.4基于残差网络的手写体数字识别实验5.4.1模型构建5.4.1.1残差单元5.4.1.2残差网络的整体结构5.4.2
小鬼缠身、
·
2022-11-21 00:55
深度学习
神经网络
人工智能
神经网络与深度学习
(五)前馈神经网络(3)鸢尾花分类
文章目录深入研究鸢尾花数据集4.5实践:基于前馈神经网络完成鸢尾花分类4.5.1小批量梯度下降法4.5.2数据处理4.5.2.2用DataLoader进行封装4.5.3模型构建4.5.4完善Runner类4.5.5模型训练4.5.6模型评价4.5.7模型预测思考题1.对比Softmax分类和前馈神经网络分类。(必做)2.自定义隐藏层层数和每个隐藏层中的神经元个数,尝试找到最优超参数完成多分类。(选
plum-blossom
·
2022-11-20 21:16
NNDL实验
神经网络与深度学习
Class 13:卷积神经网络
目录13.1深度学习基础13.2图像识别与深度学习13.3图像卷积13.4卷积神经网络13.1深度学习基础特征工程:尽可能选择和构建出好的特征,使得机器学习算法能够达到最佳性能深度神经网络:有多层隐含层的神经网络深度学习三要素:数据、算法、计算力13.2图像识别与深度学习图像识别核心问题:图像特征的提取图像特征包含:形状特征、颜色特征、纹理特征13.3图像卷积图像卷积运算:图像中的每个像素点,用其
By4te
·
2022-11-20 16:25
Python
机器学习
深度学习
神经网络
cnn
神经网络与深度学习
(六)卷积神经网络(1)卷积
目录5.1卷积5.1.1二维卷积运算5.1.2二维卷积算子5.1.3二维卷积的参数量和计算量5.1.4感受野5.1.5卷积的变种5.1.5.1步长(Stride)5.1.5.2零填充(ZeroPadding)5.1.6带步长和零填充的二维卷积算子5.1.7使用卷积运算完成图像边缘检测任务边缘检测系列1:传统边缘检测算子引入算法原理代码实现构建通用的边缘检测算子图像边缘检测测试函数Roberts算子
Jacobson Cui
·
2022-11-20 15:18
神经网络与深度学习
神经网络与深度学习
作业8:RNN - 简单循环网络
简单循环网络(SimpleRecurrentNetwork,SRN)只有一个隐藏层的神经网络.目录1.使用Numpy实现SRN2.在1的基础上,增加激活函数tanh3.分别使用nn.RNNCell、nn.RNN实现SRNtorch.nn.RNNCell():torch.nn.RNN():nn.RNN与nn.RNNCell对比:4.分析“二进制加法”源代码(选做)5.实现“Character-Lev
Jacobson Cui
·
2022-11-20 15:48
《神经网络与深度学习》课后习题
深度学习
神经网络
rnn
神经网络与深度学习
(六)卷积神经网络(4)ResNet18实现MNIST
ResNet185.4.2.1模型训练5.4.2.2模型评价5.4.3带残差连接的ResNet185.4.3.1模型训练5.4.3.2模型评价5.4.4与高层API实现版本的对比实验附录参考资料建议与上一个实验搭配食用:
神经网络与深度学习
Jacobson Cui
·
2022-11-20 15:47
神经网络与深度学习
深度学习
神经网络
cnn
神经网络与深度学习
(六)卷积神经网络(2)基础算子
目录5.2卷积神经网络的基础算子5.2.1卷积算子5.2.1.1多通道卷积5.2.1.2多通道卷积层算子5.2.1.3卷积算子的参数量和计算量5.2.2汇聚层算子附加:使用pytorch实现ConvolutionDemo总结参考资料5.2卷积神经网络的基础算子卷积神经网络是目前计算机视觉中使用最普遍的模型结构,如下图所示,由M个卷积层和b个汇聚层组合作用在输入图片上,在网络的最后通常会加入K个全连
Jacobson Cui
·
2022-11-20 15:47
神经网络与深度学习
深度学习
人工智能
神经网络
1024程序员节
神经网络与深度学习
(五)前馈神经网络(2)自动梯度计算和优化问题
注:本次使用的数据集依旧是前两章的Moon1000数据集fromnndl.datasetimportmake_moons【详细代码见
神经网络与深度学习
(五)前馈神经网络(1)——二分类任务中的4.2.1
Jacobson Cui
·
2022-11-20 15:17
神经网络与深度学习
神经网络与深度学习
作业4:第四章课后题
目录习题4-2试设计一个前馈神经网络来解决XOR问题,要求该前馈神经网络具有两个隐藏神经元和一个输出神经元,并使用ReLU作为激活函数。习题4-3试举例说明“死亡ReLU问题”,并提出解决方法。【ReLU激活函数】【死亡ReLU问题】【死亡ReLU问题解决方法】习题4-7为什么在神经网络模型的结构化风险函数中不对偏置b进行正则化?习题4-8为什么在用反向传播算法进行参数学习时要采用随机参数初始化的
Jacobson Cui
·
2022-11-20 15:17
《神经网络与深度学习》课后习题
神经网络与深度学习
(六)卷积神经网络(5)使用预训练resnet18实现CIFAR-10分类
目录5.5实践:基于ResNet18网络完成图像分类任务5.5.1数据处理5.5.1.1数据集介绍5.5.1.2数据读取5.5.1.3构造Dataset类5.5.2模型构建1.什么是“预训练模型”?什么是“迁移学习”?2.比较“使用预训练模型”和“不使用预训练模型”的效果。5.5.3模型训练5.5.4模型评价5.5.5模型预测思考题1.阅读《DeepResidualLearningforImage
Jacobson Cui
·
2022-11-20 14:29
神经网络与深度学习
深度学习
神经网络
cnn
神经网络与深度学习
:python语言基础(2)
Python语言基础(2)1.内置数据结构2.函数与模块2.1函数2.2模块、包和库3.Python面向对象编程4.文件5.异常处理1.内置数据结构①成员是有序排列的,每个元素的位置称为下标或索引,通过索引访问序列中的成员②序列数据类型有字符串、列表、元组③列表用[]表示,元组用()表示,均可存放不同类型的数据④元组(tuple):一经定义,元组的内容不能改变索引(下标)通过它访问序列中的元素切片
Twinkle1231
·
2022-11-20 14:55
数据结构
python
神经网络与深度学习
:NumPy科学计算库
NumPy科学计算库1.多维数组2.创建NumPy数组2.1导入NumPy库2.2创建数组2.3数组元素的数据类型2.4创建特殊的数组2.5asarray()函数3.数组运算3.1数组元素的切片3.2改变数组的形状3.3数组元素间的运算3.4数组堆叠4.矩阵和随机数4.1矩阵4.2随机数模块三级目录1.多维数组在机器学习中,需要把输入数据转变为多维数组的形式数组的形状(Shape):描述数组的维度
Twinkle1231
·
2022-11-20 14:55
numpy
深度学习
神经网络
python
神经网络与深度学习
:python语言基础(1)
这里写目录标题Python语言基础(1)1.python语法初步2.输入与输出3.常量、变量和表达式3.1数据类型3.2标识符3.3常量3.4变量3.5运算符4.程序控制语句4.1条件分支语句4.2循环语句Python语言基础(1)1.python语法初步使用#作为单行注释符;python变量在使用之前不需要声明;语句块通过代码的缩进来表示;标识符是大小写敏感的;print()函数在输出中自动包含
Twinkle1231
·
2022-11-20 14:54
python
开发语言
神经网络
深度学习
神经网络与深度学习
:TensorFlow基础
TensorFlow基础1.TensorFlow2.0特性2.创建张量2.1创建Tensor对象2.2创建张量2.3对象属性3.张量运算3.1加减乘除运算3.2幂指对数运算3.3其他运算3.4三角函数与反三角函数运算3.5重载运算符3.6张量乘法3.7数据统计1.TensorFlow2.0特性2.0版本清理整合了重复的API将tf.keras作为构建和训练模型的标准高级API架构2.创建张量2.1
Twinkle1231
·
2022-11-20 14:06
tensorflow
深度学习
python
神经网络与深度学习
笔记(六)L2正则化
文章目录前言最小化代价函数正则化在神经网络中的L2L_2L2正则化为什么L2L_2L2正则化可以防止过拟合,减少方差?前言前面提到过高方差问题主要的两种方式:获取更多的数据去训练。然而这种方式局限在于,数据并不是总是很容易获得的或者数据获取的代价很大。正则化。这就是这篇文章需要来讨论的主题。最小化代价函数正则化使用L2L_2L2正则化的最小化代价函数:min(w,b)ȷ(w,b)=1m∑i=1mȷ
沧夜2021
·
2022-11-20 10:34
深度学习专项课程
深度学习
神经网络
机器学习
深度学习概述以及知识点检索(持续更新)
目录
神经网络与深度学习
结构知识点检索
神经网络与深度学习
结构上图选自《
神经网络与深度学习
》一邱锡鹏下图为本人制作的流程图知识点检索人工神经网络(ArtificialNeuralNetworks)(ANNs
Kevin404ar
·
2022-11-20 06:18
深度学习
深度学习
4-1 Coursera吴恩达《卷积神经网络》 第一周课程笔记-卷积神经网络基础
第一门课《
神经网络与深度学习
》(NeuralNetworksandDeepLearning)的4周课程笔记请见如下链接:1-1Coursera吴恩达《
神经网络与深度学习
》第一周课程笔记-深度学习概论1-
双木的木
·
2022-11-19 22:16
吴恩达深度学习笔记
笔记
AI
深度学习
神经网络
机器学习
算法
python
神经网络与深度学习
作业8:RNN - 简单循环网络
目录1.使用Numpy实现SRN2.在1的基础上,增加激活函数tanh3.分别使用nn.RNNCell、nn.RNN实现SRN4.分析“二进制加法”源代码(选做)5.实现“Character-LevelLanguageModels”源代码(必做)6.分析“序列到序列”源代码(选做)7.“编码器-解码器”的简单实现(必做)总结1.使用Numpy实现SRNimportnumpyasnpinputs=n
Sun.02
·
2022-11-19 21:30
深度学习
神经网络
rnn
神经网络与深度学习
(六)卷积神经网络(4)ResNet18实现MNIST
目录5.4基于残差网络的手写体数字识别实验5.4.1模型构建5.4.1.1残差单元5.4.1.2残差网络的整体结构5.4.2没有残差连接的ResNet185.4.2.1模型训练5.4.2.2模型评价5.4.3带残差连接的ResNet185.4.3.1模型训练5.4.3.2模型评价5.4.4与高层API实现版本的对比实验总结5.4基于残差网络的手写体数字识别实验残差网络(ResidualNetwor
Sun.02
·
2022-11-19 21:30
深度学习
神经网络
cnn
Coursera吴恩达课堂笔记 1.2《
神经网络与深度学习
》-- 神经网络基础之逻辑回归
文章目录1.BinaryClassification2.LogisticRegression3.LogisticRegressionCostFunction4.GradientDescent5.Derivatives6.MoreDerivativeExamples7.Computationgraph8.DerivativeswithaComputationGraph9.LogisticRegres
jianming21
·
2022-11-19 21:56
深度学习
深度学习
神经网络
吴恩达深度学习笔记——
神经网络与深度学习
(Neural Networks and Deep Learning)
文章目录前言传送门
神经网络与深度学习
(NeuralNetworksandDeepLearning)绪论梯度下降法与二分逻辑回归(GradientDescendandLogisticsRegression
亦梦亦醒乐逍遥
·
2022-11-19 19:30
个人随笔/学习笔记
深度学习
神经网络
机器学习
吴恩达《深度学习专项》第一阶段总结与第二阶段预览
经过前四周的学习,我们已经学完了《深度学习专项》的第一门课程《
神经网络与深度学习
》。让我们总结一下这几周学的知识,查缺补漏。
大局观选手周弈帆
·
2022-11-19 14:45
吴恩达深度学习
深度学习
神经网络
机器学习
NNDL 实验五 前馈神经网络(1)二分类任务
4.1.2激活函数动手实现《
神经网络与深度学习
》4.1节中提到的其他激活函数:4.2基于前馈神经网络的二分类任务4.2.1数据集构建4.2.2模型构建4.2.3损失函数4.2.4模型优化4.2.5完善Runner
别被打脸
·
2022-11-19 13:52
python
机器学习
pytorch
深度学习
人工智能
使用MNIST数据集训练手写数字识别模型
使用MNIST数据集训练手写数字识别模型写在前面:这是笔者在学习数字识别模型时参考前辈博客【
神经网络与深度学习
】使用MNIST数据集训练手写数字识别模型——[附完整训练代码]过程中所遇到的问题与解答。
明天见&
·
2022-11-19 06:58
深度学习
深度学习
神经网络
keras
神经网络与深度学习
(七)循环神经网络(1)RNN记忆能力实验
目录6.1循环神经网络的记忆能力实验6.1.1数据集构建6.1.1.1数据集的构建函数6.1.1.2加载数据并进行数据划分6.1.1.3构造Dataset类6.1.2模型构建6.1.2.1嵌入层6.1.2.2SRN层6.1.2.3线性层6.1.2.4模型汇总6.1.3模型训练6.1.3.1训练指定长度的数字预测模型6.1.3.2多组训练6.1.3.3损失曲线展示6.1.4模型评价参考资料循环神经网
Jacobson Cui
·
2022-11-19 00:53
神经网络与深度学习
神经网络
深度学习
rnn
神经网络与深度学习
作业8:RNN - 简单循环网络
神经网络与深度学习
作业8:RNN-简单循环网络1.使用Numpy实现SRN2.在1的基础上,增加激活函数tanh3.分别使用nn.RNNCell、nn.RNN实现SRN4.分析“二进制加法”源代码(选做
小鬼缠身、
·
2022-11-19 00:34
深度学习
神经网络
rnn
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他