E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
《深度学习笔记》
Pytorch-
深度学习笔记
文章目录Pytorch-
深度学习笔记
环境搭建查看pytorch是否能使用cuda加速Pytorch将模型和张量加载到GPU方法1方法2Overview线性模型code梯度下降算法codecode反向传播
咬着棒棒糖闯天下
·
2022-05-18 07:05
深度学习
笔记合集
机器学习
python
深度学习
机器学习
pytorch
《100天一起学习PyTorch》第五天:从0到1实现Softmax回归
《100天一起学习PyTorch》第五天:从0到1实现Softmax回归✨本文收录于《100天一起学习PyTorch》专栏,此专栏主要记录如何使用PyTorch实现
深度学习笔记
,尽量坚持每周持续更新,欢迎大家订阅
JoJo的数据分析历险记
·
2022-05-18 07:17
pytorch
分类
深度学习
softmax回归
人工智能
深度学习笔记
- FCN模型与上采样(Upsampling)
目录1.FCN模型2.上采样2.1双线性插值上采样(今天不做重点介绍)2.2反卷积上采样(1)数学理解(2)动态过程理解2.3反池化上采样引言:在FCN、U-net等网络结构中,涉及到了上采样。上采样概念:上采样指的是任何可以让图像变成更高分辨率的技术。发现了几个较好的教程帮助理解FCN和上采样:(1)教程1:FCN详解与pytorch简单实现;反卷积的数学理解(2)教程2:3种上采样方法(反卷积
高不胖
·
2022-05-13 07:31
深度学习
卷积
人工智能
机器学习
机器学习中 F1-score
整合了两个链接的知识点,把里面的小错误改掉了:机器学习中的F1-score【
深度学习笔记
】F1-Score一、定义F1分数(F1-score)是分类问题的一个衡量指标。
l叨叨l
·
2022-05-13 07:18
语音识别
python
机器学习
《100天一起学习PyTorch》第二天:从零实现线性回归(含详细代码)
PyTorch从零实现线性回归✨本文收录于《100天一起学习PyTorch》专栏,此专栏主要记录如何使用PyTorch实现
深度学习笔记
,尽量坚持每周持续更新,欢迎大家订阅!
JoJo的数据分析历险记
·
2022-05-09 07:15
pytorch
线性回归
深度学习
机器学习
python
《100天一起学习PyTorch》第一天:数据操作和自动求导
PyTorch:数据操作和自动求导✨本文收录于《100天一起学习PyTorch》专栏,此专栏主要记录如何使用PyTorch实现
深度学习笔记
,尽量坚持每周持续更新,欢迎大家订阅!
JoJo的数据分析历险记
·
2022-05-09 07:42
pytorch
学习
python
深度学习
机器学习
卷积神经网络优化
卷积神经网络优化–潘登同学的
深度学习笔记
文章目录卷积神经网络优化--潘登同学的
深度学习笔记
Alexnet网络结构连续使用小的卷积核的作用使用1*1的卷积核的作用使用1*1卷积核代替全连接Dropout技术使用方法为什么
PD我是你的真爱粉
·
2022-05-07 07:20
机器学习
cnn
深度学习
神经网络
transformer机制
transformer机制–潘登同学的
深度学习笔记
文章目录transformer机制--潘登同学的
深度学习笔记
应用了残差思想的self-AttentionEncoder加入位置信息PositionEmbeddingtransformer
PD我是你的真爱粉
·
2022-05-07 07:20
Tensorflow
深度学习
transformer
深度学习激活函数与正则化问题
深度学习激活函数与正则化问题–潘登同学的
深度学习笔记
文章目录深度学习激活函数与正则化问题--潘登同学的
深度学习笔记
梯度消失问题(VanishingGradients)Relu的缺点其他Relu变形参数初始化问题
PD我是你的真爱粉
·
2022-05-07 07:49
机器学习
深度学习
tensorflow
rnn
Encoder-Decoder框架与Attention机制
Attention机制–潘登同学的
深度学习笔记
文章目录Attention机制--潘登同学的
深度学习笔记
Encoder-Decode框架Encoder-Decode应用于聊天机器人数据预处理训练模型模型应用
PD我是你的真爱粉
·
2022-05-06 07:00
Tensorflow
机器翻译
自然语言处理
深度学习
深度学习笔记
8 GAN生成对抗网络
深度学习笔记
8GANGAN网络原理简介GAN网络的优缺点收敛目标与问题典型GAN算法Cycle-GANstyle-GANGAN网络原理简介生成对抗网络(GAN)由2个重要的部分构成:生成器(Generator
xuyifancsdn
·
2022-05-03 07:52
深度学习
神经网络
python
深度学习笔记
--预测房价回归问题
@python深度学习1–笔记预测房价回归问题美好的一天从深度学习开始1新概念1.标量回归:预测单一连续值的回归2.均方误差(MSE):预测值与目标值之差的平方3平均绝对误差(MAE)预测值与目标值之差的绝对值4.K折验证(对模型进行可靠评估的方法):将数据划分为K个分区(通常4或者5)过程实例化K个相同的模型,将每个模型在K-1个分区上训练,在剩下的一个分区上评估,模型的验证分数是k个验证分数的
小杜今天学AI了吗
·
2022-05-01 07:03
python深度学习
python
深度学习
回归
吴恩达
深度学习笔记
吴恩达
深度学习笔记
P3用神经网络进行监督学习P4深度学习的兴起P7二分分类P8logistic回归P10梯度下降法P14使用计算图求导P16批量梯度下降P17向量化P21广播机制P22关于numpyP24logistics
w_thout
·
2022-04-27 07:13
深度学习
神经网络
人工智能
动手学
深度学习笔记
(六)——多层感知机及实现
多层感知机(MLP,MultilayerPerceptron)也叫人工神经网络(ANN,ArtificialNeuralNetwork),除了输入输出层,它中间可以有多个隐层。文章目录1.1隐藏层1.2激活函数1.2.1ReLU函数1.2.2sigmoid函数1.2.3tanh函数1.3简洁实现1.1隐藏层通过在网络中加入一个或多个隐藏层来克服线性模型的限制,使其能处理更普遍的函数关系类型,最简单
.别拖至春天.
·
2022-04-22 12:52
动手学深度学习
深度学习
pytorch
python
动手学
深度学习笔记
(五)——softmax回归实现
我们发现通过深度学习框架的高级API能够使实现线性回归变得更加容易。同样,通过深度学习框架的高级API也能更方便地实现softmax回归模型。文章目录1.1图像分类数据集1.1.1读取数据集1.1.2读取小批量1.1.3整合所有组件1.2初始化模型参数1.3损失函数1.4优化算法1.5训练1.1图像分类数据集MNIST数据集是图像分类中广泛使用的数据集之一,但作为基准数据集过于简单。我们将使用类似
.别拖至春天.
·
2022-04-22 12:52
动手学深度学习
深度学习
回归
python
动手学
深度学习笔记
(四) ——分类问题(softmax回归)
分类问题通常分为两类:硬分类和软分类;硬分类:只对样本的“硬性”类别感兴趣,即属于哪个类别;软分类:即得到属于每个类别的概率;这两者的界限往往很模糊,因为即使我们只关心硬类别,我们仍然使用软类别的模型。文章目录1.1.1分类问题1.1.2网络架构1.1.3softmax运算1.1.4小批量样本的矢量化1.1.5损失函数1.1.5.1对数似然1.1.5.2softmax及其导数1.1.5.3交叉熵损
.别拖至春天.
·
2022-04-22 12:51
动手学深度学习
分类
深度学习
回归
动手学
深度学习笔记
(三)——线性回归代码实现
了解线性回归的关键思想之后,始通过代码来动手实现线性回归。文章目录1.1从零开始实现1.1.1生成数据集1.1.2读取数据集1.1.3初始化模型参数1.1.4定义模型1.1.5定义损失函数1.1.6定义优化算法1.1.7训练1.2简洁实现1.2.1生成数据集1.2.2读取数据集1.2.3定义模型1.2.4初始化模型参数1.2.5定义损失函数1.2.6定义优化算法1.2.7训练1.1从零开始实现虽然
.别拖至春天.
·
2022-04-22 12:21
动手学深度学习
深度学习
线性回归
python
深度学习笔记
深度学习1.深度学习介绍学习抽象说,学习就是认知的过程,从未知到已知的探索和思考。任何从已经有的信息,无论是通过计算,判断,推理而后得到一个认知的过程都可以称为"学习"输入就是已知的信息输出就是最终获得的认知的结果学习策略思考过程,经验不同而导致的差异,可以统一归为"学习策略",好的学习策略会更快更准确的得到认知的结果,而不好的学习策略可能会花费更多的时间或者获得错误的结论神经网络现实世界中很多问
荼靡,
·
2022-04-22 07:37
机器学习笔记
深度学习
人工智能
神经网络
一文弄懂元学习 (Meta Learing)(附代码实战)《繁凡的
深度学习笔记
》第 15 章 元学习详解 (上)万字中文综述
《繁凡的
深度学习笔记
》第15章元学习详解(上)万字中文综述(DL笔记整理系列)
[email protected]
://fanfansann.blog.csdn.net/https://github.com
繁凡さん
·
2022-04-19 07:03
《繁凡的深度学习笔记》
Meta
Learing
元学习
元学习
人工智能
《繁凡的
深度学习笔记
》前言、目录大纲 一文让你完全弄懂深度学习所有基础(DL笔记整理系列)
《繁凡的
深度学习笔记
》前言、目录大纲(DL笔记整理系列)一文弄懂深度学习所有基础!
繁凡さん
·
2022-04-19 07:32
《繁凡的深度学习笔记》
Deep
Learing
深度学习
Meta
Learing
元学习
深度学习
人工智能
计算机视觉
繁凡的对抗攻击论文精读(二)CVPR 2021 元学习训练模拟器进行超高效黑盒攻击(清华)
《繁凡的
深度学习笔记
》,包含深度学习基础和TensorFlow2.0,PyTorch详解,以及CNN,RNN,GNN,AE,GAN,Transformer,强化学习,元学习,对抗攻击防御,迁移学习等主流研究方向万字综述
繁凡さん
·
2022-04-19 07:43
《繁凡的对抗攻击论文精读》
元学习
对抗攻击
深度学习
模拟器
深度学习笔记
001-Python基础语法
深度学习一般基于Python语言,在正式开始之前先把Python语言的基础语法做一下笔记,整理的同时需要理解,方便后面使用。01基础操作age=20#声明一个变量age用来存储一个数字201+1#基础数学加法print('HelloWorld!')#打印HelloWorld!02条件判断if#2.条件判断ifif1==2:#如果if跟随的条件为假那么不执行属于if的语句,然后寻找elseprint
地表最菜研究生
·
2022-04-16 09:07
深度学习笔记
python
神经网络与
深度学习笔记
——卷积神经网络的原理
神经网络与
深度学习笔记
系列一共有五个专题,分别是第一章使用神经网络识别手写数字——梯度下降算法是什么。主要介绍了神经网络的基础例如感知器激活函数等概念,最主要介绍了梯度下降算法。
刘爱然
·
2022-04-16 07:21
神经网络与机器学习笔记
神经网络
人工智能
深度学习
卷积
网络
python
深度学习笔记
3—— 卷积神经网络简介
卷积运算密集连接层和卷积层的根本区别:Dense层从输入特征空间中学到的是全局模式(比如对于MNIST数字,全局模式就是涉及所有像素的模式)卷积层学到的是局部模式,对于图像来说,学到的就是在输入图像的二维小窗口中发现的模式。在上面的例子中,这些窗口的大小都是3×3。卷积神经网络学到的模式具有平移不变性卷积神经网络可以学到模式的空间层次结构:第一个卷积层将学习较小的局部模式(比如边缘),第二个卷积层
小杜今天学AI了吗
·
2022-04-16 07:15
python深度学习
深度学习
python
cnn
深度学习笔记
——全连接层
1.概观卷积取的是局部特征,全连接就是把以前的局部特征重新通过权值矩阵组装成完整的图。因为用到了所有的局部特征,所以叫全连接。全连接层(fullyconnectedlayers,FC)在整个卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用。2.全连接层的理解————————
绛洞花主敏明
·
2022-04-16 07:12
深度学习
深度学习笔记
——卷积神经网络
卷积神经网络神经元BP算法RGB滑动窗口label卷积层池化层神经元BP算法RGB依次是:RGB三通道彩色图像,一通道灰度图像,二值图像。滑动窗口展平输入label卷积层输入图像3*224*224,则卷积核的channel=3。使用32个卷积核对图像进行卷积操作,则输出图像的channel=32。池化层
MCC莫大大
·
2022-04-16 07:39
笔记
深度学习
神经网络
卷积
深度学习笔记
——卷积层和池化层的一些“冷门”小知识点
一.卷积层的定义和计算1.卷积层的定义卷积层=感受野+权值共享每一个感受野(receptivefield)内会有多个filter,而每个filter的参数设置都不一样(一般随机初始化后,由神经网络自主学习得到)。每个filter负责侦测该感受野内出现的某种特征(pattern),而同样的特征可能会在图像的其他位置重复出现,因而同一张图片的不同区域需要同样的一组filter来侦测,即权值共享(Par
daimashiren
·
2022-04-16 07:39
学习笔记
深度学习
cv
卷积神经网络
Pytorch基础(四)—— 卷积层
深度学习笔记
(一):卷积层+池化层+激活函数+全连接层二、Pytorch示例在t
人狮子
·
2022-04-16 07:08
pytorch
pytorch
深度学习
python
深度学习笔记
3——AlexNet
1、背景介绍在2012年的ImageNet竞赛中,AlexNet获得了top-5测试的15.3%errorrate,获得第二名的方法errorrate是26.2%AlexNet有60million个参数和65000个神经元,五层卷积,三层全连接网络,最终的输出层是1000通道的softmax。训练这种规模的网络要大量的计算能力,AlexNet利用了GPU提供的大量并行能力,利用两块GPU分配网络训
卖strawberry的小女孩
·
2022-04-16 07:08
深度学习
人工智能
深度学习
卷积神经网络
深度学习笔记
——CNN中的数学推导
参考:矩阵求导术刘建平pinard前向传播一般输入的张量维度的格式有两种一种是channels_last:(batch_sizes,height,width,channels)一种是channels_first:(batch_sizes,channels,height,width)卷积层记s为卷积步长stride\记s为卷积步长stride记s为卷积步长stride,p为padding填充的大小\
廣阝
·
2022-04-16 07:35
深度学习
神经网络
深度学习
python
深度学习笔记
—— 池化层
卷积层对位置敏感,比如下面的例子中,一个像素的偏移就会导致0输出而现实情况下,边缘很容易会发生变化。而我们并不希望它对位置过于敏感,所以提出了“池化层”最大池化层可以允许输入发生一定范围内的偏移,作用在卷积输出上,有一定模糊化的效果每个输入通道做一次池化层,而不像卷积层一样融合多个输入通道importtorchfromtorchimportnnfromd2limporttorchasd2l#实现池
Whisper_yl
·
2022-04-16 07:35
#
深度学习
深度学习
深度学习笔记
—— 卷积层里的填充和步幅
有时候,如果输入图像的尺寸比较小,那么通过几层卷积之后尺寸就不能够支持继续做卷积了,从了限制了网络的深度填充通常设置成kernel_size-1,以保持输入输出尺寸一致,算起来比较方便importtorchfromtorchimportnndefcomp_conv2d(conv2d,X):#在维度的前面加入一个通道数和批量大小数X=X.reshape((1,1)+X.shape)Y=conv2d(
Whisper_yl
·
2022-04-16 07:05
#
深度学习
深度学习
深度学习笔记
—— 卷积层里的多输入多输出通道
输出是一个单通道,因为不管输入有多少个通道,最后都会把结果相加因为1x1卷积层每次只识别一个像素,而不查看该像素与周围像素的关系,所以它并不识别空间信息importtorchfromd2limporttorchasd2l#多通道互相关运算defcorr2d_multi_in(X,K):returnsum(d2l.corr2d(x,k)forx,kinzip(X,K))#验证互相关运算的输出X=to
Whisper_yl
·
2022-04-16 07:05
#
深度学习
深度学习
深度学习笔记
—— 卷积层
单隐藏层就已经需要14GB的参数了!平移不变性:识别器不会因为像素的位置而发生改变局部性:找Waldo只需要看局部的信息即可,不需要看全局的信息个人理解:由前面的例子可知,全连接层需要的参数量会非常多,这也就使得MLP受到了限制。但是为了解决问题,提出了“平移不变性”和“局部性”两个性质。我们从全连接层出发,应用两种性质,对原本的计算方式做一些改进,也就得到了卷积层的计算方式。相较于全连接,平移不
Whisper_yl
·
2022-04-16 07:30
#
深度学习
深度学习
深度学习笔记
整理(二)——神经网络
1.神经网络的历史第一阶段(1940-1970)1943年,形式神经元模型的产生(M-P模型);1958年,感知器的提出(经过训练确定神经元的连接权重);1969年,提出感知器无法解决线性不可分问题。第二阶段(1980-1990)1980年,神经认知机的提出;1982年,Hopfield模型的提出;1986年,误差反向传播算法的提出(利用多层感知器解决线性不可分问题);1989年,卷积神经网络的提
xyq1212
·
2022-04-12 08:23
机器学习&强化学习
神经网络
算法
深度学习
深度学习笔记
整理(三)——卷积神经网络
1.神经认知机模型由负责对比度提取的G层,负责图形特征提取的S细胞层和抗变形的C细胞层交替排列组成。经过交替排列,反复迭代,底层提取的局部特征会逐渐变成全局特征;因输入模式变化引起的畸变可以很好地被C细胞消除,对变形有较好的稳健性。2.卷积神经网络CNN基于人类视觉皮层感受野的结构得到的模型,由输入层、卷积层、池化层、全连接层、输出层组成,接下来分别具体介绍不同层。卷积的本质:如果全部都是全连接层
xyq1212
·
2022-04-12 08:23
机器学习&强化学习
神经网络
卷积
深度学习
神经网络与
深度学习笔记
——反向传播算法原理
神经网络与
深度学习笔记
系列一共有五个专题,分别是第一章使用神经网络进行手写数字识别——梯度下降算法是什么主要介绍了神经网络的基础例如感知器激活函数等概念,最主要介绍了梯度下降算法。
刘爱然
·
2022-04-12 07:14
神经网络与机器学习笔记
深度学习
神经网络
深度学习笔记
1--神经网络
Perceptron感知器感知器Perceptron现在你看到了一个简单的神经网络如何做决策:输入数据,处理信息,然后给出一个结果作为输出!现在让我们深入这个大学录取的案例,来学习更多输入数据如何被处理。数据,无论是考试成绩还是评级,被输入到一个相互连接的节点网络中。这些独立的节点被称作感知器或者神经元。它们是构成神经网络的基本单元。每一个依照输入数据来决定如何对数据分类。在上面的例子中,输入的评
handsome_happy
·
2022-04-04 07:20
机器学习
深度学习笔记
---objectness含义
objectness含义:可以具象化理解为“置信度”;objectness对应的是布尔值类型的二分类标签通常是1和0(也有-1),理解成对应True和false逻辑值。.由于每个真实框只对应一个objectness标签为正的预测框,如果有些预测框跟真实框之间的IoU很大,但并不是最大的那个,那么直接将其objectness标签设置为0当作负样本,可能并不妥当。.为了避免这种情况,YOLO-V3算法
心之所向521
·
2022-04-02 07:59
python
机器学习
pytorch
tensorflow
深度学习
(十)
深度学习笔记
| 关于优化器Adam
一、关于优化器深度学习的目标是通过不断改变网络参数,使得参数能够对输入做各种非线性变换拟合输出,本质上就是一个函数去寻找最优解,所以如何去更新参数是深度学习研究的重点。通常将更新参数的算法称为优化器,字面理解就是通过什么算法去优化网络模型的参数。常用的优化器就是梯度下降。接下来讲的就是梯度下降和进一步优化梯度下降的各种算法。优化器或者优化算法,是通过训练优化参数,来最小化(最大化)损失函数。损失函
Viviana-0
·
2022-04-01 07:10
深度学习
算法
深度学习
优化器
机器学习
人工智能
深度学习笔记
(三十三)卷积神经网络识别手写数字的工作原理
手写体数字很熟悉吧,来自经典的Mnist数据集,我在不同阶段训练过这个数据集:不会神经网络时我用keras简单搭建全连接神经网络;学会深层神经网络原理后,我不用TensorFlow/Pytorch深度学习框架,手工搭建DNN;学习了TensorFlow的基本操作后,我用tf搭建了全连接神经网络。回顾我做过的这些工作,让我对Mnist数据集有了较深的理解。然而纵观我实现这个训练过程的方式,仅仅用到的
Mr.zwX
·
2022-04-01 07:31
【深度学习/神经网络】Deep
Learning
机器学习实战笔记5—支持向量机
注:此系列文章里的部分算法和
深度学习笔记
系列里的内容有重合的地方,
深度学习笔记
里是看教学视频做的笔记,此处文章是看《机器学习实战》这本书所做的笔记,虽然算法相同,但示例代码有所不同,多敲一遍没有坏处,哈哈
业余狙击手19
·
2022-03-30 07:40
ML
CNN图像分类:从LeNet5到EfficientNet
深度学习Author:louwillFrom:
深度学习笔记
在对卷积的含义有了一定的理解之后,我们便可以对CNN在最简单的计算机视觉任务图像分类中的经典网络进行探索。
louwill12
·
2022-03-23 08:57
卷积
神经网络
算法
计算机视觉
机器学习
从YOLOv5源码loss.py详细介绍Yolov5的损失函数
深度学习笔记
:从YOLOv5源码loss.py详细介绍Yolov5的损失函数前言classComputeLoss主要代码分析1__init__函数2build_targets函数3_call__函数前言前一篇博客已经从源码
HollowKnightZ
·
2022-03-19 07:29
目标检测
深度学习
pytorch
机器学习
动手
深度学习笔记
(三十二)6.2. 图像卷积
动手
深度学习笔记
(三十二)6.2.图像卷积6.卷积神经网络6.2.图像卷积6.2.1.互相关运算6.2.2.卷积层6.2.3.图像中目标的边缘检测6.2.4.学习卷积核6.2.5.互相关和卷积6.2.6
juluwangriyue
·
2022-03-10 10:16
pytorch实践
pytorch
pytorch
深度学习笔记
(七)——pytorch数据处理工具箱(一)
数据处理工具箱数据处理工具箱概述utils.data简介参考文献数据下载和预处理是机器学习、深度学习实际项目中耗时又重要的任务,尤其是数据预处理,关系到数据质量和模型性能,往往要占据项目的大部分时间。数据处理工具箱概述pytorch涉及数据处理(数据装载、数据预处理、数据增强等)主要工具包及相互关系如下图所示:上图的左边是torch.utils.data工具包,它包括以下4个类。1)Dataset
小白成长之旅
·
2022-03-08 10:39
深度学习(基于pytorch)
python
深度学习
pytorch
HALCON 20.11:
深度学习笔记
(11)---目标检测
HALCON20.11:
深度学习笔记
(11)---目标检测HALCON20.11.0.0中,实现了深度学习方法。本章讲解了如何使用基于深度学习的对象检测。
机器视觉001
·
2022-03-01 11:44
深度学习
HALCON
机器学习
深度学习
HALCON
动手学
深度学习笔记
(二)——线性神经网络
在学习深度神经网络之前,需要了解神经网络训练的基础知识。包括:定义简单的神经网络架构、数据处理、指定损失函数和如何训练模型。为了更容易学习,从经典算法————线性神经网络开始,了解神经网络的基础知识。文章目录1.1线性回归中的基本元素1.1.1线性模型1.1.2损失函数1.1.3随机梯度下降1.2矢量化加速1.3正态分布与平方损失1.4从线性回归到深度网络1.5总结1.1线性回归中的基本元素线性回
.别拖至春天.
·
2022-03-01 07:30
动手学深度学习
神经网络
深度学习
机器学习
线性回归
吴恩达
深度学习笔记
(83)-LeNet-5、AlexNet和VGGNet网络知多少
https://www.toutiao.com/a6646734819151577608/2019-01-2207:12:38经典网络(Classicnetworks)这节课,我们来学习几个经典的神经网络结构,分别是LeNet-5、AlexNet和VGGNet。LeNet-5首先看看LeNet-5的网络结构,假设你有一张32×32×1的图片,LeNet-5可以识别图中的手写数字,比如像这样手写数字
喜欢打酱油的老鸟
·
2022-02-28 07:27
人工智能
VGG
AlexNet
LeNet
深度学习笔记
(三)---再见卷积之残差网络
以下笔记来源:[1].AndrewNg的卷积神经网络week2[2].Keras中文手册[3].残差网络(DeepResidualLearningforImageRecognition)(https://blog.csdn.net/u014665013/article/details/81985082)[4].残差网络ResNet网络原理及实现(https://www.jianshu.com/p/
Jayden yang
·
2022-02-26 09:01
深度学习笔记
深度学习笔记
上一页
14
15
16
17
18
19
20
21
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他