E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
【深度学习笔记】
【深度学习】:《100天一起学习PyTorch》第九天:Dropout实现(含源码)
【深度学习】:《100天一起学习PyTorch》第九天:Dropout实现✨本文收录于【深度学习】:《100天一起学习PyTorch》专栏,此专栏主要记录如何使用PyTorch实现
深度学习笔记
,尽量坚持每周持续更新
JoJo的数据分析历险记
·
2022-05-30 07:03
深度学习
dropout
Pytorch
神经网络
正则化
【深度学习】:《100天一起学习PyTorch》第八天:权重衰退(含源码)
【深度学习】:《100天一起学习PyTorch》第八天:权重衰退(含源码)✨本文收录于【深度学习】:《100天一起学习PyTorch》专栏,此专栏主要记录如何使用PyTorch实现
深度学习笔记
,尽量坚持每周持续更新
JoJo的数据分析历险记
·
2022-05-29 08:52
pytorch
深度学习
权重衰退
【深度学习】:《100天一起学习PyTorch》第七天之模型评估和选择(上):欠拟合和过拟合(含源码)
【深度学习】:《100天一起学习PyTorch》模型评估和选择(上):欠拟合和过拟合✨本文收录于【深度学习】:《100天一起学习PyTorch》专栏,此专栏主要记录如何使用PyTorch实现
深度学习笔记
JoJo的数据分析历险记
·
2022-05-27 07:25
深度学习
pytorch
机器学习
模型选择
深度学习笔记
:主成分分析(PCA)(1)——标准化、协方差、相关系数和协方差矩阵
深度学习笔记
:主成分分析(PCA)(1)——标准化、协方差、相关系数和协方差矩阵 笔者在学习主成分分析(PCA)的时候接触到了协方差矩阵的应用。
aaronwu2
·
2022-05-25 07:16
深度学习
深度学习
主成分分析
概率论与数理统计
深度学习笔记
(四)—— 神经网络结构[Neural Network Architectures]
这是
深度学习笔记
第四篇,完整的笔记目录可以点击这里查看。 本博客主要讲解一下神经网络的结构,具体的实现可以查看这篇博客。 神经网络被建模为在一个非循环图中连接的神经元的集合。
zeeq_
·
2022-05-24 07:23
CS231n课程笔记
神经网络
网络
深度学习
人工智能
深度学习笔记
——深度学习框架TensorFlow之MLP(十四)
MLP多层感知器的使用,多层感知器,常用来做分类,效果非常好,比如文本分类,效果比SVM和bayes好多了。感知器学习算法基本介绍单层感知器:感知器(SingleLayerPerceptron)是最简单的神经网络,它包含输入层和输出层,而输入层和输出层是直接相连的。上图是一个单层感知器,很简单的结构,输入层和输出层直接相连。下面介绍一下如何计算输出端:利用格式1计算输出层,首先,计算输出层中,每一
R3
·
2022-05-24 07:19
深度学习
深度学习
神经网络
算法
深度学习笔记
(3)基于Tensorflow的多元线性回归:预测波士顿房价
问题描述给定波士顿地区一系列地区租房的价格,然后罗列出了收集到多个因素,每个因素已经是量化好。现在给定的要求是,使用一个多元线性模型去拟合这些数据,然后用于预测。模型price=f(x1,x2,...,xn)=∑i=1nwixi+bprice=f(x_1,x_2,...,x_n)=\sum\limits_{i=1}^{n}w_ix_i+bprice=f(x1,x2,...,xn)=i=1∑nwix
小柯同学_2019
·
2022-05-24 07:02
深度学习
学习札记
神经网络
python
tensorflow
多元线性回归
深度学习笔记
(一)——感知机模型(Perceptron Model)
零、引言感知机,也叫单层神经网络,是最基础的神经网络模型结构。神经网络模型由生物神经中得到启发。在生物神经元细胞中,神经突触接收到信号,经过接收并处理信号后判断信号的信息强弱,来做出不同神经电位变化反应。受此启发,科研人员设计出基础的神经网络模型结构,神经元模型(NeuronModel)。一、神经元模型下图为一个最简单的“M-P神经元结构”,该模型1943年提出,并一直沿用至今:从模型示意图看,对
AD稳稳
·
2022-05-24 07:28
深度学习
Python
NLP
学习
神经网络
深度学习
深度学习笔记
博客用于记录深度学习各部分的学习记录,由于主要从事自然语言处理及数据挖掘方面的工作,CV方向常用模型不是很了解,大概整理的是NLP方向的学习脉络。陆续补充中。大概目录会按照1.感知机(Perceptron;->MLP,MultilayerPerceptron,多层感知机)主要介绍单层感知机,也即是一层神经网络的概念及计算方式。引出多层感知机的概念链接:感知机学习笔记2.ANN(Artificial
AD稳稳
·
2022-05-24 07:58
Python
NLP
深度学习
深度学习
rnn
lstm
深度学习笔记
(二)——从多层感知机模型(MLP)到人工神经网络模型(ANN)
一、人工神经网络定义广义上来说,由神经元模型构成的模型就可以称之为人工神经网络模型。神经元模型已经在上一篇感知机的笔记中进行介绍。上一篇也提到,两层神经元模型即可组成最简单的感知机模型,其中第一层称为输入层,第二层称为输出层。由于单层感知机的学习能力限制,科研人员又提出将多个感知机组合到一起,构成了多层感知机(MultilayerPerceptron)模型。本文主要来介绍最基础的人工神经网络模型—
AD稳稳
·
2022-05-24 07:23
深度学习
知识图谱
深度学习
python
机器学习
山东大学项目实训十一——吴恩达
深度学习笔记
笔记已免费上传https://download.csdn.net/download/fangjiayou/85431944为什么使用深层表示?(Whydeeprepresentations?)我们都知道深度神经网络能解决好多问题,其实并不需要很大的神经网络,但是得有深度,得有比较多的隐藏层,这是为什么呢?我们一起来看几个例子来帮助理解,为什么深度神经网络会很好用。首先,深度网络在计算什么?首先,深
fangjiayou
·
2022-05-23 07:54
项目实训
深度学习
人工智能
计算机视觉
【深度学习】:《100天一起学习PyTorch》第六天:多层感知机(含代码)
【深度学习】:《100天一起学习PyTorch》第六天:多层感知机(含代码)✨本文收录于【深度学习】:《100天一起学习PyTorch》专栏,此专栏主要记录如何使用PyTorch实现
深度学习笔记
,尽量坚持每周持续更新
JoJo的数据分析历险记
·
2022-05-22 21:09
深度学习
pytorch
感知机
机器学习
神经网络
AIQ - deeplearning.ai 全套吴恩达老师的深度学习课程笔记及资源在线阅读
http://www.6aiq.com/deeplearning_ai/html/SUMMARY.html
深度学习笔记
目录第一门课神经网络和深度学习(NeuralNetworksandDeepLearning
研发之道
·
2022-05-21 07:48
搜索推荐-机器学习
吴恩达
机器学习
深度学习
deeplearning
李沐基于Pytorch的
深度学习笔记
(8)-基础优化算法(附代码)
fromsklearn.datasetsimportload_bostonimportjoblibfromsklearn.linear_modelimportLinearRegression,SGDRegressor,Ridgefromsklearn.metricsimportmean_squared_errorfromsklearn.model_selectionimporttrain_test
Reedsway在重庆
·
2022-05-20 07:40
笔记
pytorch
深度学习
算法
李沐基于Pytorch的
深度学习笔记
(7)-线性回归的基本实现(附代码)
1线性回归的实现这里我参考了这两篇博客线性回归及python代码实现___zachary的博客-CSDN博客_python线性回归代码python机器学习手写算法系列——线性回归_juwikuang的专栏-CSDN博客_python机器学习由于李沐老师的课程中使用的d2l和我安装的部分库存在冲突,所以我没有使用他的方法进行线性回归。整体的步骤和我们上面讲到的一个模型步骤是一样的。1.1数据生成im
Reedsway在重庆
·
2022-05-20 07:10
笔记
深度学习
算法
pytorch
李沐基于Pytorch的
深度学习笔记
(6)-线性回归和基础优化算法(附代码)
代码章节:李沐基于Pytorch的
深度学习笔记
(7)-线性回归的基本实现(附代码)_m0_57628341的博客-CSDN博客1基础优化算法线性回归的前提,我们就需要一些优化方法。
Reedsway在重庆
·
2022-05-20 07:10
笔记
深度学习
算法
pytorch
李沐基于Pytorch的
深度学习笔记
(5)-线性回归和基础优化算法(附代码)
代码章节:李沐基于Pytorch的
深度学习笔记
(7)-线性回归的基本实现(附代码)_m0_57628341的博客-CSDN博客1线性回归线性回归的应用是机器学习和深度学习的一个基础,所以需要去了解。
Reedsway在重庆
·
2022-05-20 07:09
笔记
深度学习
算法
pytorch
李沐基于Pytorch的
深度学习笔记
(3)
3矩阵计算3.1基础知识本章节涉及的矩阵知识,放在下方,需要深入研究的同学可以看一下矩阵求导的本质与分子布局、分母布局的本质(矩阵求导——本质篇):https://zhuanlan.zhihu.com/p/263777564矩阵求导公式的数学推导(矩阵求导——基础篇):https://zhuanlan.zhihu.com/p/273729929矩阵求导公式的数学推导(矩阵求导——进阶篇):http
Reedsway在重庆
·
2022-05-20 07:39
笔记
深度学习
pytorch
人工智能
《100天一起学习PyTorch》第四天:从0到1实现logistic回归(附源码)
《100天一起学习PyTorch》从0到1实现logistic回归✨本文收录于《100天一起学习PyTorch》专栏,此专栏主要记录如何使用PyTorch实现
深度学习笔记
,尽量坚持每周持续更新,欢迎大家订阅
JoJo的数据分析历险记
·
2022-05-18 07:18
深度学习
pytorch
python
logistic回归
机器学习
《100天一起学习PyTorch》第三天:简洁代码实现线性神经网络(附代码)
✨本文收录于《100天一起学习PyTorch》专栏,此专栏主要记录如何使用PyTorch实现
深度学习笔记
,尽量坚持每周持续更新,欢迎大家订阅!
JoJo的数据分析历险记
·
2022-05-18 07:48
pytorch
神经网络
深度学习
数据科学
人工智能
Pytorch-
深度学习笔记
文章目录Pytorch-
深度学习笔记
环境搭建查看pytorch是否能使用cuda加速Pytorch将模型和张量加载到GPU方法1方法2Overview线性模型code梯度下降算法codecode反向传播
咬着棒棒糖闯天下
·
2022-05-18 07:05
深度学习
笔记合集
机器学习
python
深度学习
机器学习
pytorch
《100天一起学习PyTorch》第五天:从0到1实现Softmax回归
《100天一起学习PyTorch》第五天:从0到1实现Softmax回归✨本文收录于《100天一起学习PyTorch》专栏,此专栏主要记录如何使用PyTorch实现
深度学习笔记
,尽量坚持每周持续更新,欢迎大家订阅
JoJo的数据分析历险记
·
2022-05-18 07:17
pytorch
分类
深度学习
softmax回归
人工智能
深度学习笔记
- FCN模型与上采样(Upsampling)
目录1.FCN模型2.上采样2.1双线性插值上采样(今天不做重点介绍)2.2反卷积上采样(1)数学理解(2)动态过程理解2.3反池化上采样引言:在FCN、U-net等网络结构中,涉及到了上采样。上采样概念:上采样指的是任何可以让图像变成更高分辨率的技术。发现了几个较好的教程帮助理解FCN和上采样:(1)教程1:FCN详解与pytorch简单实现;反卷积的数学理解(2)教程2:3种上采样方法(反卷积
高不胖
·
2022-05-13 07:31
深度学习
卷积
人工智能
机器学习
机器学习中 F1-score
整合了两个链接的知识点,把里面的小错误改掉了:机器学习中的F1-score【
深度学习笔记
】F1-Score一、定义F1分数(F1-score)是分类问题的一个衡量指标。
l叨叨l
·
2022-05-13 07:18
语音识别
python
机器学习
《100天一起学习PyTorch》第二天:从零实现线性回归(含详细代码)
PyTorch从零实现线性回归✨本文收录于《100天一起学习PyTorch》专栏,此专栏主要记录如何使用PyTorch实现
深度学习笔记
,尽量坚持每周持续更新,欢迎大家订阅!
JoJo的数据分析历险记
·
2022-05-09 07:15
pytorch
线性回归
深度学习
机器学习
python
《100天一起学习PyTorch》第一天:数据操作和自动求导
PyTorch:数据操作和自动求导✨本文收录于《100天一起学习PyTorch》专栏,此专栏主要记录如何使用PyTorch实现
深度学习笔记
,尽量坚持每周持续更新,欢迎大家订阅!
JoJo的数据分析历险记
·
2022-05-09 07:42
pytorch
学习
python
深度学习
机器学习
卷积神经网络优化
卷积神经网络优化–潘登同学的
深度学习笔记
文章目录卷积神经网络优化--潘登同学的
深度学习笔记
Alexnet网络结构连续使用小的卷积核的作用使用1*1的卷积核的作用使用1*1卷积核代替全连接Dropout技术使用方法为什么
PD我是你的真爱粉
·
2022-05-07 07:20
机器学习
cnn
深度学习
神经网络
transformer机制
transformer机制–潘登同学的
深度学习笔记
文章目录transformer机制--潘登同学的
深度学习笔记
应用了残差思想的self-AttentionEncoder加入位置信息PositionEmbeddingtransformer
PD我是你的真爱粉
·
2022-05-07 07:20
Tensorflow
深度学习
transformer
深度学习激活函数与正则化问题
深度学习激活函数与正则化问题–潘登同学的
深度学习笔记
文章目录深度学习激活函数与正则化问题--潘登同学的
深度学习笔记
梯度消失问题(VanishingGradients)Relu的缺点其他Relu变形参数初始化问题
PD我是你的真爱粉
·
2022-05-07 07:49
机器学习
深度学习
tensorflow
rnn
Encoder-Decoder框架与Attention机制
Attention机制–潘登同学的
深度学习笔记
文章目录Attention机制--潘登同学的
深度学习笔记
Encoder-Decode框架Encoder-Decode应用于聊天机器人数据预处理训练模型模型应用
PD我是你的真爱粉
·
2022-05-06 07:00
Tensorflow
机器翻译
自然语言处理
深度学习
深度学习笔记
8 GAN生成对抗网络
深度学习笔记
8GANGAN网络原理简介GAN网络的优缺点收敛目标与问题典型GAN算法Cycle-GANstyle-GANGAN网络原理简介生成对抗网络(GAN)由2个重要的部分构成:生成器(Generator
xuyifancsdn
·
2022-05-03 07:52
深度学习
神经网络
python
深度学习笔记
--预测房价回归问题
@python深度学习1–笔记预测房价回归问题美好的一天从深度学习开始1新概念1.标量回归:预测单一连续值的回归2.均方误差(MSE):预测值与目标值之差的平方3平均绝对误差(MAE)预测值与目标值之差的绝对值4.K折验证(对模型进行可靠评估的方法):将数据划分为K个分区(通常4或者5)过程实例化K个相同的模型,将每个模型在K-1个分区上训练,在剩下的一个分区上评估,模型的验证分数是k个验证分数的
小杜今天学AI了吗
·
2022-05-01 07:03
python深度学习
python
深度学习
回归
吴恩达
深度学习笔记
吴恩达
深度学习笔记
P3用神经网络进行监督学习P4深度学习的兴起P7二分分类P8logistic回归P10梯度下降法P14使用计算图求导P16批量梯度下降P17向量化P21广播机制P22关于numpyP24logistics
w_thout
·
2022-04-27 07:13
深度学习
神经网络
人工智能
动手学
深度学习笔记
(六)——多层感知机及实现
多层感知机(MLP,MultilayerPerceptron)也叫人工神经网络(ANN,ArtificialNeuralNetwork),除了输入输出层,它中间可以有多个隐层。文章目录1.1隐藏层1.2激活函数1.2.1ReLU函数1.2.2sigmoid函数1.2.3tanh函数1.3简洁实现1.1隐藏层通过在网络中加入一个或多个隐藏层来克服线性模型的限制,使其能处理更普遍的函数关系类型,最简单
.别拖至春天.
·
2022-04-22 12:52
动手学深度学习
深度学习
pytorch
python
动手学
深度学习笔记
(五)——softmax回归实现
我们发现通过深度学习框架的高级API能够使实现线性回归变得更加容易。同样,通过深度学习框架的高级API也能更方便地实现softmax回归模型。文章目录1.1图像分类数据集1.1.1读取数据集1.1.2读取小批量1.1.3整合所有组件1.2初始化模型参数1.3损失函数1.4优化算法1.5训练1.1图像分类数据集MNIST数据集是图像分类中广泛使用的数据集之一,但作为基准数据集过于简单。我们将使用类似
.别拖至春天.
·
2022-04-22 12:52
动手学深度学习
深度学习
回归
python
动手学
深度学习笔记
(四) ——分类问题(softmax回归)
分类问题通常分为两类:硬分类和软分类;硬分类:只对样本的“硬性”类别感兴趣,即属于哪个类别;软分类:即得到属于每个类别的概率;这两者的界限往往很模糊,因为即使我们只关心硬类别,我们仍然使用软类别的模型。文章目录1.1.1分类问题1.1.2网络架构1.1.3softmax运算1.1.4小批量样本的矢量化1.1.5损失函数1.1.5.1对数似然1.1.5.2softmax及其导数1.1.5.3交叉熵损
.别拖至春天.
·
2022-04-22 12:51
动手学深度学习
分类
深度学习
回归
动手学
深度学习笔记
(三)——线性回归代码实现
了解线性回归的关键思想之后,始通过代码来动手实现线性回归。文章目录1.1从零开始实现1.1.1生成数据集1.1.2读取数据集1.1.3初始化模型参数1.1.4定义模型1.1.5定义损失函数1.1.6定义优化算法1.1.7训练1.2简洁实现1.2.1生成数据集1.2.2读取数据集1.2.3定义模型1.2.4初始化模型参数1.2.5定义损失函数1.2.6定义优化算法1.2.7训练1.1从零开始实现虽然
.别拖至春天.
·
2022-04-22 12:21
动手学深度学习
深度学习
线性回归
python
深度学习笔记
深度学习1.深度学习介绍学习抽象说,学习就是认知的过程,从未知到已知的探索和思考。任何从已经有的信息,无论是通过计算,判断,推理而后得到一个认知的过程都可以称为"学习"输入就是已知的信息输出就是最终获得的认知的结果学习策略思考过程,经验不同而导致的差异,可以统一归为"学习策略",好的学习策略会更快更准确的得到认知的结果,而不好的学习策略可能会花费更多的时间或者获得错误的结论神经网络现实世界中很多问
荼靡,
·
2022-04-22 07:37
机器学习笔记
深度学习
人工智能
神经网络
一文弄懂元学习 (Meta Learing)(附代码实战)《繁凡的
深度学习笔记
》第 15 章 元学习详解 (上)万字中文综述
《繁凡的
深度学习笔记
》第15章元学习详解(上)万字中文综述(DL笔记整理系列)
[email protected]
://fanfansann.blog.csdn.net/https://github.com
繁凡さん
·
2022-04-19 07:03
《繁凡的深度学习笔记》
Meta
Learing
元学习
元学习
人工智能
《繁凡的
深度学习笔记
》前言、目录大纲 一文让你完全弄懂深度学习所有基础(DL笔记整理系列)
《繁凡的
深度学习笔记
》前言、目录大纲(DL笔记整理系列)一文弄懂深度学习所有基础!
繁凡さん
·
2022-04-19 07:32
《繁凡的深度学习笔记》
Deep
Learing
深度学习
Meta
Learing
元学习
深度学习
人工智能
计算机视觉
繁凡的对抗攻击论文精读(二)CVPR 2021 元学习训练模拟器进行超高效黑盒攻击(清华)
《繁凡的
深度学习笔记
》,包含深度学习基础和TensorFlow2.0,PyTorch详解,以及CNN,RNN,GNN,AE,GAN,Transformer,强化学习,元学习,对抗攻击防御,迁移学习等主流研究方向万字综述
繁凡さん
·
2022-04-19 07:43
《繁凡的对抗攻击论文精读》
元学习
对抗攻击
深度学习
模拟器
深度学习笔记
001-Python基础语法
深度学习一般基于Python语言,在正式开始之前先把Python语言的基础语法做一下笔记,整理的同时需要理解,方便后面使用。01基础操作age=20#声明一个变量age用来存储一个数字201+1#基础数学加法print('HelloWorld!')#打印HelloWorld!02条件判断if#2.条件判断ifif1==2:#如果if跟随的条件为假那么不执行属于if的语句,然后寻找elseprint
地表最菜研究生
·
2022-04-16 09:07
深度学习笔记
python
神经网络与
深度学习笔记
——卷积神经网络的原理
神经网络与
深度学习笔记
系列一共有五个专题,分别是第一章使用神经网络识别手写数字——梯度下降算法是什么。主要介绍了神经网络的基础例如感知器激活函数等概念,最主要介绍了梯度下降算法。
刘爱然
·
2022-04-16 07:21
神经网络与机器学习笔记
神经网络
人工智能
深度学习
卷积
网络
python
深度学习笔记
3—— 卷积神经网络简介
卷积运算密集连接层和卷积层的根本区别:Dense层从输入特征空间中学到的是全局模式(比如对于MNIST数字,全局模式就是涉及所有像素的模式)卷积层学到的是局部模式,对于图像来说,学到的就是在输入图像的二维小窗口中发现的模式。在上面的例子中,这些窗口的大小都是3×3。卷积神经网络学到的模式具有平移不变性卷积神经网络可以学到模式的空间层次结构:第一个卷积层将学习较小的局部模式(比如边缘),第二个卷积层
小杜今天学AI了吗
·
2022-04-16 07:15
python深度学习
深度学习
python
cnn
深度学习笔记
——全连接层
1.概观卷积取的是局部特征,全连接就是把以前的局部特征重新通过权值矩阵组装成完整的图。因为用到了所有的局部特征,所以叫全连接。全连接层(fullyconnectedlayers,FC)在整个卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用。2.全连接层的理解————————
绛洞花主敏明
·
2022-04-16 07:12
深度学习
深度学习笔记
——卷积神经网络
卷积神经网络神经元BP算法RGB滑动窗口label卷积层池化层神经元BP算法RGB依次是:RGB三通道彩色图像,一通道灰度图像,二值图像。滑动窗口展平输入label卷积层输入图像3*224*224,则卷积核的channel=3。使用32个卷积核对图像进行卷积操作,则输出图像的channel=32。池化层
MCC莫大大
·
2022-04-16 07:39
笔记
深度学习
神经网络
卷积
深度学习笔记
——卷积层和池化层的一些“冷门”小知识点
一.卷积层的定义和计算1.卷积层的定义卷积层=感受野+权值共享每一个感受野(receptivefield)内会有多个filter,而每个filter的参数设置都不一样(一般随机初始化后,由神经网络自主学习得到)。每个filter负责侦测该感受野内出现的某种特征(pattern),而同样的特征可能会在图像的其他位置重复出现,因而同一张图片的不同区域需要同样的一组filter来侦测,即权值共享(Par
daimashiren
·
2022-04-16 07:39
学习笔记
深度学习
cv
卷积神经网络
Pytorch基础(四)—— 卷积层
深度学习笔记
(一):卷积层+池化层+激活函数+全连接层二、Pytorch示例在t
人狮子
·
2022-04-16 07:08
pytorch
pytorch
深度学习
python
深度学习笔记
3——AlexNet
1、背景介绍在2012年的ImageNet竞赛中,AlexNet获得了top-5测试的15.3%errorrate,获得第二名的方法errorrate是26.2%AlexNet有60million个参数和65000个神经元,五层卷积,三层全连接网络,最终的输出层是1000通道的softmax。训练这种规模的网络要大量的计算能力,AlexNet利用了GPU提供的大量并行能力,利用两块GPU分配网络训
卖strawberry的小女孩
·
2022-04-16 07:08
深度学习
人工智能
深度学习
卷积神经网络
深度学习笔记
——CNN中的数学推导
参考:矩阵求导术刘建平pinard前向传播一般输入的张量维度的格式有两种一种是channels_last:(batch_sizes,height,width,channels)一种是channels_first:(batch_sizes,channels,height,width)卷积层记s为卷积步长stride\记s为卷积步长stride记s为卷积步长stride,p为padding填充的大小\
廣阝
·
2022-04-16 07:35
深度学习
神经网络
深度学习
python
上一页
14
15
16
17
18
19
20
21
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他