E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
反向传播
DNN和CNN的
反向传播
算法(全连接层、卷积层、池化层)
本文章包含DNN和CNN
反向传播
算法的详细推导,特别是CNN的
反向传播
算法中对权重求偏导数的公式中补零和卷积核旋转的详细推导。
反向传播
算法是用来计算神经网络(NN)的可训练参数的偏导数的算法。
Puppy_L
·
2022-12-18 09:28
神经网络
卷积神经网络
零基础深度学学习:
反向传播
算法及全连接层实现
这就是
反向传播
算法的名字的含义。importnumpyasnpclassFullConnected
zgMelia
·
2022-12-18 09:28
深度学习基础-----全连接层的
反向传播
过程
【Python实现卷积神经网络】:全连接层的正向传播与
反向传播
+python实现代码_Jack_Kuo的博客-CSDN博客_全连接层
反向传播
https://microsoft.github.io/ai-edu
King的王国
·
2022-12-18 09:58
深度学习
深度学习
从代码出发:多层全连接神经网络
反向传播
算法代码剖析
BP
反向传播
算法剖析代码运行过程最后结果可视化数据分布最后结果代码已经添加了完整的注释,具体内容可以依据《TensorFlow深度学习:龙龙老师》书籍查阅。
young_monkeysun
·
2022-12-18 09:57
深度学习tensorflow
机器学习
深度学习
机器学习
前馈神经网络
图文+代码分析:caffe中全连接层、Pooling层、Relu层的
反向传播
原理和实现
1.全连接层
反向传播
设CC为loss全连接层输入:(bottom_data)aa全连接层输出:(top_data)zz假设aa维度K_,zz维度N_,则权值矩阵维度为N_行*K_列,batchsize=
l_____r
·
2022-12-18 09:56
深度学习
深度学习
CNN
反向传播
caffe
CNN
反向传播
源码实现——CNN数学推导及源码实现系列(4)
spm=1001.2014.3001.5501CNN前向/
反向传播
原理推导——卷积网络从零实现系列(2)_日拱一两卒的博客-CSDN博客https://blog
量化交易领域专家YangZongxian
·
2022-12-18 09:55
人工智能专题研究
python
机器学习
numpy
1024程序员节
[2022-12-17]神经网络与深度学习 hw9 - bptt
BackPropagationThroughTimetask1题目内容题目思路+题目解答题目总结task2题目内容题目思路+题目解答题目总结hw9-BackPropagationThroughTimetask1题目内容推导RNN
反向传播
算法
三工修
·
2022-12-18 07:12
[DL]神经网络与深度学习
深度学习
神经网络
NLP 学习笔记之 Seq2seq
(也就是说,所有训练样本在神经网络中都进行了一次正向传播和一次
反向传播
)然而
努力不脱发选手
·
2022-12-18 07:55
自然语言处理
学习
深度学习
[NLP学习笔记01]seq2sq2、非端到端模型架构
经过模型输出的结果会与原来的label有所误差,通过
反向传播
算法,将参数不断修正、优化。
最初热忱
·
2022-12-18 07:52
自然语言处理
深度学习
pytorch中的张量基本方法
文章目录一、四种初始化二、属性三、加减乘除四、近似值五、限幅六、所有元素求和、均值七、极值八、排序九、索引和切片十、掩码十一、拼接十二、切割十三、张量的广播十四、
反向传播
1.
反向传播
的基本过程2.中间节点的梯度保存
老干妈拌士力架
·
2022-12-18 07:13
Pytorch
pytorch
numpy
python
基于Kera框架的手写数字识别
基于Kera框架的手写数字识别一.配置环境二.具体步骤2.1导入数据集2.2创建网络图层和网络结构2.3定义
反向传播
函数与优化函数2.4数据集和测试集归一化2.5标签制作三整体代码与验证四.使用卷积神经网络进行优化一
仝佳轩
·
2022-12-18 02:29
深度学习
深度学习
tensorflow
python
CNN卷积神经网络基础知识笔记
一、卷积神经网络(CNN)的发展史1986年,Runmelheart和Hinton等人提出了
反向传播
算法(BackPropagation,BP)1998年,LeCun利用BP算法训练LeNet5网络,标志着
放风筝的猪
·
2022-12-17 17:17
卷积神经网络
cnn
深度学习
[Datawhale-李宏毅机器学习-39期]-002-回归+003-误差和梯度下降+004-
反向传播
机制
咋说嘞,神经网络就是一个函数,拟合线性非线性的数据。改了一个小程序(代码修改自:https://blog.csdn.net/weixin_42318554/article/details/121940694),构建了一个两层convnet和两层的mlp看看效果如何,003-是介绍了SGD的基本原理004-是介绍深度学习的相关知识有趣的点:回顾一下deeplearning的历史:1958:Perce
deyiwang89
·
2022-12-17 17:16
自学李宏毅机器学习
机器学习
回归
python
pytorch完成线性回归任务(代码详解)
pytorch计算图(前馈+反向)无论在pytorch还是在tensorflow中,都是用计算图来计算前馈和
反向传播
过程。我们首先来介绍一个简单的计算图:如上图所示,表示了y’=w*x的前馈计算r=y
Unstoppable~~~
·
2022-12-17 16:54
深度学习
pytorch
线性回归
深度学习
【NLP理论到实战】04 Pytorch完成线性回归
文章目录Pytorch完成线性回归目标1.计算图节点参数/属性与前向计算1.1requires_grad和grad_fn原理示例1.2前向计算过程2.
反向传播
梯度计算与计算图节点属性转换2.1
反向传播
梯度计算
Onedean
·
2022-12-17 16:24
NLP理论到实战
线性回归
pytorch
参数随机初始化方法:xavier_init()
它为了保证前向传播和
反向传播
时每一层的方差一致,根据每层的输入个数和输出个数来决定参数随机初始化的分布范围,是一个通过该层的输入和输出参数个数得到的分布范围内的均匀分布。
nini_coded
·
2022-12-17 15:42
深度学习
Xavier
初始化
深度学习(4):训练集、验证集、测试集 以及偏差和方差
训练集我们利用训练集来进行参数训练(即前面提到的前向传播、
反向传播
、参数更新的过程)。验证集我们选取不同的超参数通过训练集训练出不同的模型。将这些模型应用在验证集上以选择最合适的超参数。
awake020
·
2022-12-17 13:23
深度学习笔记
机器学习
深度学习
人工智能
神经网络
深度学习(二):深度学习与神经网络学习笔记(手记)
1.感知机模型,CNN模型的前身:2.sigmoid激活函数:3.神经网络的前向传播与
反向传播
计算过程例子:4.神经网络的前向传播与
反向传播
计算过程例子(续):5.Relu、Softmax,Sigmod
夜风里唱
·
2022-12-17 11:41
深度学习
深度学习
深度学习基础入门笔记集合
文章目录第一讲Overview4/18第二讲线性模型【穷举】4/19第三讲梯度下降算法【贪心】4/19第四讲
反向传播
【神经网络、弹性】4/20第五讲用PyTorch实现线性回归4/21第六讲逻辑斯蒂回归二分类
影刃南墙
·
2022-12-17 11:21
深度学习
深度学习
人工智能
机器学习
卷积神经网络识别图像,卷积神经网络图像处理
尤其是基于误差
反向传播
(ErrorBackPropagation)算法的多层前馈网络(Multiple-Lay
普通网友
·
2022-12-17 10:18
cnn
图像处理
深度学习
人工智能
【深度学习】——训练过程
包含哪些层训练过程其实就是y=f(x)的求参过程,先给参数一个初始值,然后根据初始函数计算得到预测值,根据预测值和真值计算损失,然后又根据损失函数进行
反向传播
更新参数,更新参数后,再次计算预测值,如此往复
有情怀的机械男
·
2022-12-17 09:48
深度学习
深度学习
训练过程
可微分渲染:Learning to Predict 3D Objects with an Interpolation-based Differentiable Renderer
可微渲染简介三维的物体渲染成二维图像的时候,其实本质上是进行了一系列矩阵变换,插值等操作,这和神经网络有一定的相似之处,渲染相当于前向传播,得到渲染图,而渲染图和输入图像相比较可以定义loss,从而进行
反向传播
理想很丰满,现实很骨感
·
2022-12-17 09:46
#
三维重建
深度学习
计算机视觉
人工智能
损失函数和
反向传播
损失函数Loss1.概念理解2.官方文档使用不难,要明白loss是如何计算的需要一定数学功底(1)L1lossX:1,2,3Y:1,2,5L1loss=(0+0+2)/3=0.6MSE=(0+0+2^2)/3=1.333importtorchfromtorch.nnimportL1Lossinputs=torch.tensor([1,2,3],dtype=torch.float32)targets
爱学习的小登西
·
2022-12-16 19:59
pytorch
深度学习
神经网络
【机器学习】神经网络各层
反向传播
中的损失计算
神经网络
反向传播
中各层损失计算(一个随意的笔记)在看吴恩达的神经网络时看不懂表达式啥意思,于是自己推算了一遍。
whooooami
·
2022-12-16 19:23
机器学习
神经网络
机器学习
系统学习CV-lesson2-偏差方差
系统学习CV-lesson2sklearn逻辑回归交叉熵函数无偏估计梯度下降的由来梯度下降
反向传播
批量梯度下降方差-偏差泛化误差模型学习期望和均值偏差方差偏差与方差噪声欠拟合过拟合策略正则化稀疏性稀疏性与过拟合
aoaoGofei
·
2022-12-16 17:01
深度学习与计算机视觉
计算机视觉
《深度学习的数学》学习笔记(手写扫描)
《深度学习的数学》(人民邮电出版社)本书主要介绍了阶层型神经网络、卷积神经网络、梯度下降法以及误差
反向传播
法(BP)。书中语言风格比较俏皮,深入浅出。就是实战用的是Excel这点比较有个性…
全自动学习机器
·
2022-12-16 13:02
学习杂记
深度学习
算法
YOLOv1
文章目录1.前言2.目标检测3.预测阶段(前向传播)3.1细致讲解3.2立体图讲解3.3举例讲解4.预测阶段-后处理5.训练阶段(
反向传播
)1.前言YOLOv1论文YOLO=YouOnlyLookOnce
没有难学的知识
·
2022-12-16 10:21
计算机视觉
深度学习
人工智能
YOLO学习笔记3——训练阶段
训练阶段(
反向传播
)拟合物体深度学习、监督学习:通过梯度下降、
反向传播
方法迭代的微调神经元中的权重,使损失函数最小化。
卖strawberry的小女孩
·
2022-12-16 10:19
yolo
darknet
深度学习
计算机视觉
人工智能
自组织神经网络聚类算法,神经网络聚类预测分析
它的学习规则是使用最速下降法,通过
反向传播
来不断调整网络的权值和阈值,使网络的误差平方和最小。BP
aifans_bert
·
2022-12-16 10:12
php
算法
神经网络
聚类
keras
Convolutional Neural Networks卷积神经网络 Contents 一:前导 Back Propagation
反向传播
算法 网络结构 学习算法 二:Convolutional N
转自:http://www.gageet.com/2014/0878.phpContents一:前导BackPropagation
反向传播
算法网络结构学习算法二:ConvolutionalNeuralNetworks
xiewenbo
·
2022-12-16 06:40
CNN
deep
learning
PyTorch的自动求导
由损失函数求导的过程,称为“
反向传播
”,求导是件辛苦事儿,所以自动求导基本上是各种深度学习框架的基本功能和最重要的功能之一,PyTorch也不例外。我们今天来体验一下PyTorch
小小川_
·
2022-12-16 06:10
python
DL-Learning
第四讲 back propagation
反向传播
课堂练习手动推导线性模型y=w*x,损失函数loss=(ŷ-y)²下,当数据集x=2,y=4的时候,
反向传播
的过程。
长路漫漫 大佬为伴
·
2022-12-16 06:39
Pytorch深度学习实践
python
深度学习
机器学习
pytorch
反向传播
(back propagation)_神经网络中的运用
反向传播
(backpropagation)_神经网络中的运用
反向传播
(backpropagation)其实是梯度下降的延伸,当神经网络超过2层的时候,需要求解中间层的误差项δ\deltaδ就需要用到
反向传播
了
默_存
·
2022-12-16 06:38
深度学习
反向传播
back
propagation
BP
神经网络
back propagation
反向传播
(浅层神经网络分析示例)
backpropagation一个浅层的神经网络参数和中间变量解释前向传播
反向传播
代码示例参考一个浅层的神经网络上图是一个,3层的神经网络,2个隐藏层+1个输出层;输入层特征维度为3。
u011144848
·
2022-12-16 06:07
deep
learning
机器学习
神经网络
反向传播
链式法则
backpropagation
pytorch自动求导的疑问
我的疑问是:误差
反向传播
我并没有写,这里是不是就是pytorch的自动求导功能。
农夫山泉2号
·
2022-12-16 06:07
深度学习
pytorch
autograd
Back propagation
反向传播
Backpropagation
反向传播
文章目录Backpropagation
反向传播
链式求导法则
椰子奶糖
·
2022-12-16 06:07
机器学习理论杂记
Pytorch--自动求导
这个自动求导功能其实就是利用了链式求导法则,利用
反向传播
来求出对应参数的偏导。0.41版本后,pytorch就直接将其合并进了Tensor类里面了。
qq_45839415
·
2022-12-16 06:36
python
pytorch
pytorch—自动求导
在训练神经网络模型
反向传播
时,通过调用.backward()可以方便计算出loss关于每一个node的梯度。
长空。
·
2022-12-16 06:36
pytorch
深度学习
python
pytorch求导
由损失函数求导的过程,称为“
反向传播
”,求导是件辛苦事儿,所以自动求导基本上是各种深度学习框架的基本功能和最重要的功能之一,PyTorch也不例外,后面有时间会写一下tens
Tai Fook
·
2022-12-16 06:03
人工智能
python
BP(Back Propagation,
反向传播
)算法
什么是
反向传播
(BP,BackPropagation)算法BPBPBP算法(即误差
反向传播
算法)是适合于多层神经元网络的一种学习算法,它建立在梯度下降法的基础上。
熙成成成成
·
2022-12-16 06:32
笔记
神经网络
算法
网络
人工智能
深度学习
Back Propagation
反向传播
文章目录3、BackPropagation
反向传播
3.1引出算法3.2非线性函数3.3算法步骤3.3.1例子3.3.2作业13.3.3作业23.4TensorinPyTorch3.5PyTorch实现线性模型
LeoATLiang
·
2022-12-16 06:30
【PyTorch深度学习】实践
深度学习
人工智能
pytorch
tensorflow
pytorch 的自动求导功能简介
pytorch的自动求导功能简介一、
反向传播
算法简介二、pytorch的自动求导功能1.前言2.我们需要自动求导机制做什么3.一个简单的例子4.模型训练过程中使用自动求导(略)5.关闭和打开自动求导6.
哆啦A梦PLUS
·
2022-12-16 06:59
机器学习
python
pytorch
深度学习
人工智能
python
第五门课:序列模型(第一周)——循环序列模型
循环序列模型1.为什么选择序列模型2.数学符号3.循环Recurrent神经网络模型4.通过时间的
反向传播
5.不同类型的循环神经网络6.语言模型和序列生成7.对新序列采样8.循环神经网络的梯度消失9.GatedRecurrentUnit
青春是首不老歌丶
·
2022-12-16 00:14
吴恩达《深度学习》
神经网络
深度学习
pytorch
Resnet-50网络结构详解
因为梯度
反向传播
到前面的层,重复相乘可能使梯度无穷小。结果就是,随着网络的层数更深,其性能趋于饱和,甚至迅速下降。
青春是首不老歌丶
·
2022-12-16 00:13
《深度学习》学习笔记
深度学习
神经网络
机器学习
第一门课:神经网络和深度学习(第三周)——浅层神经网络
浅层神经网络1.神经网络概览2.神经网络的表示3.神经网络的输出4.多样本向量化5.激活函数6.为什么需要非线性激活函数7.激活函数的导数8.直观理解
反向传播
9.随机初始化1.神经网络概览对于以往由逻辑单元组成的简单神经网络
青春是首不老歌丶
·
2022-12-16 00:13
吴恩达《深度学习》
第一门课:神经网络和深度学习(第四周)——深层神经网络
5.前向传播和
反向传播
6.搭建神经网络块7.参数vs.超参数8.深度学习和大脑的关联性1.深层神经网络 深层神经网络其实就是包含更多的隐藏层神经网络。
青春是首不老歌丶
·
2022-12-16 00:13
吴恩达《深度学习》
GRU:门控循环单元
GRU:门控循环单元理论LSTM与GRU对比实践从零实现GRUPytorch实现GRU参数输入输出理论解决长期记忆和
反向传播
中的梯度等问题GRU是LSTM的一种变体,它比LSTM的结构更加简单,而且效果也很好
HatcherRobotics
·
2022-12-16 00:32
感知
融合与预测
gru
深度学习
python
MoCo v1 文献研究 [自监督学习]
✅个人简介:南京邮电大学,计算机科学与技术,在读本科更新笔录:2022/2/7改动:文中的所有“
反向传播
”改成“随机梯度下降算法(SGD)”。原因:当时把“BP算法”和“SGD算法”混淆成一个东西了。
一支王同学
·
2022-12-16 00:21
深度学习
自监督学习
图像处理
自监督学习
机器学习
神经网络
图像处理
深度学习
深度学习的初学者用哪本书比较好的?
上册着重介绍深度学习的基础知识,旨在帮助读者建立扎实的知识储备,主要介绍随机性与基础统计学、训练与测试、过拟合与欠拟合、神经元、学习与推理、数据准备、分类器、集成算法、前馈网络、激活函数、
反向传播
人邮异步社区
·
2022-12-15 20:18
深度学习
人工智能
1-4 Coursera吴恩达《神经网络与深度学习》第四周课程笔记-深层神经网络
然后以简单的2层神经网络为例,详细推导了其正向传播过程和
反向传播
过程,使用梯度
双木的木
·
2022-12-15 14:14
吴恩达深度学习笔记
笔记
AI
神经网络
机器学习
人工智能
深度学习
python
上一页
30
31
32
33
34
35
36
37
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他