E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
反向传播
深度学习——Dropout层
(2)把输入x通过修改后的网络前向传播,然后把得到的损失结果通过修改的网络
反向传播
。一小批训练样本执行完这个过程后,在没有被删除的神经元上按照随机梯度下降法更新对应的参数(w,b)。在做权重的调整
一套煎饼
·
2023-01-16 06:03
论文阅读-深度学习
故障检测
深度学习
人工智能
【1-神经网络计算】北京大学TensorFlow2.0
神经网络的计算过程,搭建第一个神经网络模型神经网络优化:神经网络的优化方法,掌握学习率、激活函数、损失函数和正则化的使用,用Python语言写出SGD、Momentum、Adagrad、RMSProp、Adam五种
反向传播
优化器神经网络八股
如何原谅奋力过但无声
·
2023-01-16 06:32
#
TensorFlow
tensorflow
神经网络
python
深度学习——梯度消失问题
梯度消失的问题要从深度学习的
反向传播
说起,以神经网络为例,神经网络在
反向传播
时,每一层权重和偏置的更新都是由后面所有层的导数乘积决定的,其中就包括神经元的线性函数的导数、激活函数的导数。
千羽QY
·
2023-01-16 06:01
深度学习
神经网络
全连接神经网络与3层神经网络搭建 2022-1-11
1Gradientwithmomentum2RMS-prop(Rootmeansquareprop)3ADAM二、3层神经网络搭建三、物体分类模型训练1下载数据2图片进行可视化展示3神经网络搭建4模型训练5模型测评1、前向传播,
反向传播
作用是什么
偶入编程深似海
·
2023-01-16 06:31
人工智能基础
神经网络
dnn
深度学习
深度学习笔记——梯度消失和梯度爆炸及解决方法
梯度消失:
反向传播
时随着网络加深梯度逐渐消失,最后导致参数不更新。
phily123
·
2023-01-16 06:30
深度学习学习笔记
深度学习
pytorch
人工智能
pytorch-yolov3实现子batch功能
batch功能1.darknet-yolov3的子batch前言cfg文件中:batch=64subdivisions=16batch:更新权重和偏置的基本单位batch/subdivisions:前向传播、
反向传播
的基本单位具体分析请往下看
小楞
·
2023-01-15 16:21
深度学习yolov3
pytorch的应用---神经网络模型
构建神经网络流程:1.定义一个拥有可学习参数的神经网络2.遍历训练数据集3.处理输入数据使其流经神经网络4.计算损失值5.将网络参数的梯度进行
反向传播
6.以一定规则更新网络的权重关于torch.nn:使用
故里_
·
2023-01-15 09:26
PyTorch
pytorch
卷积神经网络笔记
算出交叉熵损失后,就要开始
反向传播
了。其实
反向传播
就是一个参数优化的过程,优化对象就是
初岘
·
2023-01-15 08:33
python
卷积神经网络
pytorch速成笔记
我们还可以利用Sequential简便实现损失函数及
反向传播
:交叉熵损失函数:
反向传播
优化器模型的保存与读取:讲解都在代码里面…加载数据集:impo
咸鱼不闲73
·
2023-01-15 08:21
机器学习
pytorch
python
计算机视觉
深度学习20-强化学习中的黑盒优化
黑盒方法具有几个非常吸引人的属性:▪它们比基于梯度的方法至少快两倍,因为我们不需要执行
反向传播
步骤来获得梯度。▪不会对优化的目标和被视为黑盒的策略做太多假设。
clayhell
·
2023-01-15 08:11
深度学习
深度学习
人工智能
【机器学习】深度学习的三个概念:Epoch, Batch, Iteration
(也就是说,所有训练样本在神经网络中都进行了一次正向传播和一次
反向传播
)再通俗一点,一个Epoch就是将所有训练样本训练一次的过程。
信息安全与项目管理
·
2023-01-15 04:22
深度学习
python
Pytorch基础(九)——损失函数
具体实现过程:在一个批次(batch)前向传播完成后,得到预测值,然后损失函数计算出预测值和真实值之间的差值,
反向传播
去更新权值和偏置等参数,以降低差值,不断向真实值接近,最终得到效果良好的模型。
人狮子
·
2023-01-14 22:44
pytorch
pytorch
深度学习
机器学习
深度学习系统框架基础--python+CNN
****python****感知机****神经网络****参数归类****激活函数****正规化****预处理****批处理****损失函数****随机梯度下降法(SGD)****数值微分****误差
反向传播
法
wnaka
·
2023-01-14 20:14
deep
learing
个人
深度学习:ResNet从理论到代码
深度学习:ResNet从理论到代码面临的问题模型退化问题ResNet核心思想
反向传播
公式推导残差的由来残差模块为什么效果好代码实现面临的问题模型退化问题随着网络层数加深,性能逐渐降低,但它并不是过拟合,
HanZee
·
2023-01-14 13:28
深度学习理论
深度学习
计算机视觉
cnn
人工智能
目标检测
误差
反向传播
法--计算图
2023.1.14在昨天的神经网络学习算法的实现中,遇到使用数值微分法连续计算梯度运行速度慢的问题,然后使用了误差
反向传播
法去连续计算梯度而大幅提高运行速度。今天就开始学习误差
反向传播
法这一个章节。
Anthony陪你度过漫长岁月
·
2023-01-14 12:51
深度学习
学习
人工智能
Pyotrch入门-第4讲
1.刘二大人第4讲参考图引用于:PyTorch学习(三)--
反向传播
_陈同学爱吃方便面的博客-CSDN博客_
反向传播
pytorch课后答案参考:代码实现:importtorchdefBP_demo2()
周杰伦的粉丝
·
2023-01-14 11:45
深度学习
python
pytorch
GRU门控循环单元自学笔记(动手学深度学习)
前言:在上一章节中,通过对RNN模型计算图进行
反向传播
链式求导推理,可以看出普通RNN模型可能存在梯度爆炸或梯度消失的问题(因为存在矩阵的次幂项)。
王大大可
·
2023-01-14 10:50
深度学习
gru
神经网络
python
jupter
吴恩达深度学习笔记4-Course1-Week4【深层神经网络】
深层神经网络(DNN):一、深层神经网络4层的神经网络:二、前向与
反向传播
前向(forwardpropagation):反向(backwardpropagation):notation:n[l]:第l层的
Wang_Jiankun
·
2023-01-14 07:01
吴恩达深度学习
吴恩达深度学习笔记
深度学习
吴恩达
PyG搭建R-GCN实现节点分类
目录前言数据处理模型搭建1.前向传播2.
反向传播
3.训练4.测试实验结果完整代码前言R-GCN的原理请见:ESWC2018|R-GCN:基于图卷积网络的关系数据建模。
Cyril_KI
·
2023-01-14 06:49
GNN
PyG
R-GCN
异质图神经网络
GNN
PyG
节点分类
pytorch模型构建(四)——常用的回归损失函数
一、简介损失函数的作用:主要用于深度学习中predict与Truelabel“距离”度量或者“相似度度量”,并通过
反向传播
求梯度,进而通过梯度下降算法更新网络参数,周而复始,通过损失值和评估值反映模型的好坏
要坚持写博客呀
·
2023-01-14 00:01
4.
Pytorch
2.
深度学习
pytorch
深度学习
bp神经网络误差
反向传播
,bp神经网络结果不一样
BP神经网络(误差反传网络)虽然每个人工神经元很简单,但是只要把多个人工神经元按一定方式连接起来就构成了一个能处理复杂信息的神经网络。采用BP算法的多层前馈网络是目前应用最广泛的神经网络,称之为BP神经网络。它的最大功能就是能映射复杂的非线性函数关系。对于已知的模型空间和数据空间,我们知道某个模型和他对应的数据,但是无法写出它们之间的函数关系式,但是如果有大量的一一对应的模型和数据样本集合,利用B
普通网友
·
2023-01-14 00:00
ai智能写作
神经网络
深度学习
机器学习
算法
神经网络
反向传播
算法(BP算法)
一、
反向传播
算法原理
反向传播
算法概念:最初,所有的边权重(edgeweight)都是随机分配的。对于所有训练数据集中的输入,人工神经网络都被激活,并且观察其输出。
若只如初見~~
·
2023-01-14 00:59
机器学习
算法
深度学习
神经网络
机器学习
人工智能
浅谈神经网络误差
反向传播
(BP)算法
神经网络的误差
反向传播
(BP)算法堪称是一个伟大的算
八座金球的小怪兽
·
2023-01-14 00:22
深度学习
神经网络
BP神经网络原理及matlab实例
本文具体来介绍一下一种非常常见的神经网络模型——
反向传播
(BackPropa
qq_wuqingdefeng
·
2023-01-13 11:29
BP神经网络
BP神经网络
激活函数的选择
局限性:在逆向传播中使用链式求导法则对神经网络模型中的权重调整幅度进行计算时,多个较小的梯度相乘后,会严重影响神经网络参数的调整,第一层的初始权重很难通过
反向传播
发生变化,容易出现梯度消失的状况。
ciaowzq
·
2023-01-13 10:56
机器学习
深度学习
神经网络
pytorch中backward()函数详解
在最开始使用Pytorch时,关于
反向传播
函数,有时会报错,简单的说,如果你的Y值是个标量,那么直接使用:y.backward()就可以了,但是如果你的Y是个向量或矩阵,那么就不一样:y.backward
奥特曼熬夜不sleep
·
2023-01-13 09:47
pytorch
深度学习
神经网络
动手学深度学习--4.多层感知机
神经网络的训练有时候可能希望保持一部分的网络参数不变,只对其中一部分的参数进行调整,或者训练部分分支网络,并不让其梯度对主网络的梯度造成影响,这个时候我妈就需要使用detach()函数来切断一些分支的
反向传播
为啥不能修改昵称啊
·
2023-01-13 09:46
深度学习
人工智能
python
数据分析-深度学习Day5
Backpropagation
反向传播
我们上节课学习了深度学习,也知道采用梯度下降优化我们的各神经元参数,以语音识别为例,一个输入特征量1000多项,8层隐层,大致需要的w,b参数有数百万项,这样我们梯度下降的计算量是非常大的
小浩码出未来!
·
2023-01-13 00:59
深度学习
深度学习
torch.autograd在写求导代码时,参与计算的非torch.Tensor类型的数值返回梯度只能为None,不可训练参数梯度可以不是None
torch.autograd在写求导代码时,参与计算的非torch.Tensor类型的数值返回梯度只能为None,并且不可训练参数的梯度可以不为None,但是
反向传播
后查询其梯度时只有None与之对应,
skk1faker
·
2023-01-12 21:31
笔记
pytorch
深度学习
机器学习
深度学习_准备工作
深度学习常用函数学习率问题
反向传播
:神经网络可以表达非线性的原因参数初始化常用函数sigmoid:Relu激活函数sigmoid存在的主要缺点是当网络层数较多的时候容易发生梯度消失因为在sigmoid中
沧海磐石
·
2023-01-12 14:53
ResNet精读笔记(1)
把层堆起来吗哈哈跟堆汉堡一样这里呢我们都知道当网络的层数变多之后加深了deep了但是就会带来梯度消失或者爆炸的问题这里实在找不到好的图本质上因为当层数多了之后
反向传播
的计算里面是不是有连乘啊那就会导致要么算的很小接近
:)�东东要拼命
·
2023-01-12 13:33
深度学习
神经网络
计算机视觉
学习
反向传播
算法过程推导
反向传播
算法
反向传播
算法(BackPropagationAlgorithm)的定义:
反向传播
(Backpropagation,缩写为BP)是“误差
反向传播
”的简称,是一种与最优化方法(如梯度下降法)结合使用的
卿与
·
2023-01-12 12:48
神经网络
神经网络
机器学习
深度学习
算法
论文阅读笔记之Deformable Convolutional Networks
新模块可以很容易的在现有网络中进行替换,通过标准
反向传播
很容易进行端到端的训练
AICVer
·
2023-01-12 12:40
深度学习
《PyTorch深度学习实践》刘二大人 第4讲
反向传播
课堂代码importtorchx_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]w=torch.tensor([1.0])w.requires_grad=Truedefforward(x):returnw*xdefloss(x,y):y_pred=forward(x)return(y_pred-y)**2forepochinrange(100):forx,yinzip
Grairain
·
2023-01-12 11:54
PyTorch
深度学习实践
深度学习
pytorch
人工智能
B站刘二大人-
反向传播
Lecture4
系列文章:《PyTorch深度学习实践》完结合集-B站刘二大人Pytorch代码注意的细节,容易敲错的地方B站刘二大人-线性回归及梯度下降Lecture3B站刘二大人-
反向传播
Lecture4B站刘二大人
宁然也
·
2023-01-12 11:23
PyTorch使用
python
机器学习
深度学习
刘二大人——
反向传播
非线性函数,防止全连接层转化为一个线性公式
反向传播
计算权重加偏置量计算权重Pytorch中用tensor来保存数据,可以是标量,向量,更高维的数据Data保存权重W,Grad用来保存损失对权重的倒数计算梯度
qq_54282734
·
2023-01-12 11:49
AI
ai
Pytorch深度学习实践(b站刘二大人)P4讲(
反向传播
)
课堂代码:#
反向传播
课上代码importtorchx_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]w=torch.tensor([1.0])#w的初值为1.0w.requires_grad
努力学习的朱朱
·
2023-01-12 11:16
pytorch
深度学习
python
【计算机视觉】Pooling层的作用以及如何进行
反向传播
问题CNN网络在
反向传播
中需要逐层向前求梯度,然而pooling层没有可学习的参数,那它是如何进行
反向传播
的呢?此外,CNN中为什么要加pooling层,它的作用是什么?
秋天的波
·
2023-01-12 11:45
深度学习
计算机视觉
计算机视觉
人工智能
深度学习
pytorch实践04(刘二大人)
今天学习了刘二大人B站上面的pytorch实践第四讲,这节主要讲的是
反向传播
算法,关于
反向传播
在视频中有如下例子的讲解:黑色(位于上方)的线是前馈传播,红色(位于下方)的线是
反向传播
,同样的刘二大人为了使小伙伴们能够熟悉
反向传播
的过程同样留了两个小作业上图我所做的结果为
chenzeyu940717
·
2023-01-12 11:44
pytorch
人工智能
深度学习
《PyTorch深度学习实践》Lecture_04
反向传播
Back Propagation
B站刘二大人老师的《PyTorch深度学习实践》Lecture_04重点回顾+手记+代码复现+知识补充Lecture_04
反向传播
BackPropagation一、重点回顾(一)计算图ComputationalGraph1
木夕敢敢
·
2023-01-12 11:12
PyTorch深度学习
深度学习
机器学习
python
刘二大人 《Pyorch深度学习实践》第4讲
反向传播
指路☞《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili知识补充:1、从左到右是前向,从右到左是
反向传播
*****************************************
qq_39705798
·
2023-01-12 11:39
深度学习
人工智能
完全图解RNN、RNN变体、Seq2Seq、Attention机制
PS:建议先阅读之前的博客《深度学习(五):循环神经网络(RNN)模型与前向
反向传播
算法》。
anshuai_aw1
·
2023-01-12 10:38
深度学习
RNN
Seq2Seq
Attention
第四讲_图像识别之图像分类Image Classification
每种任务数据集不一样imageNet:根据WorldNet组织的图片集,为每个名词提供平均1000张图片网络进化卷积神经网络(CNN)基础神经网络:神经元(输入,w,b,sigmoid)优化:梯度下降,BP
反向传播
weixin_34198453
·
2023-01-12 09:53
人工智能
02.PyTorch张量
0.引言实现目标:使用PyTorch张量(tensor)来手动实现前向传播,损失(loss)和
反向传播
。
江湖人称桂某人
·
2023-01-12 08:46
PyTorch官方文档详解
pytorch
深度学习
人工智能
学习笔记(8):Windows版YOLOv4目标检测:原理与源码解析-神经网络训练流程
utm_source=blogtoedu前向传播推理与预测
反向传播
训练与学习
AlgernJ
·
2023-01-12 07:23
研发管理
windows
yolov4
目标检测
原理
源码
深度学习概念随笔
batchsize,iteration的区别和联系随机种子概念(已tf为例)tf张量的定义和np数据的转换tf张量的定义tensor张量转numpy张量和np数据都可以作为彼此函数或算子的输入参数神经网络正向传播和
反向传播
的理解网络间的数据传播与矫正分为三步正向传播
反向传播
激活函数
肯定有问题
·
2023-01-12 01:04
深度学习
人工智能
matlab 神经网络自动微分,自动微分机制 - Python与算法之美的个人空间 - OSCHINA - 中文开源技术交流社区...
神经网络通常依赖
反向传播
求梯度来更新网络参数,求梯度过程通常是一件非常复杂而容易出错的事情。而深度学习框架可以帮助我们自动地完成这种求梯度运算。
雲花糖是我的榮耀
·
2023-01-11 14:11
matlab
神经网络自动微分
单目标应用:基于麻雀搜索算法SSA的小波神经网络WNN数据预测(隐藏层神经元个数可修改,提供MATLAB代码)
一、麻雀搜索算法SSA二、小波神经网络WNNWNN是一种以小波基函数为隐含层节点、激励函数误差
反向传播
的神经网络,如下图所示:图中X为WNN的输入样本,Y为WNN的预测输出,ωij和ωjk分别为连接输入层与隐含层
IT猿手
·
2023-01-11 14:04
单目标应用
智能优化算法
MATLAB
matlab
神经网络
机器学习
02.5 自动微分
文章目录2.5自动微分2.5.1.一个简单的例子2.5.2.非标量变量的
反向传播
2.5.3.分离计算2.5.4.Python控制流的梯度计算2.5.5.小结2.5自动微分深度学习框架通过自动计算导数,即自动微分
nsq1101
·
2023-01-11 12:35
Python基础学习
python书籍笔记
#
python
pandas
机器学习
深度学习框架拾遗:【Pytorch(七)】——Pytorch动态计算图
第二层含义是:计算图在
反向传播
后立即销毁。下次调用需要重新构
J_Xiong0117
·
2023-01-11 11:02
深度学习框架
日常随记
python
pytorch
深度学习
python
上一页
22
23
24
25
26
27
28
29
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他