E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
反向传播
MoCo v1 文献研究 [自监督学习]
✅个人简介:南京邮电大学,计算机科学与技术,在读本科更新笔录:2022/2/7改动:文中的所有“
反向传播
”改成“随机梯度下降算法(SGD)”。原因:当时把“BP算法”和“SGD算法”混淆成一个东西了。
一支王同学
·
2022-12-16 00:21
深度学习
自监督学习
图像处理
自监督学习
机器学习
神经网络
图像处理
深度学习
深度学习的初学者用哪本书比较好的?
上册着重介绍深度学习的基础知识,旨在帮助读者建立扎实的知识储备,主要介绍随机性与基础统计学、训练与测试、过拟合与欠拟合、神经元、学习与推理、数据准备、分类器、集成算法、前馈网络、激活函数、
反向传播
人邮异步社区
·
2022-12-15 20:18
深度学习
人工智能
1-4 Coursera吴恩达《神经网络与深度学习》第四周课程笔记-深层神经网络
然后以简单的2层神经网络为例,详细推导了其正向传播过程和
反向传播
过程,使用梯度
双木的木
·
2022-12-15 14:14
吴恩达深度学习笔记
笔记
AI
神经网络
机器学习
人工智能
深度学习
python
深度学习课程笔记-第二周
神经网络的计算过程可以分为前向传播和
反向传播
(用logistics回归来阐述)(什么是logistics回归:Logistics回归是统计学习中的经典分类方法,是一种广义的线性回归模型。
?ZERO?
·
2022-12-15 14:12
笔记
深度学习
python
使用pytorch构建基于VGG16的网络实现Cifar10分类
VGG16是一个sequence结构的网络,搭建起来难度不高,很适合上手学习,本文着重如何搭建和训练,对于一些neuralnetwork的常用知识(前向、
反向传播
原理等)不再赘述。
十里烊场
·
2022-12-15 12:35
深度学习
pytorch
NNDL 作业9:分别使用numpy和pytorch实现BPTT
目录6-1:推导RNN
反向传播
算法BPTT.6-2P:设计简单RNN模型,分别用Numpy、Pytorch实现
反向传播
算子,并代入数值测试.6-1:推导RNN
反向传播
算法BPTT.在RNN中,输入序列为
_Gypsophila___
·
2022-12-15 09:06
pytorch
深度学习
人工智能
【无标题】
6-1P:推导RNN
反向传播
算法BPTT.RNN的"前向传导算法"RNN的"
反向传播
算法"如图所示做出如下符号约定:取作为隐藏层的激活函数取作为输出层的变换函数取作为模型的损失函数,其中标签是一个one-hot
uvuvuvw
·
2022-12-15 08:22
深度学习
python
人工智能
解决对一个对象多次BP更新时造成的RuntimeError: you can only change requires_grad flags of leaf variables.问题
环境:PyTorch1.7.1问题描述:在生成对抗样本的情境中,常常需要对一个对象(比如对抗扰动)进行多次的
反向传播
更新,例如下述代码段:defattack_update(self,perturbation
YulongYang1896
·
2022-12-14 13:24
PyTorch
pytorch
深度学习
神经网络
a leaf Variable that requires grad is being used in an in-place operation
计算图中的叶子节点不能直接进行内置运算,防止影响计算图的
反向传播
运算。
华zyh
·
2022-12-14 13:53
强化学习
pytorch
人工智能
深度学习
A leaf Variable that requires grad is being used in an in-place operation
错误原因:计算图中的叶子节点不能直接进行内置运算,防止影响计算图的
反向传播
运算。如果非要改变叶子节点data的值,可以直接对data属性调用内置运算,这样不会记录在计算图当中。
乱搭巴士
·
2022-12-14 13:21
深度学习
torch
计算机视觉
深度学习
Pytorch 模型初始化
而我们知道在全连接的神经网络中,参数梯度和
反向传播
得到的状态梯度以及入激活值有关——激活值饱和会导致该层状态梯度信息为0,然后导致下面所有层的参数梯度为0;入激活值为0会导致对应参数梯度为0。
nia_wish
·
2022-12-14 12:28
深度学习
机器学习什么显卡_机器学习:什么是预测模型性能评估
一些方法,如神经网络模型在执行
反向传播
时进行评估。尽管如此,我们仍然通过各种
weixin_39905500
·
2022-12-14 11:21
机器学习什么显卡
目标检测--损失函数
损失函数分类1、ClassificationError(分类错误率)2、MeanSquaredError(均方误差)3、CrossEntropyLossFunction(交叉熵损失函数)3.1二分类情况(
反向传播
的一个过程
划水的鱼儿
·
2022-12-14 11:13
深度学习
损失函数
yolo
深度学习
Pytorch中的Variable
Pytorch中的Variablepytorch两个基本对象:Tensor(张量)和Variable(变量)其中,tensor不能
反向传播
,variable可以
反向传播
。
Shuxuan1
·
2022-12-14 09:08
Pytorch
深度学习
【pytorch】2.9 交叉熵损失函数 nn.CrossEntropyLoss()
下面我们通过拆解交叉熵的公式来理解其作为损失函数的意义假设我们在做一个n分类的问题,模型预测的输出结果是[x1,x2,x3,....,xn][x_1,x_2,x_3,....,x_n][x1,x2,x3,....,xn]然后,我们选择交叉熵损失函数作为目标函数,通过
反向传播
调整模型的权重
Enzo 想砸电脑
·
2022-12-14 07:46
#
pytorch
pytorch
深度学习
python
你好,语义分割(二)
2.3.训练(Train)2.3.1.学习准则(Criterion)学习准则是模型学习效果的评估标准,对于有监督学习,给定模型推理结果和目标标签,学习准则通过计算损失值来得到一个梯度值,再通过
反向传播
(
孙晓军82
·
2022-12-14 05:01
你好
人工智能
人工智能
深度学习
人工智能
卷积神经网络原理详解
文章结构1.卷积网络1.1卷积基本原理1.2卷积的数学定义1.3卷积网络的前向与
反向传播
1.4卷积网络是如何做到简化模型的1.卷积网络一般的全连接网络存在什么问题。
Gamma and Beta
·
2022-12-14 03:56
算法笔记
神经网络
网络
卷积
算法
python
神经网络与深度学习:人工神经网络(上)
实现单层神经网络2.1神经网络的设计2.2神经网络的实现2.3具体步骤实现3.多层神经网络3.1异或问题3.2复杂边界问题3.3前馈神经网络3.4全连接网络3.5万能近似定理3.6隐含层的设计4.误差
反向传播
算法
Twinkle1231
·
2022-12-14 01:26
深度学习
神经网络
贝叶斯神经网络BNN
反向传播
网络在优化完毕后,其权重是一个固定的值,而贝叶斯神经网络把权重看成是服从均值为μ,方差为δ的高斯分布,每个权重服从不同的高斯分布,
反向传播
网络优化的是权重,贝叶斯神经网络优化的是权重的均值和方差
HHHHGitttt
·
2022-12-13 22:27
目标检测
神经网络
深度学习
python引入其他文件夹下的py文件具体方法
target=target.to(torch.float32)criterion=nn.MSELoss()loss=criterion(output,target)net.zero_grad()print(“
反向传播
之前
ZHAO__JW
·
2022-12-13 20:02
pyhon
python
使用BP网络逼近函数-matlab
一、大致介绍BP算法的学习过程是由正向传播和
反向传播
组成的。在正向传播的过程中,输入的信息从输入层到隐含层处理最后传向输出层,而且每一个神经元只能影响到下一层神经元的状态。
啊哦小小小小萌
·
2022-12-13 19:08
matlab
BP逼近函数
python实现BP神经网络进行预测和误差分析(附源代码)
反向传播
算法也称为BP神经网络,是一种带有反馈的神经网络反向学习方法,它可以对神经网络的各层上的各个神经元的各个神经元之间的连接权重进行不断迭代修改,使神经网络将输入数据转换成期望的输出数据BP神经网络的学习过程由正向传播和
反向传播
两部分组成
showswoller
·
2022-12-13 17:54
机器学习
神经网络
python
深度学习
神经网络输入数据要求,神经网络输入输出计算
它的学习规则是使用最速下降法,通过
反向传播
来不断调整网络的权值和阈值,使网络的误差平方和最小。BP神经网络模型拓扑结构包括输入层(input)、隐层(hidelayer)和输出层(outpu
普通网友
·
2022-12-13 17:16
技术日志
神经网络
深度学习
机器学习
神经网络国内外发展概况,人工神经网络发展趋势
国内外人工神经网络的研究现状基于人工神经网络的土坝病害诊断知识获取方法摘要:以土坝测压管水位异常诊断为实例,对
反向传播
(BP)神经网络进行训练,然后通过典型示例经网络计算生成显式的诊断规则,为专家系统诊断推理时直接调用
快乐的小荣荣
·
2022-12-13 17:32
神经网络
神经网络图像识别技术,神经网络与图像识别
尤其是基于误差
反向传播
(ErrorBackPropagation)算法的多层前馈网络(Multiple-La
普通网友
·
2022-12-13 13:08
神经网络
人工智能
深度学习
梯度剪裁
例如:在
反向传播
中,假设第一层倒数乘以权重>1,随着向前网络的传播的层数越多,梯度可能会越来越大
alex1801
·
2022-12-13 11:14
深度学习
网络
神经网络
pytorch
梯度剪裁
机器学习之logistic回归
机器学习之logistic回归Logistic回归分析的基本原理数据准备代码实现导入必要库加载数据集定义sigmoid函数定义
反向传播
可视化展示定义logistic类训练并可视化结果总结Logistic
Ice-冰鸽
·
2022-12-12 23:57
机器学习
回归
python
ResNet与Densenet之间的关系以及区别
反向传播
时,梯度可能会在距离输入近的地方中产生消失的现象,既然离输入近的神经网络层较难训练,则可以将它短接到更加靠近输出的地方。因为直接映射是难以学习的,
诸神黄昏的幸存者
·
2022-12-12 19:07
pytorch
神经网络
图像分类
深度学习
神经网络
计算机视觉
《神经网络与深度学习》算法伪代码汇总
目录第三章线性模型算法3.1两类感知器的参数学习算法算法3.2一种改进的平均感知器参数学习算法算法3.3广义感知器参数学习算法第四章前反馈神经网络算法4.1使用
反向传播
算法的随机梯度下降训练过程第七章网络优化与正则化算法
是一个小迷糊吧
·
2022-12-12 18:06
神经网络与深度学习
神经网络
机器学习
人工智能
2022.12.04 第十次周报
AttentionIsAllYouNeed》背景模型框架AttentionScaledDot-ProductAttentionMulti-HeadAttentionPositionalEncoding二、LSTM推导1、
反向传播
杨幂臭脚丫子
·
2022-12-12 18:23
深度学习
人工智能
pytorch训练网络时内存不够问题
由于我这里做的工作并不是完全基于神经网络的,只是利用了
反向传播
,所以我的前向传播并不同于传统的传播方式,即输入经过网络得到输出,我的输出是经过一个更新公式得到的,即经过此更新公式得到的输出就是神经网络的输出
toroxy
·
2022-12-12 17:18
code
pytorch
网络
深度学习
字典
0013-pytorch入门-自定义letnet-5网络
'''定义包含一些可学习的参数(或者叫权重)神经网络模型;在数据集上迭代;通过神经网络处理输入;计算损失(输出结果和正确值的差值大小);将梯度
反向传播
回网络的参数;更新网络的参数,主要使用如下简单的更新原则
老三是只猫
·
2022-12-12 16:34
每日一个脚本强壮自己
CIFAR10分类任务---pytorch---CNN---入门(简单)分类任务
本实验来自Pytorch官方教程中文版CIFAR10分类任务导包+下载数据集+使用GPU查看GPU的情况将数据集中的图片绘制出来卷积+池化+全连接计算损失函数+
反向传播
评估模型评估部分数据评估整体模型输出所有种类的预测概率
biggerbugger
·
2022-12-12 16:27
pytorch
CNN
pytorch
卷积神经网络
人工智能作业(一)-- 安装Pycharm,配置Pytorch,Pytorch实现
反向传播
人工智能作业(一)--安装Pycharm,配置Pytorch,Pytorch实现
反向传播
一、PyCharm安装配置1.Pycharm安装2.打开Pycharm,新建项目文件,检查Python配置。
gzy0604
·
2022-12-12 15:21
pycharm
pytorch
人工智能
RNN学习
文章目录文献阅读摘要过程结论LSTM长短期记忆递归神经网络数学公式原理LSTM
反向传播
代码总结Thisweek,apaperwhichmainlyproposesahybridclimatelearningmodel
hehehe2022
·
2022-12-12 13:04
rnn
学习
深度学习
自己动手用Python编写神经网络
Python神经网络编程》读书笔记1索引:作者[英]塔里克.拉希德(TariqRashid)译者林赐ISBN97815308266052内容简介:这本书讲解了一些关于神经网络和机器学习的基本概念,如神经元,
反向传播
等
花花生
·
2022-12-12 12:02
#
Python
Python
神经网络
mlp
读书笔记
python神经网络编程-[英]塔里克·拉希德-第一章
关键点1.2一台简单的预测机——关键点1.4训练简单分类器——关键点1.5有时候一个分类器不足以求解问题——关键点1.6神经元-大自然的计算机器——关键点1.8凭心而论,矩阵乘法大用用途——关键点1.12
反向传播
误差到更多层中
小鹿学程序
·
2022-12-12 12:31
python神经网络编程
python
神经网络
基于Matlab的极限学习机(ELM)实现
Guang-BinHuang、Qin-YuZhu和Chee-KheongSiew提出,并发表于当年的IEEE国际交互会议(IEEEInternationalJointConference)中,目的是为了对
反向传播
算法
果冻同学
·
2022-12-12 11:13
机器学习
matlab
机器学习
3.深度学习(一)
3.2网络操作与计算3.2.1前向传播与
反向传播
?3.2.2如何计算神经网络的输出?3.2.3如何计算卷积神经网络输出值?3.2.4如何计算Pooling
abolition cc
·
2022-12-12 10:42
深度学习
深度学习
神经网络
人工智能
Python吴恩达深度学习作业11 -- 卷积神经网络的实现
逐步实现卷积神经网络在此作业中,你将使用numpy实现卷积(CONV)和池化(POOL)层,包括正向传播和
反向传播
。
Puzzle harvester
·
2022-12-12 09:37
深度学习
python
深度学习
cnn
pytorch深度学习实践 第四讲
反向传播
先导入需要的包torch和matplotlibimporttorchimportmatplotlib.pyplotasplt2.导入数据,并定义随机定义w的初始值然后定义前向传播函数(forward)定义损失函数(loss)x_data=[1,2,3.0]y_data=[2,4,6.0]w=torch.tensor([1.0])w.requires_grad=Truedefforward(x):r
编程被我拿捏住了
·
2022-12-12 09:05
深度学习
pytorch
pytorch-定义神经网络
文章目录神经网络定义网络损失函数
反向传播
更新神经网络参数:训练过程的经典三步走:神经网络神经网络可以通过torch.nn包来构建。
ACxz
·
2022-12-12 08:28
pytorch
环境搭建与代码笔记
神经网络
pytorch
深度学习
深度学习入门(五十九)循环神经网络——通过时间
反向传播
深度学习入门(五十九)循环神经网络——通过时间
反向传播
前言循环神经网络——通过时间
反向传播
教材1循环神经网络的梯度分析1.1完全计算1.2截断时间步1.3随机截断1.4比较策略2通过时间
反向传播
的细节3
澪mio
·
2022-12-12 08:53
深度学习
深度学习
rnn
人工智能
神经网络算法的具体流程,人工神经网络算法步骤
最基本的BP算法:1)正向传播:输入样本->输入层->各隐层(处理)->输出层注1:若输出层实际输出与期望输出(教师信号)不符,则转入2)(误差
反向传播
过程)2)误差
反向传播
:输出误差(某种形式)->隐层
普通网友
·
2022-12-12 07:52
算法
神经网络
人工智能
神经网络算法有哪几种?神经网络算法预测模型
b为:门槛所谓threshold)
反向传播
(backpropagation)是在这种场景下快速求解∂C/∂w、∂C/∂b的算法,用了这个算法的多层感知机--也就是这篇文章讲的神经网络--也就叫作BP神经网络
奋进的贼牛批
·
2022-12-12 07:03
神经网络
matlab
开发语言
神经网络
人工智能
深度学习概念——Epoch, Batch, Iteration
定义Epoch(时期)所有训练样本在神经网络中都进行了一次正向传播和一次
反向传播
的过程,称为1个EpochBatch(批)将训练样本分为若干个BatchBatch_size(批大小)每批样本的大小,即训练样本的大小除以
乁羐
·
2022-12-11 23:26
深度学习
batch
神经网络
自学神经网络系列—— 10 循环神经网络 RNN
循环神经网络1简单循环神经网络2循环神经网络的常见应用2.1序列标注任务2.2分类预测任务2.3机器翻译3循环神经网络的参数学习3.1实时循环学习RTRL3.2随时间
反向传播
BPTT3.3梯度爆炸和梯度消失
ML_python_get√
·
2022-12-11 22:48
机器学习自学
神经网络
rnn
深度学习
梯度
反向传播
过程中,测试强行修改后的预测结果是否还会传递loss?
pytorch并不会报错,而是将损失上限设在了100.0),在实际开发过程中,我们一般会使用torch.clamp等函数将预测tensor不符合取值范围的值全部置为最小或最大值,那对于这些被替换后的元素,他们会在
反向传播
过程中对网络产生梯度吗
蛇皮小娃娃
·
2022-12-11 21:54
深度学习
pytorch
深度学习
目标检测
实验小测 BatchNorm2D 层对梯度传导的影响 (batchnorm层减去均值和除以标准差这两个步骤所使用的tensor是否detach)
如今BatchNorm层已经广泛被应用于各种神经网络内,为了更加深入的了解该层的输出结果
反向传播
梯度的细节,提出问题:batchnorm层减去均值和除以标准差这两个步骤所使用的tensor是否做了detach
蛇皮小娃娃
·
2022-12-11 21:54
深度学习
pytorch
pytorch学习笔记:模型的构建
模型构建基础知识构建神经网络的典型流程*定义一个拥有可学习参数的神经网络*遍历训练数据集*通过网络处理数据*计算损失值(loss)*将网络参数的梯度进行
反向传播
(loss.backward)*更新网络的权重
阿瓦达啃大瓜~
·
2022-12-11 21:23
pytorch
学习
深度学习
上一页
32
33
34
35
36
37
38
39
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他