E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
grad
【论文】CBAM: Convolutional Block Attention Module
目录一、引言二、相关工作三、卷积注意力模块四、实验4.1、消融研究4.2、ImageNet上的图像分类-1K4.3使用
Grad
进行网络可视化-CAM[18]4.4MSCOCO物体检测4.5VOC2007
瑾怀轩
·
2022-10-30 17:28
论文集
目标检测
深度学习
计算机视觉
pytorch 两层神经网络的实现(含relu激励方程的反向传播推导过程)
计算loss,由Loss层计算;反向传播求梯度;根据梯度改变参数值,最简单的实现方式(SGD)为:weight=weight-learning_rate*gradient使用pytorch和auto_
grad
Sudan_大树
·
2022-10-22 09:43
python
pytorch
神经网络
机器学习
随机梯度下降
深度学习
Revisiting Single Image Depth Estimation Toward Higher Resolution Maps
目录1.作者2.论文整体结构3.损失函数3.1.Loss_depth3.2.Loss_
grad
3.3.Loss_normal1.作者2.论文整体结构本文作者的主要贡献是针对边界扭曲,失真等问题,级联了三种损失函数共同制约网络
Hu_0813
·
2022-10-19 07:13
深度估计
深度学习
人工智能
Pytorch可视化模型任意中间层的类激活热力图(
Grad
-CAM)
本文中绘制类激活热力图的基本方法参考自:https://blog.csdn.net/sinat_37532065/article/details/103362517在该方法的基础上,本文添加了如下功能:根据网络层的名字,可视化模型指定层的类激活热力图。本文使用的backbonenetwork为Resnet50,运行时需要根据实际使用的网络来修改以下两个参数:1."layers_names":包含模
潜行隐耀
·
2022-10-16 11:55
pytorch
pytorch 神经网络特征可视化
可参考博客Pytorch可视化模型任意中间层的类激活热力图(
Grad
-CAM)_潜行隐耀的博客-CSDN博客_pytorch热力图Pytorch输出网络中间层特征可视化_Joker-Tong的博客-CSDN
m0_61899108
·
2022-10-16 11:21
知识学习系列
经验分享
pytorch
深度学习
python
Pytorch入门实战(4):基于LSTM实现文本的情感分析
Pytorchnn.Module的基本使用Pytorchnn.Linear的基本用法Pytorch中DataLoader的基本用法Pytorchnn.Embedding的基本使用详解torch.nn.utils.clip_
grad
_norm
iioSnail
·
2022-10-15 14:29
机器学习
pytorch
lstm
深度学习
如何使用torch计算梯度,理解Autograd的作用及原理
并且在计算得到的结果上(结果也是Tensor一个对象)上调用backward()就会自动计算x的梯度,并将梯度累加到x.
grad
属性上。下面代码演示在y=x2
rpsate
·
2022-10-15 07:49
deep
learning
pytorch
python
深度学习
detach
torch.no_grad
使用PyTorch常见4个错误解决示例详解
目录导读常见错误#1你没有首先尝试过拟合单个batch常见错误#2:忘记为网络设置train/eval模式常用的错误#3:忘记在.backward()之前进行.zero_
grad
()常见错误#4:你把做完
·
2022-10-14 23:18
利用Pytorch实现获取特征图的方法详解
pretrained参数设置为False,那么仅仅设定模型结构;如果设置为True,那么会启动一个下载流程,下载预训练参数如果只想调用模型,不想训练,那么设置model.eval()和model.requires_
grad
·
2022-10-14 23:40
torch.zeros() 函数详解
torch.dtype,里面的每一个值都是0的tensortorch.zeros(*size,out=None,dtype=None,layout=torch.strided,device=None,requires_
grad
Vertira
·
2022-10-14 07:16
pytorch
pytorch
机器学习
zeros
pytorch:子模型参数冻结 + BN冻结
使用场景:需要完全冻结某部分的weight与BN层 加载预训练模型时,如果只将para.requires_
grad
=False,并不能完全冻结模型的参数,因为模型中的BN层并不随loss.backward
CV科研随想录
·
2022-10-13 07:43
pytorch踩坑日记
pytorch
深度学习
python
一些常用的激活函数
ReLU函数公式:通俗地说,ReLU函数通过将相应的活性值设为0,仅保留正元素并丢弃所有负元素例如:对于从-8到+8,间隔为0.1x=torch.arange(-8.0,8.0,0.1,requires_
grad
tinason杨
·
2022-10-12 22:38
机器学习
model.eval() && with torch.no_
grad
()
因此,在由dropout和BN层的时候必须使用model.eval()withtorch.no_
grad
()被该语句包裹起来的语句不会计算梯度(由输入得到的新张量requires_
grad
被置为FA
hei_hei_hei_
·
2022-10-12 18:58
pytorch
深度学习
pytorch
机器学习编程作业ex4(matlab/octave实现)-吴恩达coursera
前向传播先计算出当前参数Theta对应的各层每个单元的值a;2.由输出层的误差计算倒推各个隐藏层的误差delta;3.利用各层误差delta计算梯度值;4.利用迭代函数fmincg求出代价函数最小(梯度
grad
独家*记忆
·
2022-10-07 07:36
机器学习
matlab
机器学习
CAM与
Grad
-CAM
权重与GAP前的特征图做加权和得热图
Grad
-CAM不用替换全连接层重新训练中心思想:类别的得分对第k个特征图的每个像素算偏导再求平均即得到权重。权重和最后一个特征图求加权和,得热图。
学的越多越开心的凯宝
·
2022-10-04 16:24
学习
深度学习
keras CAM和
Grad
-cam原理简介与实现
kerasCAM和
Grad
-cam原理简介与实现文章目录两种分类模型1、特征提取(featureextraction)+flatten+softmax2、featureextraction+GAP+softmax
cvvoid
·
2022-10-04 16:20
深度学习番外-tools
深度学习
python
tensorflow
CAM和GradCAM
CAM来自LearningDeepFeaturesforDiscriminativeLocalization,CVPR2016;GradCAM来自
Grad
-CAM:VisualExplanationsFromDeepNetworksviaGradient-BasedLocalization
tzc_fly
·
2022-10-04 16:48
论文阅读笔记
计算机视觉
深度学习
人工智能
python title 和capitiliaze_python - cap.isOpened():针对Python 3和OpenCV 3.1.0在CentOS中返回false - 堆栈内存溢出...
这是示例代码:importcv2cap=cv2.VideoCapture('/home/
grad
3/jalal/PycharmProjects/hw4_cs585/Concession_LAN_800k.mp4
weixin_39606911
·
2022-10-03 07:57
python
title
和capitiliaze
详解torch.nn.utils.clip_
grad
_norm_ 的使用与原理
文章目录clip_
grad
_norm_的原理clip_
grad
_norm_参数的选择(调参)clip_
grad
_norm_使用演示参考资料clip_
grad
_norm_的原理本文是对梯度剪裁:torch.nn.utils.clip_
grad
_norm
iioSnail
·
2022-09-30 13:24
机器学习
深度学习
pytorch
人工智能
Pytorch与深度学习训练trick实战(持续更新)
Pytorch与深度学习训练trick实战(持续更新)冻结参数defset_parameter_requires_
grad
(model,feature_extracting):iffeature_extracting
冬于
·
2022-09-28 07:13
深度学习
pytorch
深度学习
人工智能
03 高等数学专题——多元函数微积分
方向导数存在的定义多元函数可微、可偏导、连续的关系复合函数求偏导(链式法则)、全微分的计算隐函数求偏导(隐函数存在定理、等式两边求导法)1.2方向导数、梯度的计算计算梯度:计算方向导数:1.3法向量、方向余弦、梯度1.4梯度(
grad
王慕白
·
2022-09-25 01:38
#
考研数学知识点
数学
pytorch创建张量tensor
torch.randinttorch.randint(low=0,high,size,*,generator=None,out=None,dtype=None,layout=torch.strided,device=None,requires_
grad
icefirekk11
·
2022-09-25 01:22
Pytorch
pytorch
深度学习
神经网络
Pytorch张量(Tensor)基本介绍与使用
1.Tensor(张量)计算原则2.Tensor(张量)形状变换三、张量微分运算1.张量的自动微分2.设置Tensor不可跟踪计算(测试集常用)3.就地改变Tensor(张量)变量的requires_
grad
张_哈哈
·
2022-09-23 20:26
python
机器学习
pytorch
Gradle【有与无】【运行Gradle构建】【G8_2】Gradle Enterprise Gradle插件用户手册
GradleEnterprise1.2.1.允许不受信任的SSL通信1.3.连接到scans.gradle.com1.4.集成您的CI工具2.控制何时发布构建扫描2.1.按需发布2.2.发布每个版本2.3.根据条件发布3.与
Grad
琴 韵
·
2022-09-22 20:31
Gradle
Gradle
Gradle
Enterprise
Gradle插件用户手册
opencv sobel算子
includeusingnamespacecv;usingnamespacestd;intmain(){Matsrc=imread("1.jpg");imshow("yuantu",src);Matgrad_x,
grad
_y
dongfangxingyu1
·
2022-09-21 18:40
opencv
opencv
torch.autograd
torch.autograd.backward(variables,
grad
_variables,retain_variables=False)给定图的叶子节点variables,计算图中变量的梯度和。
爱钻研的小铭
·
2022-09-09 07:15
#
Pytorch常用库
pytorch
torch.autograd
Pytorch autograd.
grad
与autograd.backward详解
Pytorchautograd.
grad
与autograd.backward详解引言平时在写Pytorch训练脚本时,都是下面这种无脑按步骤走:outputs=model(inputs)#模型前向推理optimizer.zero_
grad
Adenialzz
·
2022-09-09 07:29
PyTorch
pytorch
深度学习
神经网络
PyTorch学习—13.优化器optimizer的概念及常用优化器
二、optimizer的基本属性三、optimizer的基本方法四、方法实例1.optimizer.step()2.optimizer.zero_
grad
()3.optimizer.add_param_group
哎呦-_-不错
·
2022-09-06 14:35
PyTorch框架学习
优化器
pytorch
Pytorch框架之优化器 Optimizer
基本用法优化器主要是在模型训练阶段对模型可学习参数进行更新,常用优化器有SGD,RMSprop,Adam等优化器初始化时传入传入模型的可学习参数,以及其他超参数如lr,momentum等在训练过程中先调用optimizer.zero_
grad
发呆的比目鱼
·
2022-09-06 14:35
PyTorch框架
pytorch
python
深度学习
PyTorch入门——Autograd
二、如何使用AutogradTensor是Autograd的核心类,我们在使用时要把需要自动计算梯度的Tensor的requires_
grad
设为True,把不需要计算梯度的Te
Skyline_98
·
2022-09-06 07:22
#
Pytorch
深度学习
深度学习
pytorch
python
PyTorch入门——张量&神经网络
SGD)缺点引入动量进行改进Nesterov动量改进PyTorch优化器损失函数防止过拟合张量直接创建torch.tensor(data,dtype=None,device=None,requires_
grad
清上尘
·
2022-09-06 07:45
深度学习
pytorch
神经网络
深度学习
一文理解pytorch张量概念和tensor的三种创建方式!
data:被包装的Tensorgrad:data的梯度
grad
_fn:创建Tensor的Function,是自动求导的关键requires_
grad
:指示是否需要梯度is_leaf:指示是否是叶子结点(
星尘 StarDust
·
2022-09-02 07:44
深度学习专题
深度学习
numpy
机器学习
pytorch
pytorch张量创建、变换
来针对某个变量执行
grad
获得想要的梯度值。importtorch
Mick..
·
2022-09-01 13:22
pytorch
pytorch
python
深度学习
pytorch中.data()与.item(),.numpy(),.detach(),.cuda(),.cpu()的作用
.data:把变量设置成tensor类型,requires_
grad
设置为Flase.item()把tensor转为python的float类型.numpy()将张量转换为与其共享底层存储的n维numpy
I松风水月
·
2022-08-26 07:23
pytorch
pytorch
python
RuntimeError: Can‘t call numpy() on Tensor that requires
grad
. Use tensor.detach().numpy() instead.
项目场景:深度学习训练后,调用网络预测数据时报错问题描述RuntimeError:Can'tcallnumpy()onTensorthatrequiresgrad.Usetensor.detach().numpy()instead.原因分析:待转换类型的PyTorchTensor变量带有梯度,直接将其转换为numpy数据将破坏计算图,因此numpy拒绝进行数据转换,实际上这是对开发者的一种提醒。如
ACxz
·
2022-08-25 15:15
python
bug
小计
python
bug
numpy
tensor
Pytorch实战——知识点记录(二)
TypicalLoss-meansquereerror(MSE)均方误差pytorch中求meansquereerror的梯度有两种方式:backward()函数(这个更方便)torch.autograd.
grad
H.Chi
·
2022-08-22 07:32
Python
pytorch
Autograd机制(自动求导机制)
目录(一)构建过程(二)代码实现过程(一)构建过程方法1:requires_
grad
:如果需要为张量计算梯度,则为True,否则为False。
小0p
·
2022-08-20 07:21
pytorch
python
计算机视角
深度学习
人工智能
深度学习:WarmUp【针对学习率优化的一种方式:在训练开始的时候先选择使用一个较小的学习率,训练了一些epoches之后再修改为预先设置的学习率来进行训练】
在实际中,由于训练刚开始时,训练数据计算出的梯度
grad
可能与期望方向相反,所以此时采用较小的学习率learningrate,随着迭代次
u013250861
·
2022-08-15 07:59
#
深度学习/DL
深度学习
机器学习
人工智能
warmup
Pytorch知识总结
2.PYTORCH:5.withtorch.no_
grad
()或者@torch.no_
grad
()中的数据不需要计算梯度,也不会进行反向传播6.一般用于pytorch训练模块self.optimizer.zero_
grad
#欧吼
·
2022-08-10 09:35
python基础知识
一些用到的Pytorch知识点的总结
model.state_dict()自适应优化算法梯度裁剪长期依赖的问题----梯度消失与梯度爆炸优化长期依赖---梯度截断(gradientclipping)torch.nn.utils.clip_
grad
_norm
名字填充中
·
2022-08-10 09:34
pytorch
深度学习基础
深度学习
pytorch
YOLO·v5
Grad
CAM运行出错keyerror:cv3解决方法
最近在搞YOLOv5的热力图,但是网上的代码,用原来的模型没报错,但是用上自己加上注意力训练出来的模型报错了,cv3解决方法原先的v5有23层,加上注意力机制之后网络层数发生了变化,所以这也需要改成对应的层数YOLOv5GradCAM的代码,看这位博主的,其实github上也有都是一样的【YOLOV5从开发到部署实战】十一、GradCAM可视化显示YOLOv5热力图_落难Coder的博客-CSDN
weixin_47060902
·
2022-08-08 07:28
深度学习
人工智能
深度学习模型特征可视化(以yolov4为例)
一般来说,深度学习模型中的特征可视化分为两种:GAM/
Grad
_GAM、特征图可视化。
tanjiawei1015@163
·
2022-08-08 07:57
深度学习相关
python
深度学习
详解Pytorch中的requires_
grad
、叶子节点与非叶子节点、with torch.no_
grad
()、model.eval()、model.train()、BatchNorm层
requires_gradrequires_
grad
意为是否需要计算梯度使用backward()函数反向传播计算梯度时,并不是计算所有tensor的梯度,只有满足下面条件的tensor的梯度才会被计算:
Jiyang@UESTC
·
2022-08-08 07:46
Pytorch
pytorch
YOLOv5目标检测之
Grad
-CAM热力图可视化
本课程使用
Grad
-CAM热力图可视化方法对YOLOv5进行热力图可视化,可直观展示图像中哪些区域对类别分类贡献程度大。
bai666ai
·
2022-08-08 07:39
深度学习之计算机视觉
目标检测
pytorch
深度学习
特征型可视化 GradCAM
GradCAM及其他代码实现:https://github.com/jacobgil/pytorch-
grad
-cam1.CAM(ClassActivationMaps)论文:LearningDeepFeaturesforDiscriminativeLocalization
升不上三段的大鱼
·
2022-08-06 19:09
【Gradle问题篇】Plugin [id: ‘com.android.application‘, version: ‘7.x.x‘, apply: false] was not found i...
问题原因:如上解释,所配置gradle版本在本地配置的
grad
ThreeGold
·
2022-08-06 00:40
在idea中创建java的Gradle项目 讲的很详细的
Gradle本地位置参考;D:/工作磁盘/java环境/gradle-7.5-all/gradle-7.5查看的确是本地的Gradle;其他版本可参考;在idea中创建普通java工程具体整合:第一步:创建由
Grad
你若不离不弃,我必生死相依
·
2022-08-01 12:59
后端
java
intellij-idea
gradle
CS229 吴恩达机器学习 习题答案 problem sets 02(全部问题,欢迎各位前辈指教)
01aimportnumpyasnpimportsrc.utilasutildefcalc_
grad
(X,Y,theta):"""Computethegradientofthelosswithrespecttotheta
ML--小小白
·
2022-07-23 13:48
CS229
python
深度学习
人工智能
python opencv图像处理函数_Python+OpenCV图像处理(十二)—— 图像梯度
一、Sobel算子代码如下:importcv2ascv#Sobel算子defsobel_demo(image):
grad
_x=cv.Sobel(image,cv.CV_32F,1,0)#对
weixin_39926016
·
2022-07-22 07:00
python
opencv图像处理函数
全面解读Google的员工评价与发展(
GRAD
)计划
今年5月,Google推出
GRAD
(GooglerReviewsandDevelopment,员工评价与发展)计划。
奋丁匠行HR商城
·
2022-07-21 17:36
上一页
20
21
22
23
24
25
26
27
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他