E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
grad
C++ 变量的输入输出教程
agedoublesalary;//声明一个双精度浮点型变量salarychargrade;//声明一个字符型变量grade在上述代码中,int、double和char是变量的类型,age、salary和
grad
2501_90255623
·
2025-03-03 01:46
c++
线性回归s
importtorchimporttorch.nnasnnimporttorch.optimasoptim#损失函数deftest1():#初始化损失函数对象criterion=nn.MSELoss()y_pread=torch.randn(3,5,requires_
grad
三排扣
·
2025-03-02 13:37
线性回归
pytorch
深度学习
55、深度学习-自学之路-自己搭建深度学习框架-16、使用LSTM解决RNN梯度消失和梯度爆炸的问题,重写莎士比亚风格文章。
autograd=False,creators=None,creation_op=None,id=None):self.data=np.array(data)self.autograd=autogradself.
grad
小宇爱
·
2025-02-28 18:18
深度学习-自学之路
深度学习
rnn
人工智能
自然语言处理
神经网络
Transformer 代码剖析2 - 模型训练 (pytorch实现)
模型初始化模块参考:项目代码1.1参数统计函数defcount_parameters(model):returnsum(p.numel()forpinmodel.parameters()ifp.requires_
grad
lczdyx
·
2025-02-28 09:38
Transformer代码剖析
transformer
pytorch
深度学习
人工智能
python
53、深度学习-自学之路-自己搭建深度学习框架-14、使用自己的架构搭建一个通过学习模仿莎士比亚风格的2000次的文章。并且在关键层配有详细解释。
autograd=False,creators=None,creation_op=None,id=None):self.data=np.array(data)self.autograd=autogradself.
grad
小宇爱
·
2025-02-27 15:05
深度学习-自学之路
深度学习
人工智能
神经网络
自然语言处理
rnn
50、深度学习-自学之路-自己搭建深度学习框架-11、添加RNN递归神经网络层为了浮现RNN的神经网络使用框架。
autograd=False,creators=None,creation_op=None,id=None):self.data=np.array(data)self.autograd=autogradself.
grad
小宇爱
·
2025-02-27 06:01
深度学习-自学之路
深度学习
人工智能
自然语言处理
神经网络
rnn
52、深度学习-自学之路-自己搭建深度学习框架-13、对话预测功能,使用我们自己建的架构重写RNN预测网络,程序的详细解读。
autograd=False,creators=None,creation_op=None,id=None):self.data=np.array(data)self.autograd=autogradself.
grad
小宇爱
·
2025-02-27 06:01
深度学习-自学之路
深度学习
人工智能
神经网络
自然语言处理
rnn
51、深度学习-自学之路-自己搭建深度学习框架-12、使用我们自己建的架构重写RNN预测网络
autograd=False,creators=None,creation_op=None,id=None):self.data=np.array(data)self.autograd=autogradself.
grad
小宇爱
·
2025-02-25 09:10
深度学习-自学之路
深度学习
rnn
人工智能
Pytorch的自动求导模块
文章目录torch.autograd.backward()基本用法非标量张量的反向传播保留计算图指定输入张量高阶梯度计算与y.backward()的区别torch.autograd.
grad
()基本用法非标量张量的梯度高阶梯度计算多输入
zoujiahui_2018
·
2025-02-14 05:57
pytorch
人工智能
python
【Pytorch函数】PyTorch随机数生成全解析 | torch.rand()家族函数使用指南
函数),以下是常用函数及参数:1️⃣torch.rand()-均匀分布torch.rand(*size,*,generator=None,dtype=None,device=None,requires_
grad
深度求索者
·
2025-02-10 18:09
pytorch
人工智能
python
Transformers解决RuntimeError: element 0 of tensors does not require
grad
and does not have a
grad
_fn
在使用Transformers启动梯度检查点时,即:model.gradient_checkpointing_enable()时,会报错RuntimeError:element0oftensorsdoesnotrequiregradanddoesnothaveagrad_fn。解决办法:在get_peft_model之前加上:model.enable_input_require_grads()
怎么这么多名字都被占了
·
2025-02-05 18:06
transformer
pytorch
推荐算法_隐语义-梯度下降
初始化物品特征矩阵K*N.latent_feature_cnt:隐特征的向量个数max_iteration:最大迭代次数alpha:步长lamda:正则化系数output分解之后的P和Q"""defLFM_
grad
_desc
_feivirus_
·
2024-09-16 07:35
算法
机器学习和数学
推荐算法
机器学习
隐语义
pytorch中的gather函数_Pytorch中torch.gather函数祥解
官方说明gather(input',dim,index,out=None,sparse_
grad
=False)Gathersvaluesalonganaxisspecif
陈村
·
2024-09-05 07:16
Pytorch中torch.gather和torch.scatter函数理解
torch.gather()torch.gather(input,dim,index,*,sparse_
grad
=False,out=None)→Tensor参数解释:input(Tensor)–thesourcetensordim
尘世猫
·
2024-09-05 06:40
pytorch
深度学习
pytorch
深度学习
python
24.8.24学习心得
x.
grad
.zero_()y=x.sum()y.backward()x.gradtensor([1.,1.,1.,1.])因为y是x中所有元素的总和,所以x的每个元素对y的贡献都是相等的,因此每个元素的梯度都是
kkkkk021106
·
2024-08-27 05:00
学习
pytorch中的zero_
grad
()执行时机
在反向传播(backward())前执行即可zero_
grad
()用以清除优化器的梯度对张量执行backward(),以计算累积梯度执行optimizer.step(),优化器使用梯度更新参数当优化器更新完成
TomcatLikeYou
·
2024-08-24 05:16
pytorch
人工智能
python
pytorch | with torch.no_
grad
()
1.关于withwith是python中上下文管理器,简单理解,当要进行固定的进入,返回操作时,可以将对应需要的操作,放在with所需要的语句中。比如文件的写入(需要打开关闭文件)等。以下为一个文件写入使用with的例子。withopen(filename,'w')assh:sh.write("#!/bin/bash\n")sh.write("#$-N"+'IC'+altas+str(patien
Ddddddd_158
·
2024-08-22 08:41
经验分享
pytorch
人工智能
python
图像算法实习生--面经1
系列文章目录文章目录系列文章目录前言一、为什么torch里面要用optimizer.zero_
grad
()进行梯度置0二、Unet神经网络为什么会在医学图像分割表现好?
小豆包的小朋友0217
·
2024-03-14 17:44
算法
将pytorch中变量的梯度为 nan 的替换成 1 还是 0?
替换成0,则变量保持不动0:xtensor([1.0000,2.0000,3.0000,4.5000],device='cuda:0',requires_
grad
=True)0:xtensor([1.0000,2.0000,3.0000,4.5000
培之
·
2024-02-20 06:25
pytorch
人工智能
python
PyTorch使用Tricks:梯度裁剪-防止梯度爆炸或梯度消失 !!
文章目录前言1、对参数的梯度进行裁剪,使其不超过一个指定的值2、一个使用的torch.nn.utils.clip_
grad
_norm_例子3、怎么获得梯度的norm4、什么情况下需要梯度裁剪5、注意事项前言梯度裁剪
JOYCE_Leo16
·
2024-02-19 14:07
计算机视觉
pytorch
python
梯度裁剪
深度学习
神经网络
TBC(Tied Block Convolution):具有共享较薄滤波器的更简洁、更出色的CNN
TiedBlockConvolution网络设计TBC公式化在瓶颈模块中的TBC/TGCTBC和TFC在注意力模块中的应用实验结果ImageNet分类物体检测和实例分割轻量级注意力消融研究总结补充资料物体检测和实例分割的详细结果额外的
Grad
-CAM
静静AI学堂
·
2024-02-14 09:28
高质量AI论文翻译
cnn
人工智能
神经网络
PyTorch detach():深入解析与实战应用
PyTorchdetach():深入解析与实战应用文章目录引言一、计算图与梯度传播二、detach()函数的作用三、detach()与requires_
grad
四、使用detach()的示例五、总结与启示结尾引言在
高斯小哥
·
2024-02-14 08:29
PyTorch零基础入门教程
pytorch
人工智能
python
pycharm
机器学习
深度学习
深入理解梯度加权类激活热图(
Grad
-CAM)
深入理解梯度加权类激活热图(
Grad
-CAM)项目背景与意义在深度学习领域,模型的预测能力往往是黑盒子,难以解释。
OverlordDuke
·
2024-02-14 02:12
深度学习
CAM
梯度
人工智能
Python-138 批量修改文件名中的空格替换为下划线 renaming file names 2022-02-19
#-*-coding:utf-8-*-importos,sys#Python根据条件修改目录里的文件名:将不想要的删去或者替换掉#设定文件路径path='D:\\
GRAD
_COURSES\\Ph.D_Publications
RashidinAbdu
·
2024-02-13 08:52
Android插件化方案-RePlugin内置插件踩坑
projectclasspath'com.qihoo360.replugin:replugin-host-gradle:2.2.4'classpath'com.qihoo360.replugin:replugin-plugin-
grad
霁逸lei
·
2024-02-10 11:16
torch.no_
grad
PyTorch里的requires_
grad
、volatile及no_gradrequires_
grad
=True要求计算梯度requires_
grad
=False不要求计算梯度withtorch.no_
grad
He_Yu
·
2024-02-09 22:08
stupid_brain
test记得关闭梯度更新withtorch.no_
grad
():
MORE_77
·
2024-02-09 21:01
深度学习
深度学习
python
人工智能
【PyTorch】实现迁移学习框架DaNN
、定义训练函数5.1nn.CrossEntropyLoss()5.2.detach()5.3.sizeVS.shape5.4.to(DEVICE)5.5.max()5.6optimizer.zero_
grad
cofisher
·
2024-02-09 19:29
PHM项目实战--建模篇
PyTorch
pytorch
迁移学习
人工智能
(2)基础
包含三个部分:data(数据)、
grad
(梯度)、
grad
_fn(操作
顽皮的石头7788121
·
2024-02-08 04:19
《深度学习入门:基于python的理论与实现》读书笔记
求梯度的函数:f是需要求梯度的函数,x是求梯度的点image.pngdefnumerical_gradient(f,x):h=1e-4#0.0001
grad
=np.zeros_like(x)#生成和x形状相同的数组
莫里衰
·
2024-02-07 21:32
【PyTorch】实现迁移学习框架DANN
、定义训练函数4.1nn.CrossEntropyLoss()4.2.detach()4.3.sizeVS.shape4.4.to(DEVICE)4.5.max()4.6optimizer.zero_
grad
cofisher
·
2024-02-07 10:04
PyTorch
PHM项目实战--建模篇
pytorch
迁移学习
人工智能
Gradle管理多子项目
那么此时,如何使用
Grad
alan_yeh
·
2024-02-05 19:21
PyTorch:torch.linspace
函数定义:torch.linspace(start,end,steps=100,out=None,dtype=None,layout=torch.strided,device=None,requires_
grad
地球被支点撬走啦
·
2024-02-05 09:32
Pytorch
pytorch
Pytorch: torch.linspace等间隔数值函数
torch.linspace(start,end,steps=100,dtype=None,layout=torch.strided,device=None,requires_
grad
=False)参数说明
湫兮之风
·
2024-02-05 09:59
pytorch
pytorch
人工智能
python
深度学习
机器学习
Pytorch自动微分机制
该方法求得的梯度将存在对应自变量张量的
grad
属性下。除此之外,也能够调用torch.autograd.
grad
函数来实现求梯度计算。这就是Pytorch的自动微分机制。一,利用back
taoqick
·
2024-01-30 18:11
算法
python
pytorch
numpy
《20天吃透Pytorch》Pytorch自动微分机制学习
该方法求得的梯度将存在对应自变量张量的
grad
属性下。除此之外,也能够调用torch.autograd.
grad
函数来实现求梯度计算。这就是Pytorch的自动微分机制。
瞳瞳瞳呀
·
2024-01-30 18:41
Pytorch框架基础
pytorch
PyTorch自动微分机制的详细介绍
具体来说,当你在一个张量上调用.requires_
grad
=True时,PyTorch会开始跟踪该张量及其所有依赖项的操作历史,形成一个反向传播所需的计算图。然后通过调用.b
科学禅道
·
2024-01-30 18:10
PyTorch
pytorch
人工智能
python
Grad
-cam报错AttributeError: ‘GradCAM‘ object has no attribute ‘activations_and_grads‘
pipinstall"
grad
-cam==1.4.0"
盛世芳华
·
2024-01-29 16:11
python
开发语言
PyTorch 之 rand() 与 randn() 函数
torch.rand()torch.rand(*sizes,out=None,dtype=None,layout=torch.strided,device=None,requires_
grad
=False
JNU freshman
·
2024-01-28 08:31
python
pytorch
人工智能
python
【python】自动微分的一个例子
一、例子importtorchx=torch.arange(4.0)x.requires_
grad
_(True)y=2*torch.dot(x,x)print(y)y.backward()x.
grad
=
尘中928
·
2024-01-27 11:23
编程
#
python
#
深度学习
深度学习
人工智能
介绍一下OpenCV中常用的图像处理函数
-`Sobel(imgGray,
grad
_x,C
ISDF-工软未来
·
2024-01-27 04:21
opencv
图像处理
计算机视觉
【pytorch】pytorch学习笔记(续2)
求导:pytorch实现自动求导:第一种方法:torch.autograd.
grad
()设置w需要求导有两种方法:(1)在创建w之后,用来设置w需要求导。(2)在创建w的时候,用w=torch.te
小白冲鸭
·
2024-01-26 18:04
pytorch
学习
笔记
pytorch 测试模型时取不同的batchsize会由不同的正确率
问题:pytorch测试模型时取不同的batchsize会由不同的正确率之前:pytorch测试模型时只用了withtorch.no_
grad
(),如下图withtorch.no_
grad
():#下面是没有梯度的计算
lanlinbuaa
·
2024-01-26 07:02
pytorch
深度学习
人工智能
深度之眼Pytorch框架训练营第三期(1)——张量简介与创建
VariableVariable是torch.autograd中的数据类型,主要用于封装Tensor,进行自动求导,包含五个属性:在这里插入图片描述data:被包装的Tensorgrad:data的梯度
grad
_fn
aidanmomo
·
2024-01-25 22:58
Gradle——基础
项目默认目录结构和Maven项目的目录结构一致,都是基于约定大于配置【ConventionOverConfiguratiion】1.3、Gradle中的常用命令注意:gradle的指令要在含有build.
grad
布道师小羊
·
2024-01-25 18:44
#
云原生
gradle
[pytorch] 8.损失函数和反向传播
损失函数torch提供了很多损失函数,可查看官方文档LossFunctions部分作用:计算实际输出和目标输出之间的差距为更新输出提供一定的依据(反向传播),
grad
损失函数用法差不多,这里以L1Loss
晴空对晚照
·
2024-01-25 09:14
#
pytorch
深度学习
pytorch
深度学习
人工智能
土堆学习笔记——P28完整的模型训练套路(二)
下面的都在某一轮训练里例如,他们都在foriinrange(epoch):里面,具体看上一节代码#测试步骤开始total_test_loss=0withtorch.no_
grad
():#取消梯度,不调优
Whalawhala
·
2024-01-24 23:35
学习
笔记
pytorch(三)反向传播
importtorchx_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]w=torch.Tensor([1.0])#表示需要计算梯度,默认不需要计算梯度w.requires_
grad
@@老胡
·
2024-01-24 06:26
python
pytorch
人工智能
python
复现NAS with RL时pytorch的相关问题
optimizer.zero_
grad
()是什么?optimizer.zero_
grad
()是PyTorch中的一个操作,它用于清零所有被优化变量(通常是模型的参数)的梯度。
ThreeS_tones
·
2024-01-24 02:38
DRL
pytorch
人工智能
python
Pytorch自动求导机制
PyTorch框架可以帮我们计算好反向传播,需要求导的,可以手动定义示例:#先构造一个随机的三行四列矩阵,两种方法都可以#方法1x=torch.randn(3,4,requires_
grad
=True)
何仙鸟
·
2024-01-23 10:14
PyTorch
pytorch
人工智能
python
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他