E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
requires_grad
将pytorch中变量的梯度为 nan 的替换成 1 还是 0?
替换成0,则变量保持不动0:xtensor([1.0000,2.0000,3.0000,4.5000],device='cuda:0',
requires_grad
=True)0:xtensor([1.0000,2.0000,3.0000,4.5000
培之
·
2024-02-20 06:25
pytorch
人工智能
python
PyTorch detach():深入解析与实战应用
PyTorchdetach():深入解析与实战应用文章目录引言一、计算图与梯度传播二、detach()函数的作用三、detach()与
requires_grad
四、使用detach()的示例五、总结与启示结尾引言在
高斯小哥
·
2024-02-14 08:29
PyTorch零基础入门教程
pytorch
人工智能
python
pycharm
机器学习
深度学习
torch.no_grad
PyTorch里的
requires_grad
、volatile及no_gradrequires_grad=True要求计算梯度
requires_grad
=False不要求计算梯度withtorch.no_grad
He_Yu
·
2024-02-09 22:08
PyTorch:torch.linspace
函数定义:torch.linspace(start,end,steps=100,out=None,dtype=None,layout=torch.strided,device=None,
requires_grad
地球被支点撬走啦
·
2024-02-05 09:32
Pytorch
pytorch
Pytorch: torch.linspace等间隔数值函数
torch.linspace(start,end,steps=100,dtype=None,layout=torch.strided,device=None,
requires_grad
=False)参数说明
湫兮之风
·
2024-02-05 09:59
pytorch
pytorch
人工智能
python
深度学习
机器学习
PyTorch自动微分机制的详细介绍
具体来说,当你在一个张量上调用.
requires_grad
=True时,PyTorch会开始跟踪该张量及其所有依赖项的操作历史,形成一个反向传播所需的计算图。然后通过调用.b
科学禅道
·
2024-01-30 18:10
PyTorch
pytorch
人工智能
python
PyTorch 之 rand() 与 randn() 函数
torch.rand()torch.rand(*sizes,out=None,dtype=None,layout=torch.strided,device=None,
requires_grad
=False
JNU freshman
·
2024-01-28 08:31
python
pytorch
人工智能
python
Pytorch自动求导机制
PyTorch框架可以帮我们计算好反向传播,需要求导的,可以手动定义示例:#先构造一个随机的三行四列矩阵,两种方法都可以#方法1x=torch.randn(3,4,
requires_grad
=True)
何仙鸟
·
2024-01-23 10:14
PyTorch
pytorch
人工智能
python
[pytorch]Variable(x.data,
requires_grad
=False) 报错NameError: name ‘Variable‘ is not defined
loss=self.loss_fn(x_reconstuct,Variable(x.data,
requires_grad
=False))NameError:name‘Variable’isnotdefined
徐心兰
·
2024-01-20 14:32
pytorch
pytorch
人工智能
python
神经网络
深度学习基础教程
目录预备知识基础知识(1)PyTorch基础知识(2)线性回归模型(3)逻辑回归模型(4)全连接神经网络预备知识
requires_grad
:用于指示是否需要计算相应张量的梯度。
睡不醒的毛毛虫
·
2024-01-14 02:12
pytorch
人工智能
python
手写交叉熵损失
importtorchimporttorch.nn.functionalasF#创建数据集y=torch.randint(0,2,size=(10,1)).to(torch.float)p=torch.rand(size=(10,1),
requires_grad
云帆@
·
2024-01-12 14:32
torch
python
pytorch
深度学习
激活函数整理
sigmoid函数importtorchfromd2limporttorchasd2l%matplotlibinlinex=torch.arange(-10,10,0.1,
requires_grad
=
惊雲浅谈天
·
2024-01-11 08:13
机器学习
人工智能
机器学习
Pytorch框架学习笔记
torch.long)获取维度信息x.size()tensor加法torch.add(x,y)==x+y==y.add_(x)改变tensor的大小和形状获取valuex.item(自动微分tensor的属性.
requires_grad
warren@伟_
·
2024-01-06 06:17
学习笔记
pytorch
学习
笔记
PyTorch的Tensor(张量)
data:被包装的Tensorgrad:data的梯度(梦回数一)grad_fn:创建Tensor的Function,是自动求导的关键
requires_grad
:指示是否需要梯度is_le
-恰饭第一名-
·
2024-01-02 04:31
人工智能
python
pytorch
机器学习
深度学习
pytorch实现线性回归、softmax分类、多层感知器分类学习笔记
1、torch.ones、torch.zeros、torch.randn等函数2、通过torch.tensor将numpy变量转换为torch的tensor变量二、Tensor对象的重要属性和方法1、
requires_grad
平常心_85d9
·
2024-01-02 00:47
【深度学习】第四章:反向传播-梯度计算-更新参数
pytorch框架中还封装了计算图,计算图的通俗理解就是:只要你有计算,并且设置了
requires_grad
=True,pytorch就会自动同时帮你生成这个计算过程的计算图。
宝贝儿好
·
2024-01-01 12:26
深度学习
人工智能
PyTorch随机数生成:torch.rand,torch.randn,torch.randind,torch.rand_like
.torch.rand()torch.rand(*size,*,generator=None,out=None,dtype=None,layout=torch.strided,device=None,
requires_grad
牧羊女说
·
2023-12-23 12:12
Python
PyTorch
pytorch
人工智能
python
pytorch梯度更新方法
一、方法1autogradimporttorchfromtorchimportautograd'''demo1'''x=torch.tensor(1.)a=torch.tensor(1.,
requires_grad
机器人图像处理
·
2023-12-21 19:48
深度学习算法与模型
pytorch
人工智能
python
关于with torch.no_grad:的一些小问题
importtorchx=torch.randn(10,5,
requires_grad
=True)y=torch.randn(10,5,
requires_grad
=True)z=torch.randn(
江_小_白
·
2023-12-21 08:01
pytorch
python
深度学习
pytorch
【pytorch】自动求导机制
grad:data的梯度grad_fn:创建Tensor的Function,是自动求导的关键
requires_grad
:指示是否需要梯度is_leaf:指示是否是叶子结点PyTorch张量可以记住它们来自什么运算以及其起源的父张量
prinTao
·
2023-12-21 08:17
手写torch
pytorch
pytorch
人工智能
python
pytorch transpose 转置和梯度的传播
今天写代码的时候遇到一个需要进行转置的矩阵,由于涉及到梯度反传,所以有疑问转置之后的矩阵在转置之前的梯度是否存在,经过验证,转置不影响梯度的传播importtorchx=torch.ones(2,2,
requires_grad
江_小_白
·
2023-12-17 07:18
pytorch
pytorch
人工智能
python
torch 如何在迭代训练中,只计算参数梯度,不更新参数。并且将参数的梯度保存到列表,这个列表的值不随着梯度清零而跟着变为零
在使用torch.autograd.backward()计算梯度后,可以通过设置参数的
requires_grad
属性为False来阻止参数更新。
高山莫衣
·
2023-12-06 09:00
pytorch
pytorch
深度学习
人工智能
torch.ones()的简单理解
torch.ones—PyTorch2.1documentation二、函数解析torch.ones(*size,*,out=None,dtype=None,layout=torch.strided,device=None,
requires_grad
可keke
·
2023-12-05 10:53
ML&DL笔记
pytorch
学习率设置(写给自己看)
importtorchimportnumpyasnpfromtorch.optimimportSGDfromtorch.optimimportlr_schedulerfromtorch.nn.parameterimportParametermodel=[Parameter(torch.randn(2,2,
requires_grad
编程被我拿捏住了
·
2023-12-05 02:39
训练过程走过的坑(bushi
图像分类
学习
pytorch
人工智能
detach()、data、with no_grad()、
requires_grad
之间关系
detach、data、withno_grad、
requires_grad
之间关系一.
requires_grad
属性1.requires_grad的作用探讨2.结论:二.detach()方法三.withtorch.no_grad
不堪沉沦
·
2023-12-03 13:18
Pytorch
Pytorch
Tensor
多层感知机
relu函数importtorchfromd2limporttorchasd2lx=torch.arange(-8.0,8.0,0.1,
requires_grad
=True)y=torch.relu(x
CODING_LEO
·
2023-12-03 12:01
深度学习
深度学习
pytorch
人工智能
2_pytorch_变量
importtorchfromtorch.autogradimportVariabletensor=torch.FloatTensor([[1,2],[3,4]])#Variable相当于一个搭建的图纸,
requires_grad
我是刘管家
·
2023-11-23 06:17
莫烦pytorch学习笔记
python
pytorch
神经网络
卷积神经网络
2020-02-15
线性回归笔记
requires_grad
和backward参见https://www.cnblogs.com/kevin-red-heart/p/11340944.html所有tensor都有的属性.意为自动求导注意点
柠檬酸的很
·
2023-11-20 22:10
pytorch:张量概念与创建的api
:2维张量Variable数据类型(torch.autograd中数据类型,用来封装Tensor):data:被封装的Tnsorgrad:data的梯度grad_fn:Tensor的函数,用来计算导数
requires_grad
Rui@
·
2023-11-15 21:25
Pytorch
pytorch
深度学习
python
Torch-张量
参考链接data:被包装的Tensorgrad_fn:创建Tensor所使用的Function,是自动求导的关键,因为根据所记录的函数才能计算出导数
requires_grad
:指示是否需要梯度,并不是所有
6小贱
·
2023-11-13 16:22
pytorch
python
numpy
深度学习
【深度学习】pytorch——Autograd
笔记为自我总结整理的学习笔记,若有错误欢迎指出哟~深度学习专栏链接:http://t.csdnimg.cn/dscW7pytorch——AutogradAutograd简介
requires_grad
计算图没有梯度追踪的张量
今天有没有吃饱饱
·
2023-11-06 15:38
深度学习
深度学习
pytorch
人工智能
pytorch每日一学19(torch.ones()与torch.ones_like())创建全为1的tensor
torch.ones(*size,*,out=None,dtype=None,layout=torch.strided,device=None,
requires_grad
=False)->Tensortorch.ones
Fluid_ray
·
2023-11-06 12:26
pytorch每日一学
深度学习
pytorch
机器学习
神经网络
数据挖掘
pytorch每日一学18(torch.zeros_like())创建与指定tensor形状相等的全0tensor
第18个方法torch.zeros_like(input,*,dtype=None,layout=None,device=None,
requires_grad
=False,memory_format=torch.preserve_format
Fluid_ray
·
2023-11-06 12:26
pytorch每日一学
python
机器学习
pytorch
神经网络
深度学习
PyTorch 从tensor.grad 看 backward(权重参数) 和 gradient accumulated
1.新建一个自变量tensorximporttorchx=torch.ones(1,
requires_grad
=True)print(x)1.输出:tensor([1.],
requires_grad
=True
培之
·
2023-11-04 11:14
pytorch
人工智能
python
简单线性回归模型(复习一下前向传播和反向传播)
__version__x=torch.rand(3,4,
requires_grad
=True)xtensor([[0.9795,0.8240,0.6395,0.1617],[0.4833,0.4409,0.3758,0.7234
Che_Che_
·
2023-10-27 22:47
机器学习
线性回归
pytorch
算法
pytorch学习经验(一) detach,
requires_grad
和volatile
在跑CIN的代码时,将batch_size从10一路降到2,依然每执行sample就爆显存.请教师兄后,发现问题出在这一句上:在进行sample的时候,不止保存之前的变量fake,而且还保存了fake前所有的梯度.计算图进行累积,那样不管有多大显存都是放不下的.之后,在self.G(real_x,target_c)[0]后面加上了.detach(),代码就可以顺利运行了.查阅pytorch的官方文
nowherespyfly
·
2023-10-26 18:09
pytorch学习第三篇:梯度
梯度计算importtorchx=torch.rand(3,4,
requires_grad
=True)b=torch.rand(4,3,
requires_grad
=True)print(x,b)y=x@
小~小
·
2023-10-21 04:28
Pytorch学习
pytorch
学习
人工智能
【记录】复刻 pytorch nn.CrossEntropyLoss()
linzip(output,label):loss+=-1*x[l]+torch.log(torch.exp(x).sum())returnloss/countoutput=torch.randn(10,5,
requires_grad
摸鱼真快乐
·
2023-10-19 15:32
PyTorch基础教程(四)PyTorch 的计算图和自动求导机制
为记录张量梯度,首先需要在创建张量的时候设置一个参数
requires_grad
=True,意味着这个张量将会加入到
旗狼-回不去的明天
·
2023-10-11 21:57
PyTorch
基础教程
pytorch
人工智能
python
自动求导机制+线性回归试水笔记(Pytorch)
手动定义求导矩阵方法一:x=torch.randn(3,4,
requires_grad
=True)方法二:x=torch.randn(3,4)x.requires_grad=True计算流程x=torch.rand
NPU_Li
·
2023-10-11 21:54
pytorch
深度学习
机器学习
自动求导,计算图示意图及pytorch实现
pytorch实现x1=torch.tensor(3.0,
requires_grad
=True)y1=torch.tensor(2.0,
requires_grad
=True)a=x1**2b=3*ac=
雪可问春风
·
2023-10-11 21:52
pytorch
pytorch
人工智能
python
机器学习实践入门(四):pytorch框架初探
动态图,方便调试pytorch的基本组成元素tensor基本运算Tensor(
requires_grad
=True)Variablennpytorch构建神经网络P
橘の月半喵
·
2023-10-11 02:42
机器学习
机器学习
pytorch
深度学习
如何理解pytorch中的“with torch.no_grad()”?
torch.no_grad()方法就像一个循环,其中循环中的每个张量都将
requires_grad
设置为False。
Zephyr H
·
2023-10-09 04:50
pytorch
人工智能
python
【Pytorch笔记】4.梯度计算
importtorchw=torch.tensor([1.],
requires_grad
=True)x=torch.tensor([2.],
requires_grad
=True)a=torch.add
xhyu61
·
2023-10-03 23:43
pytorch笔记
机器学习
学习笔记
pytorch
笔记
人工智能
Pytorch学习进度记录
device:所在设备,cuda/cpurequires_grad:是否需要梯度pin_memory:是否存于锁页内存torch.tensor(data,dtype=None,device=None,
requires_grad
Artintel
·
2023-10-02 19:43
学习
pytorch
神经网络
机器学习
深度学习
pytorch_autograd v1.backward()+variable.grad
pt_gradient#gradientablevariablew=torch.normal(0,0.01,size=(2,1),
requires_grad
=True)b=torch.zeros(1,
requires_grad
Great_GNU&linux
·
2023-09-25 11:47
统计学习方法分析
pytorch
python
人工智能
Pytorch
importtorchfromtorch.autogradimportVariabletensor=torch.FloatTensor([[1,2],[3,4]])variable=Variable(tensor,
requires_grad
一叶之坤
·
2023-09-24 21:56
Pytorch 从入门到实战总结零基础句句标注
importtorch需要求导的,可以手动定义#方法1x=torch.randn(3,4,
requires_grad
=True)#
encoding=“utf-8”
·
2023-09-20 04:00
pytorch
深度学习
机器学习
torch.nn.Parameter()函数
引言在很多经典网络结构中都有nn.Parameter()这个函数,故对其进行了解pytorch官方介绍:语法结构:torch.nn.parameter.Parameter(data=None,
requires_grad
梦在黎明破晓时啊
·
2023-09-16 22:46
深度学习
cnn
神经网络
《动手学深度学习 Pytorch版》 4.8 数值稳定性和模型初始化
梯度消失%matplotlibinlineimporttorchfromd2limporttorchasd2lx=torch.arange(-8.0,8.0,0.1,
requires_grad
=True
AncilunKiang
·
2023-09-13 21:58
《动手学深度学习
Pytorch版》学习笔记
深度学习
pytorch
人工智能
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他