E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
torch.tensor
torch.distributed.barrier()
torch.distributed.barrier作用Pytorch在分布式训练过程中,对于数据的读取是采用主进程预读取并缓存,然后其它进程从缓存中读取,不同进程之间的同步通信需要通过torch.distributed.barrier()实现t=
torch.tensor
alien丿明天
·
2023-01-19 15:46
pytorch
pytorch
size() 和 shape函数的用法
都是查看数据的类型注意使用size()函数需要加括号,shape不需要加括号,加括号会报错返回结果函数返回一个列表,第一个表示batch_size,后两个表示每一个batch的行和列示例importtorcha=
torch.tensor
怎样才能回到过去
·
2023-01-19 15:09
Python
基础
Pytorch
中的各种函数
Pytorch
python
pytorch transpose与permute函数
pytorchtranspose与permute函数pemute可以对高维,2阶或以上矩阵进行重排列,或者说转置,而transpose只能对两个维度进行调换b=
torch.tensor
([[[1,4],
Bruce-XIAO
·
2023-01-19 15:39
【python】
pytorch
torch.unbind()
举个例子就知道了:importtorchx=
torch.tensor
([[1,2],[3,4]])torch.unbind(x,0)#第0个维度上进行长度为1的切片。
音程
·
2023-01-19 15:24
Pytorch深入理解与实战
pytorch
python
TypeError: an integer is required (got type tuple)cv2.rectangle
如果type是
torch.Tensor
或者
阿财是小白
·
2023-01-19 09:06
日常tips记录
np.where(label != i)[0]
importtorchimportnumpyasnplabel=
torch.tensor
([1,2,2,4,9,6,7])print(label)a=label.unique()print(a)class_num
YukiLove0421
·
2023-01-18 20:03
Pytorch学习
python
numpy
深度学习
pytorch深度学习(6):逻辑斯蒂回归(Logistic Regression)处理分类问题
数据x_data=[[1.0],[2.0],[3.0]],分类:y_data=[[0],[0],[1]]代码如下:importtorchx_data=
torch.Tensor
([[1.0],[2.0],
谁最温柔最有派
·
2023-01-18 17:37
人工智能算法
pytorch
深度学习
python
神经网络
人工智能
PyTorch示例——LogisticRegressionModel
loss查看权重、偏置信息利用模型做预测版本信息PyTorch:1.12.1Python:3.7.13导包importtorchimportmatplotlib.pyplotasplt原始数据X_data=
torch.Tensor
蒋含竹
·
2023-01-18 17:30
#
PyTorch
Python
MachineLearning
pytorch
python
深度学习
logistics
regression
逻辑回归
torch.nn.MSELoss()函数解读
代码示例单个求其loss:importtorchimporttorch.nnasnn>>>crit=nn.MSELoss()>>>target=
torch.Tensor
(1)>>>target[0]=10
wang xiang
·
2023-01-18 14:27
pytorch 矩阵相乘_深入浅出PyTorch(算子篇)
PyTorch的张量(
torch.Tensor
)表示的是N维矩阵与一维数组的关系。
weixin_39598135
·
2023-01-18 12:09
pytorch
矩阵相乘
torch.nn.CrossEntropyLoss()使用注意
CLASStorch.nn.CrossEntropyLoss(weight:Optional[
torch.Tensor
]=None,size_average=None,i
Unstoppable~~~
·
2023-01-18 07:36
深度学习
pytorch
深度学习
python
【nn.Parameter()】生成和为什么要初始化
参考博文:《pytorch生成全零tensor指定type_Tensor与tensor深入分析》一、定义torch.nn.Parameter是继承自
torch.Tensor
的子类,其主要作用是作为nn.Module
panbaoran913
·
2023-01-17 22:06
#
pytorch
深度学习
pytorch
nn.Parameter
【学习笔记】【Pytorch】张量(Tensor)的基础操作
【学习笔记】【Pytorch】张量(Tensor)的基础操作一、创建张量1.使用数据创建张量2.无需数据的创建选项3.torch.Tensor与
torch.tensor
的区别4.PyTorch中张量的创建方法的选择二
Mr庞.
·
2023-01-17 22:30
Pytorch
pytorch
python
学习
nn.Parameter生成含Nan(日常记录)
问题源头在这里:self.u=nn.Parameter(
torch.Tensor
(x,y))翻遍了全网,在一个老哥那里发现了同样的问题,文章链接如下关于Pytorch中Parameter的nan|WeeklyReview
LTuantuan
·
2023-01-17 22:29
python
深度学习
python深度学习求导简单题目+pytorch实战
题目:代码实战:importtorchfromtorch.autogradimportgradx=
torch.tensor
([2.,])#x是输入的图片w1=
torch.tensor
([2.,])#w是模型的可训练的参数
QYD_(DK数据工作室技术)
·
2023-01-17 16:13
深度学习
pytorch
python
深度学习
python
pytorch
pytorch中的矩阵的转置问题
目录前言三阶张量的转置前言我在我的pytorch专栏发布了一期pytorch入门之tensor,介绍了
torch.tensor
()的一些创建方式和常用方法,其中就有矩阵的转置方法----tensor.t
我已经流浪了如此之久
·
2023-01-17 12:15
#
pytorch
python
module ‘torch‘ has no attribute ‘bool‘ 问题解决
__version__)a=[]niou=10tcls=[1,3,4]a.append((torch.zeros(0,niou,dtype=torch.bool),
torch.Tensor
(),
torch.Tensor
幻灵H_Ling
·
2023-01-17 09:39
debug
python
debug
pytorch
深度学习
bug
解决python中的TypeError: embedding(): argument ‘indices‘ (position 2) must be Tensor, not list
a=[
torch.tensor
([53,14,12,36,32,54,53,42,8,12,54,1,42,1,40
时光轻浅,半夏挽歌
·
2023-01-17 08:22
python
list
pytorch
Pytorch学习笔记之通过numpy实现线性拟合
importtorchfromtorchimportautogradimportnumpyasnpimportmatplotlib.pyplotasplt'''torch关于求导的简单运用'''#x=
torch.tensor
想当厨子的半吊子程序员
·
2023-01-17 07:55
pytorch
深度学习
pytorch
关于DataLoader读取出错
batch_size()2.输入维度对上,但是却把输入赋值给卷积层参数,一定是维度少了一维3.TypeError:expectednp.ndarray(gotint)将torch.from_numpy()改为
torch.Tensor
goudi520
·
2023-01-16 11:55
问题
python
PyTorch奇奇怪怪的问题(一)
detach()orsourceTensor.clone().detach().requires_grad_(True),ratherthantorch.tensor(sourceTensor).target=
torch.tensor
今我来思雨霏霏_JYF
·
2023-01-16 11:48
python
Win10下sh脚本激活Conda虚拟环境并使用
\n')else:x=
torch.Tensor
(2,2)print(x)if__name__=='__main__':show_tensor()2.activate_torch.sh,用于使用1的文件的脚
neowell
·
2023-01-16 11:14
python
shell
windows
10
bash
诚之和:pytorch Variable与Tensor合并后 requires_grad()默认与修改方式
现在
torch.Tensor
()能像Variable一样进行反向传播的更新,返回值为Tensor,Variable自动创建tensor,且返回值为Tensor,(所以以后不需要再用Variable)。
weixin_45378258
·
2023-01-16 09:03
python
Pytorch中requires_grad_(), detach(), torch.no_grad()的区别
示例一>>>a=
torch.tensor
([1.0])>>>a.datatensor([1.])>>>a.grad>>>a.requires_gradFals
SnailTyan
·
2023-01-16 09:56
pytorch
pytorch requires_grad
情况1importtorchdefault_requires_grad=
torch.tensor
([1.,2.,0.,0,-1,3],dtype=torch.float)A=
torch.tensor
([
培之
·
2023-01-16 09:55
PyTorch
pytorch
深度学习
python
pytorch 一个 Tensor的 is_leaf requires_grad 两个属性同时 为 True 才会保存 grad
而根据这篇文章Tesor在下面几种情况下,才会是leaf#Creatingthegraphx=
torch.tensor
([1.,2.,3.],requires_grad=True)y=
torch.tensor
培之
·
2023-01-16 09:54
PyTorch
pytorch
python
深度学习
pytorch compute graph 计算图 例子
例1从例1、2中可以发现使用y=
torch.tensor
(x*x,requires_grad=True)跟使用y=x*x效果不一样x=
torch.tensor
(0.3,requires_grad=True
培之
·
2023-01-16 09:54
PyTorch
pytorch
深度学习
python
torch.autograd.grad()函数使用
函数使用importtorch#x=torch.FloatTensor([[0,1,2,3],[1,2,3,4],[2,3,4,5]]).requires_grad_(True)#print(x)x=
torch.tensor
学习要有仪式感呦
·
2023-01-15 11:37
一点一滴深度学习
深度学习
torch.autograd.grad的使用初步
创建可以求导的张量#createatensorandrequiresgradx=
torch.tensor
(1.).requires_grad_(True)x=
torch.tensor
(1.,requires_grad
Shengkun Wu
·
2023-01-15 11:35
python
深度学习
人工智能
PyTorch - 损失函数
均方误差损失二分类交叉熵损失CrossEntropyLoss和NLLLoss计算交叉熵损失KL散度损失余弦相似度损失多分类多标签损失L1范数损失实际上就是曼哈顿距离importtorchimporttorch.nnasnnx=
torch.Tensor
伊织code
·
2023-01-15 09:26
ML/DL
pytorch
深度学习
损失函数
PyTorch 自定义model简单示例
PyTorch自定义model简单示例环境:python3.8Pytorch介绍Pytorch中文文档importtorchimportnumpyasnpdeftest():x_data=
torch.Tensor
迷迭香迷魂香
·
2023-01-15 08:47
大数据与AI
自然语言处理
神经网络
pytorch
【学习笔记】【Pytorch】七、卷积层
三、functional.conv2d函数的使用1.使用说明2.代码实现四、
torch.Tensor
与
torch.tensor
区别五、nn.Conv2d类的使用1.使用说明2.代码实现六、池化公式学习地址
Mr庞.
·
2023-01-15 07:28
Pytorch
深度学习
神经网络
人工智能
【Pytorch】神经网络-最大池化的应用 - 学习笔记
importtorchfromtorchimportnnfromtorch.nnimportMaxPool2d#maxpool需要把整数变为浮点数input=
torch.tensor
([[1,2,0,3,1
Lucy@IshtarXu
·
2023-01-15 07:23
Pytorch
深度学习
Python
pytorch
神经网络
深度学习
一文详解L1-loss和L2-loss(pytorch版本)
nn.L1Loss(reduction='mean')#平均绝对误差,L1-损失loss2=nn.MSELoss()#L2-损失x1=torch.zeros([2,2])x2=torch.ones([2,2])x3=
torch.tensor
啥都亿点点的研究生
·
2023-01-14 22:45
python
torch.nn.utils.rnn下面pack_padded_sequence和pad_packed_sequence方法
pack_padded_sequencefromtorch.nn.utils.rnnimportpack_padded_sequence,pad_packed_sequenceimporttorchseq=
torch.tensor
就是一顿骚操作
·
2023-01-14 19:57
pytorch
rnn
深度学习
人工智能
RuntimeError: Input type (torch.cuda.DoubleTensor) and weight type (torch.cuda.FloatTensor) should b
http://t.csdn.cn/z3gkmtorch.tensor对应的是torch.DoubleTensortorch.Tensor对应的是torch.FloatTensor观察下t的大小写input=
torch.Tensor
e^iπ+1=0
·
2023-01-14 15:20
深度学习
python
pytorch
matmul torch 详解_pytorch 乘法运算汇总与解析
importtorchdefelement_by_element():x=
torch.tensor
([1,2,3])y=
torch.tensor
([4,5,6])returnx*y,tor
夢旅十方
·
2023-01-14 13:10
matmul
torch
详解
Pyotrch入门-第4讲
课后答案参考:代码实现:importtorchdefBP_demo2():x_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]epoch_list=[]l_list=[]w1=
torch.Tensor
周杰伦的粉丝
·
2023-01-14 11:45
深度学习
python
pytorch
PyTorch示例——LinearModel
PyTorch示例——LinearModel版本信息PyTorch:1.12.1Python:3.7.13导包importtorchimportmatplotlib.pyplotasplt原始数据X_data=
torch.Tensor
蒋含竹
·
2023-01-14 11:30
MachineLearning
#
PyTorch
Python
pytorch
python
深度学习
线性模型
LinearModel
神经网络——Tensor、计算图、训练方法
Tensor、Variable和Parameter经过Pytorch0.4.0的更新后,前两个都是一个
torch.Tensor
对象,可以理解为两者等价;后者是Parameter对象。
不说话装高手H
·
2023-01-14 11:22
神经网络
pytorch
深度学习
3.2 Linear regression
被withtorch.no_grad()包住的代码,不用跟踪反向梯度计算,来做一个实验:a=
torch.tensor
([1.1],requires_grad=True)b=a*2输出是:tensor([
Adhere_Chris
·
2023-01-14 10:37
线性回归
深度学习
pytorch中的矩阵切片操作完全讲解
Talkischeap,showmecode.以下所有维度从0开始,3维即0,1,2importtorchx=
torch.tensor
([[1,2,3],[4,5,6],[7,8,9]])print(x
znsoft
·
2023-01-13 21:58
pytorch
pytorch
矩阵
python
傻傻分清stack(A,dim=?)和stack((A,B),dim=?)
importtorcha=
torch.Tensor
([1,2,3])b=
torch.Tensor
([4,5,6])c=
torch.Tensor
([7,8,9])out1=[a,b,c]#type(out1
sundayberrysharp
·
2023-01-13 11:55
pytorch
深度学习
python
pytorch实战(正在更新)
所有代码作者亲测进入刘二大人视频课程首先初步使用torch.tensorimporttorchimportnumpyasnp#直接把List放进去x=
torch.tensor
([[1,-1],[-1,1
Shengkun Wu
·
2023-01-13 09:12
pytorch
人工智能
python
pytorch 卷积操作
卷积操作示例代码:importtorch.nn.functionalasFimporttorch#输入图像(5X5)input=
torch.tensor
([[1,2,0,3,1],[0,
booze-J
·
2023-01-13 07:34
pytorch
pytorch
深度学习
python
RuntimeError: “rsqrt_cpu“ not implemented for ‘Long‘
在运行torch.rsqrt函数时候报错:importtorcha=
torch.tensor
([1,2,3,4])b=torch.rsqrt(a)print("b:",b)报错:Traceback(mostrecentcalllast
江南汪
·
2023-01-13 06:56
pytorch学习
pytorch
python
pytorch
pytorch基础1.Tensor数据类型创建tensor时,默认类型为torch.FloatTensor(32位浮点)a=
torch.Tensor
(2,2)tensor数据类型的转换:1.b=a.double
m0_50837237
·
2023-01-13 06:51
pytorch
深度学习
python
【动手学深度】线性回归的简介实现
importtorchimportnumpyasnpfromtorch.utilsimportdataimportsyssys.path.append("E:\ANaconda\envs\pytroch_env\Lib\site-packages")fromd2limporttorchasd2ltrue_w=
torch.tensor
墨鱼mo
·
2023-01-13 01:26
pytorch
深度学习
机器学习
pytorch自学笔记——线性回归
importnumpyasnpimporttorchfromtorch.utilsimportdata#处理数据的模块fromd2limporttorchasd2l#生成数据集,这里可以不用看true_w=
torch.tensor
还是那个狗蛋
·
2023-01-13 01:26
pytorch自学笔记
线性回归的简介实现
importnumpyasnpimporttorchfromtorch.utilsimportdatafromd2limporttorchasd2ltrue_w=
torch.tensor
([2,-3.4
小白学AI
·
2023-01-13 01:56
线性回归
算法
回归
上一页
6
7
8
9
10
11
12
13
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他