E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Pytorch学习
numpy与tensor数据类型互换
PyTorch学习
笔记:numpy与tensor数据类型互换numpy转换为tensortorch.from_numpy(ndarray)→Tensortensor转换为numpyTensor.numpy
视觉萌新、
·
2023-04-05 14:21
PyTorch学习笔记
pytorch
python
深度学习
PyTorch学习
笔记:nn.Tanh——Tanh激活函数
PyTorch学习
笔记:nn.Tanh——Tanh激活函数torch.nn.Tanh()功能:逐元素应用Tanh函数(双曲正切)对数据进行激活,将元素调整到区间(-1,1)内函数方程:Tanh(x)=tanh
视觉萌新、
·
2023-04-05 11:34
PyTorch学习笔记
pytorch
学习
python
【
PyTorch学习
笔记】class torch.nn.AdaptiveAvgPool2d(output_size)
参考链接:classtorch.nn.AdaptiveAvgPool2d(output_size)参考链接:torch.nn.functional.adaptive_avg_pool2d(input,output_size)代码实验:MicrosoftWindows[版本10.0.18363.1316](c)2019MicrosoftCorporation。保留所有权利。C:\Users\chen
敲代码的小风
·
2023-04-03 15:17
深度学习记录
一、
Pytorch学习
1.Pytorch的安装2.Pytorch的基本操作3.Pytorch与其他框架的基本对比与优势4.Pytorch的第一个小例子5.回归问题一、线性回归提出问题:y=wx+b如何根据不同的
weixin_43878815
·
2023-04-02 11:19
pytorch
pytorch
神经网络
深度学习
机器学习
NLP深度学习(pytorch)教程
Github地址:NLP深度学习教程--
pytorch学习
案例(利用pytorch实现一些自然语言处理领域常见的问题)1.1_Bow_text_classification.ipynb:训练一个词袋子模型
布口袋_天晴了
·
2023-04-02 06:35
Pytorch学习
08——过拟合欠拟合
1、基础概念ground-truth:正确标记的数据noise:模型与实际之间的不可避免的观察误差等modelcapacity:模型的能力,指可以表达的分布情况有多复杂。一次表达式和高次表达式的能力相比,显然高次的能力更强2、欠拟合&过拟合estimated表示模型复杂度,ground-truth表示真实数据复杂度estimated
简简单单的貔貅
·
2023-04-02 05:04
Pytorch学习
pytorch
学习
深度学习
Pytorch学习
(五)——欠拟合和过拟合
欠拟合和过拟合训练误差和泛化误差欠拟合和过拟合模型复杂度训练数据集大小处理欠拟合和过拟合的方法权重衰减权重衰减实现丢弃法(dropout)dropout实现模型选择K折交叉验证本文主要介绍模型训练过程中出现的欠拟合和过拟合问题,以及进行模型选和处理过拟合的一般方法。训练误差和泛化误差通俗来讲,训练误差(trainingerror)指模型在训练数据集上表现出的误差。泛化误差(generalizati
HelloWorldQAQ。
·
2023-04-02 05:03
Pytorch学习
pytorch
深度学习
神经网络
Pytorch学习
笔记----DRL
Pytorch--AdvancedCNNConvolutionalNeuralNetworkInceptionModule1X1convolutionImplementationofInceptionModuleDeepResidualLearningImplementationofsimpleResidualNetworkReferenceConvolutionalNeuralNetworkIn
pat12138
·
2023-04-02 00:43
深度学习
卷积神经网络
人工智能
Pytorch学习
B站小土堆教程小土堆查看pytorch是否可用pycharm的一个技巧,在函数的括号里按ctrl+P可以看要写哪些参数。importtorchprint(torch.cuda.is_available())如何在pytorch环境中安装jupyternotebook和使用教程学习和使用中的两个常用的辅助查询函数dir():打开package库看看里面有什么,例如dir(torch),看看torch
咬树羊
·
2023-04-01 21:45
深度学习自学
python
学习
Pytorch学习
之旅——tensor张量使用基础
文章目录一、tensor介绍二、tensor创建tensor元素数据类型tensor与numpy之间的转换三、tensor运算四、tensor成员变量shape五、tensor常用成员函数cat函数clone函数contiguous函数expand函数gather函数norm函数permute函数squeeze()和unsqueeze()函数sum函数transpose函数view函数一、tens
zhanghm1995
·
2023-04-01 12:47
深度学习
深度学习
PyTorch学习
之旅(二)——机器学习基础
前置文章传送门:
PyTorch学习
之旅(一)线性回归模型深度学习是机器学习的子集,因为层数较多(深度较深),故名深度学习。
CSU_DEZ
·
2023-04-01 12:12
Python_AI
pytorch
学习
pytorch学习
之旅——1
pytorch学习
经历之torch.tensor与torch.Tensortorch.Tensor与torch.tensortorch.Tensor与torch.tensortorch.Tensor是torch.tensor
骑着蜗牛小毛驴
·
2023-04-01 11:26
pytorch
python
深度学习
Pytorch学习
之旅day02
Pytorch学习
之旅day02一、什么是Pytorch,为什么选择Pytroch?
qq_41754734
·
2023-04-01 11:25
Pytorch学习
之旅(3)——autograd自动求导系统
一、torch.autograd.backward()函数功能:根据计算图自动求取梯度。torch.autograd.backward(tensors,=>用于求解梯度的张量gradient,=>多梯度权重retain_graph,=>保存计算图create_graph)=>创建导数计算图,用于高阶求导二、torch.autograd.grad()函数功能:手动选取梯度torch.autograd
不想调试板子
·
2023-04-01 11:55
Pytorch学习之旅
pytorch
机器学习
数据集建立和导入
title:
Pytorch学习
笔记-数据集建立和导入学习笔记和实现代码详见如下:“”"官方教程:训练集和测试集下载“”"importtorchfromtorch.utils.dataimportDatasetfromtorchvisionimportdatasetsfromtorchvision.transformsimportToTensorimportmatplotlib.pyplotaspl
Yuzzz.
·
2023-04-01 02:42
Pytorch
python
深度学习
pytorch
pytorch快速入门
title:
Pytorch学习
笔记-Pytorch快速入门学习笔记和实现代码详见如下:"""pytorch官网:https://pytorch.org/tutorials/beginner/basics
Yuzzz.
·
2023-04-01 02:41
Pytorch
pytorch
深度学习
神经网络
pytorch格式变换
title:
Pytorch学习
笔记-数据格式变换学习笔记和实现代码详见如下:importtorchfromtorchvisionimportdatasetsfromtorchvision.transformsimportToTensor
Yuzzz.
·
2023-04-01 02:41
Pytorch
pytorch
深度学习
python
PyTorch学习
笔记(六)模型定义
目录PyTorch模型定义的方式基础知识SequentialModuleListModuleDict三种方法的比较与适用场景利用模型块快速搭建复杂网络PyTorch修改模型修改模型层添加外部输入添加额外输出PyTorch模型定义的方式基础知识Module类是torch.nn模块里提供的一个模型构造类(nn.Module),是所有神经网络模块的基类,可以继承它来定义模型;PyTorch模型定义应包括
zhangmeizi1996
·
2023-03-29 20:06
pytorch
pytorch
深度学习
人工智能
Pytorch中的forward的理解
第一条:.forward()可以不写第二条:优先运行forward方法总结写在前面以下是本人根据
Pytorch学习
过程中总结出的经验,如果有错误,请指正。
使者大牙
·
2023-03-29 18:41
pytorch
python
深度学习
pytorch学习
之tensorboard的使用
SummaryWriterclassSummaryWriter(builtins.object)|Writesentriesdirectlytoeventfilesinthelog_dirtobe|consumedbyTensorBoard.||The`SummaryWriter`classprovidesahigh-levelAPItocreateaneventfile|inagivendire
qingqing2620
·
2023-03-29 15:55
笔记
pycharm
ide
python
PyTorch学习
笔记:nn.CrossEntropyLoss——交叉熵损失
PyTorch学习
笔记:nn.CrossEntropyLoss——交叉熵损失torch.nn.CrossEntropyLoss(weight=None,size_average=None,ignore_index
视觉萌新、
·
2023-03-28 23:41
PyTorch学习笔记
pytorch
学习
深度学习
PyTorch学习
笔记:nn.KLDivLoss——KL散度损失
PyTorch学习
笔记:nn.KLDivLoss——KL散度损失torch.nn.KLDivLoss(size_average=None,reduce=None,reduction='mean',log_target
视觉萌新、
·
2023-03-28 23:41
PyTorch学习笔记
pytorch
学习
深度学习
PyTorch学习
笔记:nn.TripletMarginLoss——三元组损失
PyTorch学习
笔记:nn.TripletMarginLoss——三元组损失torch.nn.TripletMarginLoss(margin=1.0,p=2.0,eps=1e-06,swap=False
视觉萌新、
·
2023-03-28 23:41
PyTorch学习笔记
pytorch
学习
深度学习
nn.AvgPool2d——二维平均池化操作
PyTorch学习
笔记:nn.AvgPool2d——二维平均池化操作torch.nn.AvgPool2d(kernel_size,stride=None,padding=0,ceil_mode=False
视觉萌新、
·
2023-03-28 23:11
PyTorch学习笔记
pytorch
深度学习
PyTorch学习
笔记:nn.LeakyReLU——LeakyReLU激活函数
PyTorch学习
笔记:nn.LeakyReLU——LeakyReLU激活函数功能:逐元素对数据应用如下函数公式进行激活LeakyReLU(x)=max(0,x)+α∗min(0,x)\text{LeakyReLU
视觉萌新、
·
2023-03-28 22:46
PyTorch学习笔记
pytorch
学习
python
Pytorch学习
——22种transforms数据预处理方法
一、图像增强数据增强又称为数据增广,数据扩增,它是对训练集进行变换,使训练集更丰富,从而让模型更具泛化能力二、transforms——裁剪1.transforms.CenterCrop功能:从图像中心裁剪图片size:所需裁剪图片尺寸2.transforms.RandomCrop(size,padding=None,pad_if_needed=False,fill=0,padding_mode='
东汄
·
2023-03-26 08:20
深度学习
深度学习
Pytorch学习
记录-使用Pytorch进行深度学习,保存和加载模型
新建MicrosoftPowerPoint演示文稿(2).jpg保存和加载模型在完成60分钟入门之后,接下来有六节tutorials和五节关于文本处理的tutorials。争取一天一节。不过重点是关注神经网络构建和数据处理部分。本节主要是用于解决模型的保存和加载。会的直接跳过就好。我也只是做记录,这篇搞定就直接进入NLP部分。三个核心函数:torch.save:将序列化的对象保存在硬盘上,使用Py
我的昵称违规了
·
2023-03-25 09:20
Pytorch学习
笔记--多GPU并行训练时nn.ParameterList()为空的问题
目录1--前言2--报错代码3--解决方法1--前言最近在复现一篇Paper,其开源代码使用了nn.DataParallel()进行多GPU并行训练,同时使用nn.ParameterList()来构建参数列表;这时会出现一个Pytorch的Bug,即nn.ParameterList()在forward阶段会出现empty的错误,报错如下:①UserWarning:nn.ParameterListi
憨豆的小泰迪
·
2023-03-24 16:49
Pytorch学习笔记
pytorch
学习
bug
Pytorch学习
:张量和自动求导——搭建一个简单的神经网络
参考pytorch官方文档:https://pytorch.org/tutorials/beginner/pytorch_with_examples.html#id17(可能需要科学上网)当使用自动求导时(autograd),网络的向前传播过程将会定义一个计算图,图中的结点由张量(tensor)构成,而运算过程将构成图的边(edge)。通过图的后向传播将会很容易实现对梯度的计算。如上所述,每一个张
Shawn0901
·
2023-03-23 07:44
Pytorch学习
Pytorch学习
pytorch学习
笔记(二)Tensor和autograd
文章目录Tensors(张量)autogradTensor类function类小结Tensors(张量)Tensors其实就是多维数组,Tensors类似于NumPy的ndarrays,同时Tensors可以使用GPU进行计算。构造一个5*3矩阵importtorchx=torch.empty(5,3)#不初始化x=torch.rand(5,3)#随机初始化x=torch.zeros(5,3,dt
Tra_cy
·
2023-03-22 11:13
pytorch学习
Pytorch学习
Pytorch1_手写字识别数据集的载入数据集展示网络搭建模型训练训练损失函数图模型预测下面将构造一个三层全连接层的神经网络来对手写数字进行识别。数据集的载入importtorchfromtorchimportnnfromtorch.nnimportfunctionalasFfromtorchimportoptimimporttorchvisionfrommatplotlibimportpyplo
采蘑菇的csz
·
2023-03-14 07:35
Pytorch
pytorch
学习
python
二、pytorch主要组成模块——
pytorch学习
1.pytorch基础配置#首先导入必须的包importosimportnumpyasnpimporttorchimporttorch.nnasnnfromtorch.utils.dataimportDataset,DataLoaderimporttorch.optimasoptimizer#如下几个超参数可以统一设置,方便后续调试时修改batch_size=16#批次的大小lr=1e-4#优化器
一米米倾磬
·
2023-03-14 06:57
基于PyTorch的深度学习--创建卷积神经网络-面向对象的神经网络
本篇文章是翻译:https://deeplizard.com网站中的关于
Pytorch学习
的文章,供学习使用。
三哥_DH
·
2023-03-13 20:25
Pytorch
pytorch
深度学习
PyTorch学习
1.PyTorch的数据结构torch用张量来保存数据,张量与numpy的数组可以相互转化。importtorchimportnumpyasnpnp_data=np.arange(6).reshape((2,3))torch_data=torch.from_numpy(np_data)tensor2array=torch_data.numpy()print('\nnumpy:',np_data,'
恰似一碗咸鱼粥
·
2023-03-12 11:20
pytorch学习
经验(六)torch.where():根据条件修改张量值
今天写代码的时候遇到一个问题,网络前向过程中有一个张量A,我想把张量A中的大于0的值变成张量B中对应的值,最初的实现是:A[A>0]=B[A>0]然后运行起来就报错了,原因是这个操作属于in-place操作,而pytorch在涉及到求梯度的tensor时,是不允许对这些tensor做原地操作的,否则在反向传播的时候,这些张量计算出来的梯度发生变化。所以我后来采用了torch.where()方法:t
nowherespyfly
·
2023-03-10 16:06
pytorch
pytorch学习
第一天pytorch是一款深度学习框架,对模型进行加速训练。
戴眼镜的孙猴子
·
2023-03-08 22:29
計算機
pytorch
深度学习
Pytorch学习
笔记(8):正则化(L1、L2、Dropout)与归一化(BN、LN、IN、GN)
目录一、正则化之weight_decay(L2正则)1.1正则化及相关概念1.2正则化策略(L1、L2)(1)L1正则化(2)L2正则化1.3L2正则项——weight_decay二、正则化之Dropout2.1Dropout概念2.2nn.Dropout三、归一化之BatchNormalization(BN层)3.1BatchNormalization介绍3.2Pytorch的BatchNorm
路人贾'ω'
·
2023-03-08 22:27
Pytorch
深度学习
机器学习
pytorch
计算机视觉
人工智能
Pytorch学习
笔记(7):优化器、学习率及调整策略、动量
目录一、优化器1.1优化器的介绍1.2optimizer的属性1.3optimizer的方法1.4常用优化器torch.optim.SGD二、学习率2.1学习率介绍2.2为什么要调整学习率2.3pytorch的六种学习率调整策略(1)StepLR(2)MultiStepLR(3)ExponentialLR(4)CosineAnnealingLR(5)ReduceLRonPlateau(6)Lamb
路人贾'ω'
·
2023-02-28 08:55
Pytorch
学习
pytorch
人工智能
深度学习
神经网络
Pytorch学习
笔记(5):torch.nn---网络层介绍(卷积层、池化层、线性层、激活函数层)
目录一、卷积层—ConvolutionLayers1.11d/2d/3d卷积1.2卷积—nn.Conv2d()nn.Conv2d1.3转置卷积—nn.ConvTransposenn.ConvTranspose2d二、池化层—PoolingLayer(1)nn.MaxPool2d(2)nn.AvgPool2d(3)nn.MaxUnpool2d三、线性层—LinearLayernn.Linear四、激
路人贾'ω'
·
2023-02-20 07:56
Pytorch
pytorch
深度学习
python
人工智能
神经网络
Pytorch学习
笔记(深度之眼)(6)之权值初始化
1、梯度消失与爆炸上面公式中,H1是上一层神经元的输出值,W2的梯度依赖于上一层的输出,如果H1的输出值趋向于零,W2的梯度也趋向于零,从而导致梯度消失。如果H1趋向于无穷大,那么W2也趋向于无穷大,从而导致梯度爆炸。从上面我们可以知道,要避免梯度消失或者梯度爆炸,就要严格控制网络输出层的输出值的范围,也就是每一层网络的输出值不能太大也不能太小。从公式推导可以发现,第一个隐藏层的输出值的方差变为n
liuyu进阶
·
2023-02-20 07:48
python
深度学习
笔记
深度学习
神经网络
人工智能
pytorch学习
笔记十一:损失函数
一、损失函数是什么损失函数:衡量模型输出与真实标签之间的差异。与损失函数有关的还有代价函数和目标函数。损失函数(LossFunction):计算一个样本的差异,Loss=f(y^,y)Loss=f\left(\hat{y},y\right)Loss=f(y^,y)代价函数(CostFunction):计算整个训练集loss的一个平均值,cost=1N∑iNf(y^,y)cost=\frac{1}{
Dear_林
·
2023-02-20 07:43
pytorch
pytorch
学习
深度学习
pytorch学习
笔记九:权值初始化
目录一、概念二、梯度消失与爆炸三、权值初始化方法1、Xavier初始化2、Kaiming初始化一、概念权值初始化是指在网络模型训练之前,对各节点的权值和偏置初始化的过程,正确的初始化会加快模型的收敛,从而加快模型的训练速度,而不恰当的初始化可能会导致梯度消失或梯度爆炸,最终导致模型无法训练。如上图所示的一个基本的CNN网络结构,数据在网络结构中流动时,会有如下的公式(默认没有偏置):在反向传播的过
Dear_林
·
2023-02-20 07:42
pytorch
pytorch
学习
深度学习
pytorch学习
笔记十:权值初始化的十种方法
在上一节中了解了为什么要进行权值初始化以及如何选择权值初始化方法,在这一节来了解一下pytroch中十种权值初始化方法一、权值初始化流程1、先设定什么层用什么初始化方法,初始化方法在torch.nn.init中给出;2、实例化一个模型之后,执行该函数,即可完成初始化。示例:definitialize_weights(self):forminself.modules:#对卷积层进行初始化ifisin
Dear_林
·
2023-02-20 07:42
pytorch
pytorch
学习
深度学习
Pytorch学习
笔记(6):模型的权值初始化与损失函数
目录前期回顾一、权值初始化1.1梯度消失与梯度爆炸1.2Xavier初始化nn.init.xavier_uniform_(tensor,gain=1.0)1.3Kaiming初始化nn.init.kaiming_normal_(tensor,a=0,mode=‘fan_in’,nonlinearity=‘leaky_relu’)1.4十种权重初始化方法二、损失函数2.1损失函数初步介绍2.2交叉熵
路人贾'ω'
·
2023-02-20 07:40
Pytorch
深度学习
人工智能
pytorch
计算机视觉
机器学习
MacOS Pytorch 机器学习环境搭建
学习Pytorch,首先要搭建好环境,这里将采用Anoconda+Pytorch+PyCharm来一起构建
Pytorch学习
环境。
攻城狮随笔
·
2023-02-17 18:00
Pytorch
机器学习
pytorch
python
深度学习
pytorch学习
记录——线性模型
从最简单的线性模型来体验pytorch的整个流程1、DataSet,2、Model,根据数据集选择适合的模型,如:神经网络,决策树等等3、Training,4、inferring,用于推理工作举个例子:下面是数据集importnumpyasnpimportmatplotlib.pyplotasplt#preparethetrainsetx_data=[1.0,2.0,3.0]y_data=[2.0
①gè∧の哭泣
·
2023-02-07 11:32
学习
深度学习
人工智能
Pytorch学习
——LSTM与LSTMCell
nn.LSTM()该模块一次构造完若干层的LSTM。构造方法model=nn.LSTM(2,2,10,batch_first=True)"""参数说明:-feature_len:特征的维度-hidden_len:隐藏层的个数-layer_num:每个时间步所对应的模型层数-batch_first:用来指示数据应该以什么形式来给,默认为False,数据形状(seq_len,batch,feature
哆啦A梦!!!
·
2023-02-07 07:31
pytorch
深度学习
神经网络
2.1
精度文章1/4,如果更多就更好啦~(完成)复习RNN(
pytorch学习
)完成项目(未完成)GMM学习完毕(未完成)多陪朋友,多干活少胡思乱想。(未完成)继续早睡早起读书看报看电影(完成)
谁要陪我吃火锅
·
2023-02-06 18:07
猫狗分类代码,跟着我一步步学习
一、transform理解参考:
PyTorch学习
笔记(三):transforms的二十二个方法_TensorSense的博客-CSDN博客transform=transforms.Compose([transforms.Resize
Chowley
·
2023-02-06 13:18
分类
深度学习
pytorch
ResNet50《
pytorch学习
篇》
引言:resNet50网络作为res网络家族中的一员,特别强调的是残差网络是何大神提出的,轰动世界的大江南北,主要是因为:当时的卷积神经网络主要通过不断地增加卷积层来提取图像的特征,但是这会引发一个问题-----梯度爆炸问题或者梯度消失问题,也就是说卷积层的数量设置,必须有一定的限制,否则会出现物极必反的现象,然而此时,和大神就提出了残差网络,成功地解决了此类问题,也为自己在国际深度学习的领域奠定
桀骜不驯的山里男人
·
2023-02-06 11:00
pytorch冒险之旅
pytorch
深度学习
神经网络
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他