E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Pytorch学习
pytorch学习
第五篇:NN与CNN代码实例
NNimporttorchfromtorchvisionimportdatasetsfromtorchvision.transformsimportToTensorfromtorch.utils.dataimportDataLoader#fromtorchimportnnimporttorch.nnasnntrain_data=datasets.FashionMNIST(root='data',t
小~小
·
2023-11-01 01:57
Pytorch学习
pytorch
学习
cnn
Pytorch学习
笔记--常用函数nn.init.normal()、nn.init.constant_()、torch.from_numpy()、torch.index_select()总结4
目录1--torch.nn.init.normal()和torch.nn.init.constant_()函数2--torch.from_numpy()函数3--torch.index_select()函数1--torch.nn.init.normal()和torch.nn.init.constant_()函数torch.nn.init.normal()函数:torch.nn.init.norma
晓晓纳兰容若
·
2023-10-28 21:10
Pytorch学习笔记
pytorch
深度学习
python
pytorch学习
经验(一) detach, requires_grad和volatile
在跑CIN的代码时,将batch_size从10一路降到2,依然每执行sample就爆显存.请教师兄后,发现问题出在这一句上:在进行sample的时候,不止保存之前的变量fake,而且还保存了fake前所有的梯度.计算图进行累积,那样不管有多大显存都是放不下的.之后,在self.G(real_x,target_c)[0]后面加上了.detach(),代码就可以顺利运行了.查阅pytorch的官方文
nowherespyfly
·
2023-10-26 18:09
PyTorch学习
数据加载(Dataset、DataLoader)模块介绍及源码分析
数据加载(Dataset、DataLoader)模块介绍及源码分析DatasetDataLoaderDataLoader参数DataLoader源码剖析RandomSampler源码剖析SequentialSampler源码剖析BatchSampler源码剖析default_collate源码剖析DatasetDataset类在torch.util.data里定义,所以引用方式为fromtorch
YFCodeDream
·
2023-10-25 19:10
PyTorch
pytorch
学习
深度学习
PyTorch学习
笔记(8)--神经网络:非线性激活
PyTorch学习
笔记(8)–神经网络:非线性激活 本博文是PyTorch的学习笔记,第8次内容记录,主要介绍神经网络非线性激活函数的基本使用。
我这一次
·
2023-10-25 11:18
PyTorch学习笔记
python
pytorch
神经网络
【Pytorch】
Pytorch学习
笔记02 - 单变量时间序列 LSTM
目录说明简单神经网络LSTM原理PytorchLSTM生成数据初始化前向传播方法训练模型自动化模型构建总结参考文献说明这篇文章主要介绍如何使用PyTorch的API构建一个单变量时间序列LSTM。文章首先介绍了LSTM,解释了它们在时间序列数据中的简单性和有效性。然后,文章解释了如何使用前向方法初始化LSTM,包括定义输入和输出形状,训练模型以及自动化模型构建。最后,文章总结了从头构建LSTM所涉
KmBase
·
2023-10-25 07:46
#
机器学习
1024程序员节
Pytorch
LSTM
2020-10-09-PyTorch 官方教程翻译2-LEARNING PYTORCH WITH EXAMPLES
layout:posttitle:
PyTorch学习
2subtitle:LEARNINGPYTORCHWITHEXAMPLESdate:2020-08-10author:ZhuoranLicatalog
李卓然get
·
2023-10-23 18:27
Pytorch学习
:torch.randn()
torch.randn()返回一个张量,这个张量中填充了均值为0、方差为1的正态分布中的随机数。张量的形状由变量size定义。有时会遇到括号中有1个、2个、3个和4个情况。当为torch.randn(1)时,产生一个size=1服从标准正态分布的张量importtorcha=torch.randn(1)print(a)当为torch.randn(2,3)时,产生一个2行3列且里面的数服从标准正态分
緈福的街口
·
2023-10-21 19:55
pytorch学习
pytorch
学习
人工智能
Pytorch学习
笔记:RNN的原理及其手写复现
目录参考链接如下:RNN网络模型结构单向循环神经网络双向循环神经网络RNN应用场景类型onetomany(例如诗歌生成)manytoone(文本情感分类)manytomany(词法识别,机器翻译)Pytorch官网RNN介绍参数单向单层双向单层比较双向单层和单向单层单向RNN与双向RNN的逐行实现参考链接如下:视频链接:29、PyTorchRNN的原理及其手写复现_哔哩哔哩_bilibili博客链
后来后来啊
·
2023-10-21 16:12
pytorch
学习
笔记
pytorch学习
第三篇:梯度
下面介绍了在pytorch中如何进行梯度运算,并介绍了在运行梯度计算时遇到的问题,通过解决一个个问题,来深入理解梯度计算。梯度计算importtorchx=torch.rand(3,4,requires_grad=True)b=torch.rand(4,3,requires_grad=True)print(x,b)y=x@bt=y.sum()求导数t.backward()x.grad问题1:让y运
小~小
·
2023-10-21 04:28
Pytorch学习
pytorch
学习
人工智能
pytorch学习
第二篇:张量
tensor与numpyimporttorchimportnumpyasnpnumpy数组到张量tensorn=np.ones(5)t=torch.from_numpy(n)NumPy数组中的变化反映在张量中np.add(n,1,out=n)print(f"t:{t}")print(f"n:{n}")张量到NumPy数t=torch.ones(5)print(f"t:{t}")n=t.numpy(
小~小
·
2023-10-21 04:58
Pytorch学习
pytorch
学习
人工智能
四、pytorch模型定义——
pytorch学习
前面的知识回顾:Module类是torch.nn模块里提供的一个模型构造类(nn.Module),是所有神经⽹网络模块的基类,我们可以继承它来定义我们想要的模型PyTorch模型定义应包括两个主要部分:各个部分的初始化(init);数据流向定义(forward)基于nn.Module,我们可以通过Sequential,ModuleList和ModuleDict三种方式定义PyTorch模型。1.模
一米米倾磬
·
2023-10-17 17:35
Pytorch学习
记录-基于深度上下文模型的GEC
Pytorch学习
记录-GEC语法纠错02五月第一周要结束了,接下来的三个月主要是文献阅读,准备8、9月的开题报告,技术类的文献集中在GEC和Textmaching的应用方面,读完之后找demo复现,然后应用
我的昵称违规了
·
2023-10-15 14:42
Pytorch学习
-tensorboard
(1)使用pip命令安装tensorboard,安装之后检查安装:然后就可以顺利运行了,会生成一个“logs”文件,表示成功输入“tensorboard--logdir=logs”查看图像出现文章中错误,并解决:pytorch中tensorboard安装及安装过程中出现的常见错误_安装tensorboard报错_深度学习强化学习爱好者的博客-CSDN博客重新运行点击网址可看到图像:防止使用默认端口
小李小李无与伦比
·
2023-10-10 04:17
pytorch
学习
人工智能
PyTorch学习
-DataLoader
(1)体会DataLoader的使用把数据加载到神经网络中,官方文档解读:torch.utils.data—PyTorch2.0documentation随机抽取4张图片把随机抽取出来的图片都进行img和target的打包(2)tensorboard加入使用最后一步不够64张,把drop_last设为True,就会舍去不够的(3)shuffle的使用当shuffle=False时,取图片的顺序都一
小李小李无与伦比
·
2023-10-10 04:17
pytorch
学习
人工智能
pytorch学习
------TensorBoard的使用
目录简介使用方式1、单条曲线(scalar)2、多条曲线(scalars)3、直方图(histogram)4、图片(image)5、渲染(figure)6、网络(graph)简介建好一个神经网络,其实我们也不知道神经网络里头具体细节到底做了什么,要人工调试十分困难(就好比你无法想象出递归的所有步骤一样)。有了TensorBoard,可以将TensorFlow程序的执行步骤都显示出来,非常直观。并且
韭菜盖饭
·
2023-10-10 04:58
神经网络
pytorch
学习
人工智能
使用anaconda 安装torchtext_
Pytorch学习
记录-更深的TorchText学习01
Pytorch学习
记录-更深的TorchText学习01简单实现torchtext之后,我希望能够进一步学习torchtext。
weixin_39776991
·
2023-10-09 19:08
使用anaconda
安装torchtext
pytorch学习
------实现文本情感分类
目录目标一、案例介绍二、思路分析三、准备数据集3.1基础Dataset的准备3.2文本序列化四、构建模型五、模型的训练和评估六、效果目标知道文本处理的基本方法能够使用数据实现情感分类的一、案例介绍本案例主要是学习wordembedding这种常用的文本向量化的方法现在我们有一个经典的数据集IMDB数据集,地址:http://ai.stanford.edu/~amaas/data/sentiment
韭菜盖饭
·
2023-10-07 22:13
神经网络
自然语言处理
pytorch
分类
人工智能
神经网络
PyTorch学习
笔记(五):模型选择、欠拟合、过拟合和应对方法
PyTorch学习
笔记(五):模型选择、欠拟合、过拟合和应对方法模型选择、欠拟合和过拟合训练误差和泛化误差模型选择验证数据集KKK折交叉验证欠拟合和过拟合模型复杂度训练数据集大小多项式函数拟合实验生成数据集定义
FriendshipT
·
2023-10-05 18:16
PyTorch学习笔记
深度学习
人工智能
过拟合
pytorch梯度下降函数_
PyTorch学习
笔记2 - 梯度下降
1在numpy和pytorch实现梯度下降法(线性回归)梯度下降法的一般步骤为:(1)设定初始值(2)求取梯度(3)在梯度方向上进行参数的更新1.1Numpy版本假设欲拟合的目标函数为y=2*x1-4*x2.这是一个2元线性函数,自变量x是2维向量。通过梯度下降求解最优参数的代码如下:importnumpyasnpimportmatplotlib.pyplotaspltfrommpl_toolki
weixin_39636057
·
2023-10-03 23:47
pytorch梯度下降函数
Pytorch学习
笔记——梯度下降算法
随机梯度下降算法的Python代码实现。与梯度下降算法不同的是随机梯度下降算法,随机梯度下降算法(SGD,StochasticGradientDescent)是从样本中每轮随机选一个。这样做的好处是:若在鞍点时,在梯度下降算法中,使用的是所有样本(可能带有噪声的)计算为0,必不可能向前推动。而使用单个样本计算出来,不一定是每一个都会计算为0,有随机噪声会更好的推进向前。也就是如果取所有样本的话,是
DK_521
·
2023-10-03 23:46
Deep
Learning
pytorch
算法
深度学习
Pytorch学习
进度记录
Tensor创建直接创建torch.tensor()功能:从data创建tensordata:数据,可以是list,numpydtype:数据类型,默认与data一致device:所在设备,cuda/cpurequires_grad:是否需要梯度pin_memory:是否存于锁页内存torch.tensor(data,dtype=None,device=None,requires_grad=Fal
Artintel
·
2023-10-02 19:43
学习
pytorch
神经网络
机器学习
深度学习
Pytorch学习
记录-1-张量
1.张量(Tensor):数学中指的是多维数组;torch.Tensordata:被封装的Tensordtype:张量的数据类型shape:张量的形状device:张量所在的设备,GPU/CPUrequires_grad:指示是否需要计算梯度grad:data的梯度grad_fn:创建Tensor的Function,是自动求导的关键is_leaf:指示是否是叶子结点(叶子结点指的是用户创建的节点,
@ZyuanZhang
·
2023-10-02 03:01
#
Pytorch学习记录
学习
pytorch
pytorch 深度学习实践 第三讲 梯度下降算法
第三讲梯度下降算法gradientDescent
pytorch学习
视频——B站视频链接:《PyTorch深度学习实践》完结合集哔哩哔哩bilibili以下是视频内容的个人笔记,主要是梯度下降算法的理解和简单公式实例
会游泳的小雁
·
2023-09-28 13:08
pytorch学习
python
pytorch
随机梯度下降
PyTorch学习
笔记(四):Tensor合并与分割
cata=torch.rand(4,32,8)b=torch.rand(5,32,8)print(torch.cat([a,b],dim=0).shape)#torch.Size([9,32,8])stack:createnewdima=torch.rand(32,8)b=torch.rand(32,8)print(torch.stack([a,b],dim=0).shape)#torch.Siz
ICDAT_GO
·
2023-09-26 19:42
PyTorch学习笔记
数据挖掘
pytorch
tensorflow
pytorch学习
笔记——BCE与CE
BCELoss的话只需要网络输出一个通道,CELoss(CrossEntropyLoss)需要输出n_class个通道。对于二分类任务可以使用CELoss输出两个通道,也可以使用BCELoss输出一个通道。https://www.jianshu.com/p/5b01705368bbhttps://zhuanlan.zhihu.com/p/372628727https://zhuanlan.zhih
phily123
·
2023-09-26 05:32
pytorch
学习
笔记
Pytorch学习
记录- 训练GRU Seq2Seq(论文再读)
对Pytorch的Seq2Seq这6篇论文进行精读,第二篇,Cho,K.,etal.,LearningPhraseRepresentationsusingRNNEncoder-DecoderforStatisticalMachineTranslation.2014.发表于2014年,全文链接摘要很牛逼的一个神经网络,基于RNN的Seq2Seq,用于处理符号。使用这个encoder-decoder计
我的昵称违规了
·
2023-09-24 03:46
PyTorch学习
:使用pytorch进行数据预处理
本文基于jupiter,将从如何读取数据集、对数据集处理缺失值、将数据转为张量形式来完成对数据的预处理。其中用到的数据集有:house_tiny.csv、boston_house_prices.csv、Iris.txt数据集:https://pan.baidu.com/s/17-xn66iShCXQCqZREo51Zw?pwd=5q6s一、读取数据集由于我未找到鸢尾花iris数据集的csv或者xl
今天也是元气满满的一天呢
·
2023-09-23 09:34
深度学习
pytorch
学习
人工智能
PyTorch学习
:关于张量的一些认识
本文主要通过对张量不同角度的认识以及相关张量的函数来帮助大家学习张量。一、张量的概念1.张量与NumPy的区分和相似点在阅读有关张量的知识时,感觉张量tensor与numpy很相似。以下两者之间的区分与相似点。(1)相似点Tensor和numpy都能进行基础的数值运算,比如数组间的加减乘除。Tensor和numpy都可以支持多维数组的操作,比如创建多维数组,还有索引等功能。(2)区别Tensor:
今天也是元气满满的一天呢
·
2023-09-23 07:25
深度学习
pytorch
学习
人工智能
Pytorch学习
笔记(模型验证/测试)
模型验证模型验证(测试,demo):利用已经训练好的模型,然后给它提供输入进行测试验证。importtorchimporttorchvision.transformsfromPILimportImagefromtorchimportnn#需要测试的图片image_path="../imgs/airplane.png"image=Image.open(image_path)image=image.c
高 朗
·
2023-09-23 03:38
pytorch
pytorch
model
test
pytorch学习
之实现代码在GPU上运行
当模型太大,或者参数太多的情况下,为了加快训练速度,经常会使用GPU来进行训练此时我们的代码需要稍作调整:在cup上运行的代码:#!/usr/bin/envpython#-*-coding:utf-8-*-importtorchfromtorchimportnnfromtorchimportoptimimportnumpyasnpfrommatplotlibimportpyplotasplt#1、
韭菜盖饭
·
2023-09-22 22:33
神经网络
pytorch
学习
人工智能
pytorch学习
------常见的优化算法
优化算法优化算法就是一种调整模型参数更新的策略,在深度学习和机器学习中,我们常常通过修改参数使得损失函数最小化或最大化。优化算法介绍1、梯度下降算法(batchgradientdescentBGD)每次迭代都需要把所有样本都送入,这样的好处是每次迭代都顾及了全部的样本,做的是全局最优化,但是有可能达到局部最优。梯度下降:全局最优2、随机梯度下降法(Stochasticgradientdescent
韭菜盖饭
·
2023-09-22 22:59
神经网络
pytorch
学习
算法
PyTorch学习
之线性回归练习+手写数字识别初体验
线性回归练习loss=(WX+b-y)^2defcompute_error_for_line_given_points(b,w,points):totalError=0foriinrange(0,len(points)):x=points[i,0]y=points[i,1]totalError+=(y-(w*x+b))**2returntotalError/float(len(points))de
糖公子没来过
·
2023-09-22 11:55
PyTorch
Deep
Learning
PyTorch
pytorch学习
3(pytorch手写数字识别练习)
网络模型设置三层网络,一般最后一层激活函数不选择relu任务步骤手写数字识别任务共有四个步骤:1、数据加载--LoadData2、构建网络--BuildModel3、训练--Train4、测试--Test实战1、导入各种需要的包importtorchfromtorchimportnnfromtorch.nnimportfunctionalasFfromtorchimportoptimimportt
dyh_chd
·
2023-09-22 11:24
pytorch
学习
人工智能
Pytorch学习
记录-TextMatching几个经典模型
Pytorch学习
记录-TextMatching文本匹配01本文是对知乎上这篇文章的阅读笔记,查了一下ACL和arXiv历年来关于TextMatching的论文,不知道如何下手,就找找别人的文献综述看看
我的昵称违规了
·
2023-09-21 13:29
pytorch学习
1
前言王者之争核心之争在于动态图优先还是静态图优先pytorch是动态计算生成新变量tf是先定义变量,再生成回归问题1、梯度下降算法了解[梯度算法是深度学习的核心,deeplearning求解复杂问题主要靠的是梯度下降算法,故deeplearning近似等于gradientprograming.]类似于高中所学的求导问题,求解loss的极小值,loss也可以看作我们熟悉的y,求y的倒数,再检验这个导
dyh_chd
·
2023-09-21 06:42
pytorch
学习
人工智能
pytorch学习
2
分类问题手写数字数据集其中,每个数字图片大小是28x28,矩阵中每个元素的大小为[0,1]区间的灰度值,将二维矩阵拉平(flat)为一维784,数据量不变,这样能忽略上下位置相关性,甚至左右位置相关性也可忽略,再插入一个维度变为[1,784]线性模型能解决吗一个简单的线性模型为:y=w*x+b但对于手写数字来说,用一个简单的线性模型,是不可能解决问题的。故用以上三个线性函数进行嵌套其中d1=784
dyh_chd
·
2023-09-21 06:05
pytorch
学习
人工智能
PyTorch学习
笔记(四) -------卷积层
什么是卷积?来看这张图输入图像是224*224*3即图片尺寸是224*224,3个通道;输出图片尺寸是224*224,64个通道个人认为,卷积就是图片经过卷积核的映射过程,如下图所示什么是通道?在卷积操作中一般要求设置的in_channel和out_channel在一遍jpg,png图片中,in_channel=3,为RGB三个通道,RGB的不同可以调整图片的色彩out_channel则表示卷积核
清忖灬
·
2023-09-21 01:27
PyTorch深度学习
pytorch
深度学习
机器学习
PyTorch学习
笔记(五) ---------最大池化和非线性激活
一、最大池化类似于卷积操作,这里最大池化的过程与卷积有部分相似之处,不多赘述最大池化是为了保留数据特征,减少数据量classModule(nn.Module):def__init__(self):super(Module,self).__init__()#父类继承self.maxpool1=MaxPool2d(kernel_size=3,ceil_mode=True)#kernel_size=3表
清忖灬
·
2023-09-21 01:57
PyTorch深度学习
pytorch
深度学习
机器学习
jupyter notebook无法运行代码
Pytorch学习
工具安装1.安装过程最近要开始深度学习的相关课程,得提前准备好相关工具。
佳雨初林
·
2023-09-20 17:04
深度学习
python
jupyter
深度学习
Pytorch学习
(四)Dataloader
Dataloader()从Dataset当中取数据。可以通过参数设置。num_wokers是否采用多线程,win系统一般只能设置为0.drop_last,为true的话,则舍去最后的不能除的数据,为false则不舍去。DataLoader是把所有img,target打包输出DataLoader中的数据:importtorchvisionfromtorch.utils.dataimportDataL
。七十二。
·
2023-09-20 14:09
神经网络
pytorch学习
---实现线性回归初体验
假设我们的基础模型就是y=wx+b,其中w和b均为参数,我们使用y=3x+0.8来构造数据x、y,所以最后通过模型应该能够得出w和b应该分别接近3和0.8。步骤如下:准备数据计算预测值计算损失,把参数的梯度置为0,进行反向传播更新参数方式一该方式没有用pytorch的模型api,手动实现importtorch,numpyimportmatplotlib.pyplotasplt#1、准备数据lear
韭菜盖饭
·
2023-09-19 23:44
神经网络
pytorch
学习
线性回归
ImportError: cannot import name ‘Mapping‘ from ‘collections‘
PSD:\Pycharm_data\小土堆
pytorch学习
>tensorboard--logdir=logsTraceback(mostrecentcalllast):File"D:\Anaconda3
Chen_Chance
·
2023-09-19 13:37
pytorch
pytorch 学习率代码_Pytorch使用ReduceLROnPlateau来更新学习率
自己之前写过一个
Pytorch学习
率更新,其中感觉依据是否loss升高或降低的次数来动态更新学习率,感觉是个挺好玩的东西,自己弄了好久都设置错误,今天算是搞出来了!
weixin_39817176
·
2023-09-19 09:27
pytorch
学习率代码
pytorch
每次迭代更新学习率
PyTorch学习
之六个学习率调整策略
PyTorch学习
率调整策略通过torch.optim.lr_scheduler接口实现。
张博208
·
2023-09-19 09:53
pytorch
Pytorch学习
整理笔记(二)
文章目录损失函数与反向传播优化器VGG模型使用与修改模型保存与读取损失函数与反向传播常见的损失函数:nn.L1Loss简单的做差值,nn.MSELoss平方差,nn.CrossEntropyLoss交叉熵见下图importtorchfromtorch.nnimportL1Loss,MSELoss,CrossEntropyLossinputs=torch.tensor([1,2,3],dtype=t
高 朗
·
2023-09-17 00:43
pytorch
pytorch
python
人工智能
Pytorch学习
笔记(模型训练)
模型训练在同一个包下创建train.py和model.py,按照步骤先从数据处理,模型架构搭建,训练测试,统计损失,如下面代码所示train.pyimporttorch.optimimporttorchvisionfromtorchimportnnfromtorch.utils.dataimportDataLoaderfromtorch.utils.tensorboardimportSummary
高 朗
·
2023-09-17 00:42
pytorch
pytorch
python
模型训练
pytorch学习
(8)——现有网络模型的使用以及修改
1vgg16模型1.1vgg16模型的下载采用torchvision中的vgg16模型,能够实现1000个类型的图像分类,VGG模型在AlexNet的基础上使用3*3小卷积核,增加网络深度,具有很好的泛化能力。首先下载vgg16模型,python代码如下:importtorchvision#下载路径:C:\Users\win10\.cache\torch\hub\checkpointsvgg16_
阳排
·
2023-09-15 10:52
pytorch
学习
网络
pytorch学习
(7)——神经网络优化器torch.optim
1optim优化器PyTorch神经网络优化器(optimizer)通过调整神经网络的参数(weight和bias)来最小化损失函数(Loss)。学习链接:https://pytorch.org/docs/stable/optim.html1.1优化器基类使用时必须构造一个优化器对象,它将保存当前状态,并将根据计算的梯度(grad)更新参数。调用优化器的step方法。CLASStorch.opti
阳排
·
2023-09-15 10:21
pytorch
学习
神经网络
小土堆
pytorch学习
笔记
想入门pytorch强化学习,就去找pytorch的课来看。B站上播放量最高的就是小土堆的课,整体跟下来感觉内容还是很详细的,但和我的预期不太一样,这个是DL的不是RL的,不过作为对于pytorch使用的初期了解也是很好的,这篇博客就把整个学习过程做一个梳理。 注意:本笔记使用的数据集全部都是CIFAR10,下载比较简单~,下面开始数据读取 在读取之前,需要先准备好数据了,对于CIFAR1
DWQY
·
2023-09-15 09:43
pytorch
pytorch
学习
笔记
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他