E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Pytorch学习
PyTorch学习
笔记(5)--神经网络基本骨架nn.Module的使用
PyTorch学习
笔记(5)–神经网络基本骨架nn.Module的使用 本博文是PyTorch的学习笔记,第5次内容记录,主要介绍神经网络基本骨架nn.Module的基本使用。
我这一次
·
2022-11-30 01:00
PyTorch学习笔记
python
pytorch
神经网络
【小土堆】
Pytorch学习
笔记_P16/17_nn.Module的使用、土堆说卷积
(0)摘要#课程链接PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】_哔哩哔哩_bilibili#笔记内容(1)P16_神经网络的基本骨架-nn.Module的使用(2)P17_土堆说卷积操作(可选看)(1)神经网络的基本骨架-nn.Moudle的使用#(1)torch.nn工具1)文档查阅方法。如下图所示,我们找到pytorch官网的Docs下的pytorch,然后选择左下角的py
惜年_night
·
2022-11-30 00:54
pytorch学习笔记_小土堆
pytorch
PyTorch学习
笔记-现有网络模型的使用及修改
1.VGG16模型的使用我们以VGG16为例,该网络模型是用于大规模图像识别的超深度卷积神经网络,官方文档:VGG16。该网络模型主要有以下参数:weights:可以设置成torchvision.models.VGG16_Weights.DEFAULT,DEFAULT表示自动使用最新的数据。老版本为pretrained,如果为True,表示使用预先训练好的权重,在官网可以看到这个权重是在Image
柃歌
·
2022-11-30 00:53
Artificial
Intelligence
pytorch
学习
网络
深度学习
神经网络
PyTorch学习
笔记-完整训练模型的方法
1.训练模型时的注意事项(1)通常我们会将超参数的设置放在一起,使代码更加直观且方便修改:BATCH_SIZE=64LEARNING_RATE=0.01EPOCH=10(2)我们在每一轮epoch中会先对训练集进行训练,然后使用测试集进行正确率的测试,因此一般我们会记录总共训练的次数total_train_step以及总共测试的次数total_test_step,方便后续绘图使用。(3)在开始训练
柃歌
·
2022-11-30 00:23
Artificial
Intelligence
pytorch
学习
深度学习
人工智能
神经网络
Pytorch学习
笔记(三):神经网络基本骨架
一、ContainersModule:给所有神经网络提供基本骨架,输入的参数x会经过一次卷积,一次非线性,再进行一次卷积与非线性才会得到输出。神经网络基本结构的使用:1.卷积层接下来卷积核会在图像上逐渐移动,移动的步长可以通过stride参数进行调整。输入的参数可以是一个数,也可以通过元祖来设置横向和纵向移动的步长。代码实现:##----nn.conv2dimporttorchimporttorc
银河甜弟学DL
·
2022-11-30 00:18
pytorch
神经网络
深度学习
PyTorch学习
笔记-神经网络Torch.NN基本骨架的使用及卷积原理
1.torch.nn.Module介绍torch.nn能够帮助我们更优雅地训练神经网络,使神经网络代码更加简洁和灵活。官方文档:Torch.NN。在文档中可以看到第一块内容叫做Container(容器),这就相当于神经网络的骨架,Container之后的东西就用于往骨架里面填充,如ConvolutionLayers(卷积层)、PoolingLayers(池化层),有卷积神经网络基础的小伙伴对这些词
柃歌
·
2022-11-30 00:16
Artificial
Intelligence
pytorch
神经网络
学习
深度学习
cnn
Pytorch学习
笔记(三) 图像分类器&数据并行处理
一、图像分类器1.加载并处理输入数据通常来说,处理图像、文本、语音或者视频数据时,可以使用标准python包将数据加载成numpy数组格式,然后将这个数组转换成torch.*Tensor。图像:Pillow,OpenCV语音:scipy,librosa文本:可以直接用Python或Cython基础数据加载模块,或者NLTK、SpaCy几种常用数据集:CIFAR-10、ImageNet、MS-COC
Nismilesucc
·
2022-11-29 17:57
python
pytorch
深度学习
python
pytorch学习
笔记——2.4torch.nn模块简介
前言torch.nn模块包含torch为我们准备好的各种层,方便我们调用以构建网络。我们主要介绍卷积层、池化层、激活函数层、循环层、全连接层等的相关使用方法。一、卷积层卷积可以看作是输入与卷积核之间的内积运算,是两个实值函数之间的一种数学运算。在卷积层中,我们通常使用卷积核将输入数据进行卷积运算从而得到输出作为特征映射,通过每一个卷积核我们可以得到一个特征映射。例如下图中的使用2*2卷积核进行步长
学不来我就死
·
2022-11-29 17:25
pytorch入门
pytorch
学习
深度学习
PyTorch学习
笔记——PyTorch模块和基础实战
文章目录前言一、pytorch基础知识2.1、张量代码演示2.2自动求导PyTorch实现模拟训练Tensor数据结构是实现自动求导的基础自动求导——数学基础代码展示2.3并行计算怎么并行?——CUDA并行计算的方法2.3并行计算——扩展二、Pytorch模块和基础实践2.1神经网络学习机制2.2深度学习在实现上的特殊性2.3PyTorch深度学习模块2.3.1基本配置2.3.2数据读入2.3.3
但愿此生,从未邂逅
·
2022-11-29 16:51
笔记
人工智能
pytorch
学习
深度学习
PyTorch学习
笔记-Convolution Layers与Pooling Layers
1.ConvolutionLayers由于图像是二维的,因此基本上最常用到的就是二维的卷积类:torch.nn.Conv2d,官方文档:torch.nn.Conv2d。Conv2d的主要参数有以下几个:in_channels:输入图像的通道数,彩色图像一般都是三通道。out_channels:通过卷积后产生的输出图像的通道数。kernel_size:可以是一个数或一个元组,表示卷积核的大小,卷积核
柃歌
·
2022-11-29 11:15
Artificial
Intelligence
pytorch
学习
深度学习
cnn
神经网络
PyTorch学习
笔记-Non-linear Activations与Linear Layers
1.Non-linearActivations非线性激活函数官方文档:Non-linearActivations。有深度学习基础的同学应该知道最常用的非线性激活函数就是ReLU和Sigmoid函数,多分类问题会在输出层使用Softmax函数。这三个函数在PyTorch中分别为nn.ReLU、nn.Sigmoid和nn.Softmax。这两个函数的输入都是只需指明batch_size即可,在PyTo
柃歌
·
2022-11-29 11:15
Artificial
Intelligence
pytorch
学习
深度学习
神经网络
人工智能
PyTorch学习
笔记-损失函数与反向传播
1.损失函数具有深度学习理论基础的同学对损失函数和反向传播一定不陌生,在此不详细展开理论介绍。损失函数是指用于计算标签值和预测值之间差异的函数,在机器学习过程中,有多种损失函数可供选择,典型的有距离向量,绝对值向量等。使用损失函数的流程概括如下:计算实际输出和目标之间的差距。为我们更新输出提供一定的依据(反向传播)。损失函数的官方文档:LossFunctions。(1)nn.L1Loss:平均绝对
柃歌
·
2022-11-29 11:15
Artificial
Intelligence
pytorch
学习
深度学习
人工智能
PyTorch学习
笔记-神经网络模型搭建小实战
1.torch.nn.Sequentialtorch.nn.Sequential是一个Sequential容器,能够在容器中嵌套各种实现神经网络中具体功能相关的类,来完成对神经网络模型的搭建。模块的加入一般有两种方式,一种是直接嵌套,另一种是以OrderedDict有序字典的方式进行传入,这两种方式的唯一区别是:使用OrderedDict搭建的模型的每个模块都有我们自定义的名字。直接嵌套默认使用从
柃歌
·
2022-11-29 11:07
Artificial
Intelligence
pytorch
神经网络
学习
深度学习
python
pytorch学习
一:Anaconda下载、安装、配置环境变量。anaconda创建多版本python环境。安装 pytorch。
文章目录一、Anconada1、为啥要用Anconada2、干啥的~二、下载、安装、配置环境变量1、官网2、下载安装流程3、配置环境变量4、测试命令三、anaconda创建多版本python环境四、anaconda安装pytorch1、安装2、安装中的错误3、测试pytorch五、JupyterNotebook1.登陆2.首次使用《JupyterNotebook》需要输入token解决方法一、An
java冯坚持
·
2022-11-29 10:43
pytorch
python
pytorch
开发语言
pytorch学习
——torch.cat和torch.stack的区别
合并tensorstorch.cat沿着特定维数连接一系列张量。torch.stack沿新维度连接一系列张量。torch.cat在给定维度中连接给定的seq个张量序列。所有张量必须具有相同的形状(连接维度除外)或为空。torch.cat(tensors,dim=0,*,out=None)→Tensor参数tensors(张量序列):任何相同类型的张量序列。提供的非空张量必须具有相同的形状。在给定维
看星星的月儿
·
2022-11-29 10:02
pytorch
深度学习
python
【
Pytorch学习
笔记】torch.gather()与tensor.scatter_()
torch.gather()官方解释:torch.gather(input,dim,index,*,sparse_grad=False,out=None)→Tensor这里可以查看官方解释torch.gather()。个人理解:torch.gather()的作用?torch.gather()可以做什么?从某个tensor(input)按照某一纬中选取一部分数据。怎么选?需要提供一个index数组,
Small___ming
·
2022-11-29 10:56
深度学习
pytorch
学习
python
【
Pytorch学习
笔记】torch.cat() 与 torch.stack()
torch.stack()stack在英文中有“堆叠的意思”。所以stack通常是把一些低纬(二维)的tensor堆叠为一个高维(三维)的tensor。stack()官方解释:torch.stack[source]→Tensor:函数目的:沿着一个新维度对输入张量序列进行拼接。其中序列中所有的张量都应该为相同形状。outputs=torch.stack(inputs,dim=0)#→Tensor参
Small___ming
·
2022-11-29 10:18
深度学习
pytorch
学习
深度学习
Pytorch学习
--回归损失函数总结
“损失函数”是机器学习优化中至关重要的一部分。机器学习中所有的算法都需要最大化或最小化一个函数,这个函数被称为“目标函数”。其中,我们一般把最小化的一类函数,称为“损失函数”。它能根据预测结果,衡量出模型预测能力的好坏。常见的损失函数例如L1、L2损失函数。除此之外,还有Huber损失、Log-Cosh损失、以及常用于计算预测区间的分位数损失。在实际应用中,选取损失函数会受到诸多因素的制约,比如是
一只小小的土拨鼠
·
2022-11-29 09:05
机器学习
人工智能
深度学习
pytorch学习
-使用torch.nn模块自定义模型
使用nn.Module构建神经网络1打印网络perception,可以看到上述定义的layer1和layer22named_parameters()可以返回学习参数的参数名与参数值3将输入数据传入perception,perception()相当于调用perception中的forward()函数4nn.Parameter函数5forward()函数与反向传播6多个module的嵌套7nn.Mod
潘旭阳
·
2022-11-29 08:57
pytorch
pytorch
Pytorch学习
系列之十:如何确定合适的epoch数、在加载的模型基础上继续训练
1,使用背景当有以下两种情况时:1)不知道训练的epoch选取为何值时。过小,训练不充分,泛化能力差;过大,训练过度,导致过拟合。所以需要动态观察每个epoch后,模型在验证集(也可以不严谨的说是测试集)上的精度,选取精度最大的epoch作为最终的训练结果。2)在加载的模型基础上继续训练。在训练模型的时候可能会因为一些问题导致程序中断,或者常常需要观察训练情况的变化来更改学习率等参数,这时候就需要
thequitesunshine007
·
2022-11-29 07:14
Pytorch学习
pytorch
深度学习
人工智能
pytorch学习
线性回归与非线性回归,以及理解nn.linear()和ReLU激活函数
参考书目:Pytorch深度学习入门,作者:曾芃壹文章目录线性回归线性模型与目标函数优化批量输入代码实践大规模数据实验神经网络实现线性回归非线性回归激活函数人工神经网络详解nn.linear()的原理浅谈ReLU激活函数在本例中的作用线性回归线性模型与目标函数这次我们使用直线KaTeXparseerror:\tagworksonlyindisplayequations来拟合几个离散点,个点的值如下
LiterMa
·
2022-11-29 06:21
机器学习
pytorch
线性回归
深度学习
PyTorch学习
笔记(七)进阶训练技巧
目录自定义损失函数以函数方式定义以类方式定义动态调整学习率使用官方scheduler自定义scheduler模型微调-torchvision模型微调的流程使用已有模型结构训练特定层模型微调-timm使用和修改预训练模型模型的保存半精度训练使用argparse进行调参argparse简介argparse的使用更加高效使用argparse修改超参数总结自定义损失函数以函数方式定义defmy_loss(
zhangmeizi1996
·
2022-11-29 01:27
pytorch
pytorch
深度学习
python
Pytorch学习
task02_待补
第三章3.1思考:完成深度学习的必要部分知识点1.深度学习的简单定义由于深度学习所需的样本量很大,一次加载全部数据运行可能会超出内存容量而无法实现;同时还有批(batch)训练等提高模型表现的策略,需要每次训练读取固定数量的样本送入模型中训练.知识点2.深度学习中训练与验证过程的特点深度学习中训练和验证过程最大的特点在于读入数据是按批,每次读入一个批次的数据,放入GPU中训练,然后将损失函数反向传
phac123
·
2022-11-29 01:25
Pytorch
pytorch
学习
深度学习
nn.Conv2d——二维卷积运算解读
PyTorch学习
笔记:nn.Conv2d——二维卷积运算解读nn.Conv2d——二维卷积运算代码案例一般用法输出卷积运算的参数填充方式零填充镜像填充复制填充循环填充官方文档nn.Conv2d——二维卷积运算
视觉萌新、
·
2022-11-28 22:49
PyTorch学习笔记
pytorch
深度学习
python
【
Pytorch学习
】 -- 补充 -- 反向传播(Backpropagation)及更新参数
学习视频本文讲述一些反向传播和更新参数理的代码实现细节Backpropagationimporttorch#初始化所需数据x=torch.tensor(1.0)y=torch.tensor(2.0)#w需要计算梯度->require_grad=Truew=torch.tensor(1.0,requeires_grad=True)#前向传播及计算损失,省去了将s平方的公式,直接写入loss公式y_h
丶Dylan
·
2022-11-28 21:56
pytorch
深度学习
python
【
Pytorch学习
】-- 读取数据 -- torch.utils.data -- Dataset
学习视频:https://www.bilibili.com/video/BV1hE411t7RN?p=1,内含环境搭建Pytorch有两个读取数据的方式:使用Dataset使用DataLoader本文先介绍第一种——DatasetDataset与DataLoader区别Dataset:提供一种方法,去获取数据及其对应的label值DataLoader:提供一种方法,可以以特定的形式打包数据数据集接
丶Dylan
·
2022-11-28 21:26
pytorch
深度学习
机器学习
【
Pytorch学习
】-- 补充 -- 使用Pytorch自带的Loss和Optimizer
修改损失函数更新参数用Optimizer代替代码importtorchimporttorch.nnasnn#已知公式形式:f=w*x,未知参数w的数值#目标w=2#初始化数据#数据集XX=torch.tensor([1,2,3,4],dtype=torch.float32)#验证集YY=torch.tensor([2,4,6,8],dtype=torch.float32)#初始ww=torch.t
丶Dylan
·
2022-11-28 21:26
pytorch
深度学习
python
【入门教程】使用预训练模型进行训练、预测(以VGG16为例)
【新手教程】使用预训练模型进行训练、预测(以VGG16为例)本文参考[csdn博文](
Pytorch学习
笔记(I)——预训练模型(一):加载与使用_lockonlxf的博客-CSDN博客_pytorch
芥子微命
·
2022-11-28 21:55
pytorch
深度学习
人工智能
【
Pytorch学习
】-- 使用pytorch自带模型 -- VGG16
学习视频:https://www.bilibili.com/video/BV1hE411t7RN?p=1,内含环境搭建VGG16Pytorch有自带一些常用的模型,因此我们可以通过pytorch调用对应网络模型,官方文档模型的使用importtorchvision#直接调用,实例化模型,pretrained代表是否下载预先训练好的参数vgg16_false=torchvision.models.v
丶Dylan
·
2022-11-28 21:24
pytorch
深度学习
人工智能
地心的
PyTorch学习
(四)
目录一、背景二、构建神经网络三、用前馈神经网络实现MINIST手写数字集的识别1.下载以及可视化数据集(DownloadandVisualizetheData)2.定义网络(DefinetheNetworkArchitecture)3.定义损失函数和优化器(SpecifyLossFunctionandOptimizer)4.训练网络(TraintheNetWork)5.测试网络(TesttheTr
cdxSunny
·
2022-11-28 19:34
Pytorch
pytorch
学习
深度学习
pytorch学习
笔记-各种Dataset的使用
Dataset使用前言-Dataset作用1.TensorDataset2.ListDataset3.TransformDataset4.自定义Dataset注意事项前言-Dataset作用通常在Dataset中进行数据集的“加载+预处理”,将数据集抽象成Dataset类。在神经网络训练时通常对一个batch数据进行处理,所以,dataset类数据通常还需送入dataloader中进行batch分
冲上云霄!
·
2022-11-28 11:32
python
pytorch学习
笔记(七)——pytorch中现有网络模型的使用、修改、模型的保存、加载
目录一、pytorch中现有网络模型的使用、修改二、模型的保存和加载1.模型的保存2.模型的加载一、pytorch中现有网络模型的使用、修改位于torchvision.models使用vgg模型为例,采用的数据集是ImageNet,而ImageNet数据集使用前提需要有scipy包pipinstallscipy注意:ImageNet光训练集就有147.9G,而且不再能公开访问了pytorch中使用
M762B
·
2022-11-28 07:25
pytorch
pytorch
深度学习
python
Pytorch学习
笔记一:制作、加载自己的图像数据集
Pytorch学习
笔记一:制作、加载自己的图像数据集文章目录
Pytorch学习
笔记一:制作、加载自己的图像数据集前言一、下载数据集二、加载自己的数据集1.制作数据集2.加载数据集Dataset类定义数据集
等风来~~
·
2022-11-28 01:58
pytorch
pytorch学习
记录四【cifar示例完整代码 / 利用GPU进行训练 / 测试】
1.item:importtorcha=torch.tensor(5)print(a)#tensor(5)print(a.item())#52.求准确率的小testimporttorch#预测概率此处有两个输入。每行代表一个输入图片的预测输出。例如第一行代表:为第0种种类的概率为0.1,为第1种种类的概率为0.2outputs=torch.tensor([[0.1,0.2],[0.3,0.4]])
菜菜子-
·
2022-11-28 00:39
pytroch学习
pytorch
python
深度学习
Pytorch学习
笔记(四)
下面的若干段代码是循循渐进的,而且保证了每段代码只对前一段代码进行最小程度的修改,方便连续阅读,这也是我学习的过程,有错误的地方希望不吝赐教,共同进步。纯手工实现线性回归10个样本,每个样本特征数为1,需要训练的参数为一个特征权重和一个偏置,所以总共两个要训练的超参数。采用批量梯度下降法,即使用全部样本的梯度更新权重和偏置。实现代码"""手工实现y=wx+b线性回归(梯度下降法)"""import
不牌不改
·
2022-11-27 21:02
【Pytorch学习】
pytorch
深度学习
机器学习
Pytorch教程学习笔记
Pytorch教程学习笔记转载自:Teeyohuang分类专栏-
Pytorch学习
笔记Pytorch进行CIFAR-10分类CIFAR-10数据加载和处理定义卷积神经网络定义损失函数和优化器训练测试Pytorch
Axiiiz
·
2022-11-27 21:29
Pytorch
深度学习
pytorch学习
笔记
四个重要的包torch.Torchtorch.autogradtorch.nntorch.optim一、tensor转化到gpu上运算:默认情况下不允许跨GPU操作,除了copy_()和其他具有类似复制功能的方法,例如to()和cuda()。除非您启用点对点内存访问,否则任何在跨不同设备的张量上启动操作的尝试都会引发错误。cuda=torch.device('cuda')#DefaultCUDAd
phily123
·
2022-11-27 21:29
pytorch学习笔记
pytorch
深度学习
神经网络
PyTorch学习
笔记之基本配置&数据处理
PyTorch学习
笔记之基本配置&数据处理文章目录
PyTorch学习
笔记之基本配置&数据处理2.1深度学习任务的整体流程2.1.1机器学习任务步骤2.1.2深度学习任务步骤2.1.3PyTorch基本配置
laffycat
·
2022-11-27 21:57
PyTorch基础
深度学习
pytorch
学习
深度学习
Pytorch学习
笔记 (参考官方教程)
参考:pytorch官网教程文章目录一、快速开始(QuickStart)数据处理(Workingwithdata)创建模型(CreatingModels)优化模型参数(OptimizingtheModelParameters)保存模型(SavingModels)加载模型(LoadingModels)二、张量(Tensors)初始化张量(InitializingaTensor)张量的属性(Attri
zyw2002
·
2022-11-27 20:26
#
深度学习框架
pytorch
学习
python
PyTorch学习
笔记(二)——torch.nn解析
PyTorch提供了方便漂亮的类和模块,来帮助我们创建和训练神经网络,例如torch.nn,torch.optim等。为了更好地理解这些模块的功能和原理,我们在手动搭建的神经网络上,逐步添加这些模块,以显示每部分模块的功能,以及每部分是如何让代码更加灵活简洁的。1、手动搭建神经网络使用MNIST数据集,该数据集共有50000个图片,每一图片大小为2828,储存在长度为2828=784的扁平行。#定
Candyerer
·
2022-11-27 17:20
NeRF_
pytorch学习
代码:https://github.com/pylittlebrat/NeRF_recurrencerun_nerf_helpers.pyclassEmbedderPositionalencoding(section5.1)作用:定义位置编码γ(p)=(sin(20πp),cos(20πp),⋯,sin(2L−1πp),cos(2L−1πp))γ(p)=(sin(2^0πp),cos(2^0πp)
ACxz
·
2022-11-27 13:24
pytorch
环境搭建与代码笔记
NeRF
python
开发语言
深度学习
PyTorch学习
笔记-TensorBoard
1.TensorBoard的安装与绘图TensorBoard原本是TensorFlow的可视化工具,PyTorch从1.2.0开始支持TensorBoard。之前的版本也可以使用TensorBoardX代替。先进入Anaconda的PyTorch环境,安装TensorBoard:pipinstalltensorboard在项目中新建一个文件夹logs:TensorBoard的工作流程简单来说是将代
柃歌
·
2022-11-27 10:11
Artificial
Intelligence
pytorch
学习
python
深度学习
人工智能
PyTorch学习
笔记-Transform
1.Transform的概念与基本用法transforms在计算机视觉工具包torchvision下,包含了很多种对图像数据进行变换的类,这些都是在我们进行图像数据读入步骤中必不可少的。transforms主要使用的类为:transforms.ToTensor,该类能够将PILImage或者ndarray转换为tensor,并且归一化至[0-1]。注意归一化至[0-1]是直接除以255,若自己的n
柃歌
·
2022-11-27 10:11
Artificial
Intelligence
pytorch
学习
计算机视觉
深度学习
opencv
Pytorch学习
-损失函数和正则化
损失函数说明一般来说,监督学习的目标函数由损失函数和正则化项组成。(Objective=Loss+Regularization)Pytorch中的损失函数一般在训练模型时候指定。注意Pytorch中内置的损失函数的参数和tensorflow不同,是y_pred在前,y_true在后,而Tensorflow是y_true在前,y_pred在后。对于回归模型,通常使用的内置损失函数是均方损失函数nn.
Zzz_啥都不会
·
2022-11-27 09:28
Pytorch
python
PyTorch学习
笔记-常用函数与数据加载
1.PyTorch常用函数(1)路径相关的函数假设我们数据集的目录结构如下:首先需要importos,在os中常用的路径相关的函数有:os.listdir(path):将path目录下的内容列成一个list。os.path.join(path1,path2):拼接路径:path1\path2。例如:importosdir_path='dataset/hymenoptera_data/train/a
柃歌
·
2022-11-27 09:03
Artificial
Intelligence
pytorch
学习
深度学习
人工智能
python
python+
pytorch学习
点滴记录
1、enumeratepython内置的函数,遍历一个数据对象并返回索引列表,同时列出数据下标和数据list=["a","b","c"]fori,eleminenumerate(list):print(i,elem)返回:0a1b2c2、tqdm它是一个可以显示进度条的模块当tqdm和enumerate结合时,比如fromtqdmimporttqdmlist=["a","b","c"]fori,e
benben044
·
2022-11-27 05:45
pytorch
pytorch学习
笔记(删繁就简,一篇入门)
官方教程:https://pytorch.org/tutorials/beginner/deep_learning_60min_blitz.html这是我在看官方教程过程中做的笔记,中间有一些东西是教程中没有讲到的,但是对理解代码,甚至是理解pytorch的一些思想很有用(王婆卖瓜,自卖自夸,溜…)相信你看了这一篇博客就基本入门pytorch了。1.数据处理pytorch的数据处理类似于numpy
Bonennult
·
2022-11-27 04:06
python
pytorch
PyTorch学习
笔记(1)- tensor、autograd、神经网络
1tensor【创建tensor】a=t.Tensor(2,3):指定tensor形状a=t.Tensor((2,3)):创建一个元素为2和3的tensorx=t.Tensor([[1,2],[3,4]]):用list数据创建tensorb.tolist():把tensor转为listc=t.Tensor(b_size):创建一个和b形状一样的tensor,系统不会马上分配空间,会计算剩余内存是否
Rock Nut
·
2022-11-27 04:06
Python
神经网络
pytorch
学习
PyTorch学习
笔记2——线性回归
本章内容较多,但是作为pytorch的基础却又是重中之重,需要巩固学习2.1线性回归线性回归输出主要可以用于解决回归问题,比如预测房屋价格、气温、销售额等连续值问题;与回归问题不同的分类问题,分类问题的模型最终输出是一个离散值,比如图像分类,垃圾分类、疾病监测,softmax回归用于解决分类问题线性回归和softmax回归都是单层神经网络,我们首先学习线性回归2.1.1线性回归基本要素我们以一个简
Moon_Boy_Li
·
2022-11-27 04:01
神经网络
python
深度学习
人工智能
pytorch
PyTorch学习
笔记(七) ---- 小试牛刀
转载请注明作者和出处:http://blog.csdn.net/john_bh/文章目录1.PyTorch主要特征2.张量2.1基于Numpy实现网络2.2PyTorch:张量3.自动求导3.1PyTorch:张量和自动求导3.2PyTorch:定义新的自动求导函数3.3TensorFlow:静态图4.nn模块4.1PyTorch:nn4.2PyTorch:optim4.3PyTorch:自定义n
john_bh
·
2022-11-27 04:59
PyTorch
PyTorch
PyTorch学习笔记
PyTorch之小试牛刀
PyTorch
nn模块
PyTorch:张量和自动求导
上一页
13
14
15
16
17
18
19
20
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他