E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
PyTorch学习笔记
PyTorch学习笔记
之基础函数篇(四)
文章目录2.8torch.logspace函数讲解2.9torch.ones函数2.10torch.rand函数2.11torch.randn函数2.12torch.zeros函数2.8torch.logspace函数讲解torch.logspace函数在PyTorch中用于生成一个在对数尺度上均匀分布的张量(tensor)。这意味着张量中的元素是按照对数间隔排列的,而不是线性间隔。这对于创建在数
熊猫Devin
·
2024-03-17 16:54
深度学习之PyTorch
pytorch
学习
笔记
pytorch学习笔记
(2)--Tensor
系列文章
pytorch学习笔记
(1)–QUICKSTART
pytorch学习笔记
(2)–Tensor
pytorch学习笔记
(3)–数据集与数据导入
pytorch学习笔记
(4)–创建模型(BuildModel
ToToBe
·
2024-02-03 20:50
pytorch
笔记
1024程序员节
PyTorch学习笔记
(三):softmax回归
PyTorch学习笔记
(三):softmax回归softmax回归分类问题softmax回归模型单样本分类的矢量计算表达式小批量样本分类的矢量计算表达式交叉熵损失函数模型预测及评价小结Torchvision
FriendshipT
·
2024-02-02 09:15
PyTorch学习笔记
pytorch
回归
深度学习
softmax
PyTorch学习笔记
1
训练过程importtorch#batch_size,input_dimension,hidden_dimension,output_dimensionN,D_in,H,D_out=64,1000,100,10#模拟一个训练集x=torch.randn(N,D_in)y=torch.randn(N,D_out)#模型定义有多种方式,这里不提model#loss函数定义loss_fn=torch.n
zt_d918
·
2024-01-30 23:45
小土堆
pytorch学习笔记
004
目录1、神经网络的基本骨架-nn.Module的使用2、卷积操作实例3、神经网络-卷积层4、神经网络-最大池化的使用(1)最大池化画图理解:(2)代码实现:5、神经网络-非线性激活(1)代码实现(调用sigmoid函数)6、神经网络-线性层(1)代码7、网络搭建-小实战(1)完整代码1、神经网络的基本骨架-nn.Module的使用官网地址:pytorch里的nnimporttorchfromtor
柠檬不萌只是酸i
·
2024-01-28 00:52
深度学习
pytorch
学习
笔记
机器学习
深度学习
小土堆
pytorch学习笔记
003 | 下载数据集dataset 及报错处理
目录1、下载数据集2、展示数据集里面的内容3、DataLoader的使用例子:结果展示:1、下载数据集#数据集importtorchvisiontrain_set=torchvision.datasets.CIFAR10(root="./test10_dataset",train=True,download=True)test_set=torchvision.datasets.CIFAR10(ro
柠檬不萌只是酸i
·
2024-01-28 00:22
深度学习
人工智能
深度学习
机器学习
pytorch
python
小土堆
pytorch学习笔记
005 | 完结,✿✿ヽ(°▽°)ノ✿
目录1、损失函数与反向传播2、如何在搭建的网络中使用损失函数呢?3、优化器4、现有网络模型的使用及修改例子:5、模型训练保存+读取(1)保存(2)读取6、完整的模型训练:(1)代码【model文件】:【主文件】:(2)运行截图:(3)绘图展示:(4)添加训练正确率的完整代码:(5)总结!!!:(6)使用GPU训练7、完整模型验证(1)代码(2)运行结果1、损失函数与反向传播①计算实际输出和目标之间
柠檬不萌只是酸i
·
2024-01-28 00:22
深度学习
学习
笔记
pytorch
机器学习
深度学习
小土堆
pytorch学习笔记
002
目录1、TensorBoard的使用(1)显示坐标:(2)显示图片:2、Transform的使用3、常见的Transforms(1)#ToTensor()(2)#Normalize()(3)#Resize()(4)#Compose()4、总结:1、TensorBoard的使用(1)显示坐标:fromtorch.utils.tensorboardimportSummaryWriterimportnu
柠檬不萌只是酸i
·
2024-01-28 00:50
深度学习
pytorch
学习
笔记
【pytorch】
pytorch学习笔记
(续2)
p30:1.均方差(MeanSquaredError,MSE):(1)注意区分MSE和L2范数:L2范数要开根号,而MSE不需要开根号。用torch.norm函数求MSE的时候不要忘记加上pow(2)。求导:pytorch实现自动求导:第一种方法:torch.autograd.grad()设置w需要求导有两种方法:(1)在创建w之后,用来设置w需要求导。(2)在创建w的时候,用w=torch.te
小白冲鸭
·
2024-01-26 18:04
pytorch
学习
笔记
【pytorch】
pytorch学习笔记
(续1)
p22:1.加减乘除:(1)add(a,b):等同于a+b。(2)sub(a,b):等同于a-b。(3)mul(a,b):等同于a*b。(4)div(a,b):等同于a/b。a//b表示整除。2.tensor的矩阵式相乘:matmul注意区分:(1)*:表示相同位置的元素相乘;(2).matmul:表示矩阵相乘。对于(2)矩阵的相乘,有三种方式:(1)torch.mm:只适用于二维的tensor,
小白冲鸭
·
2024-01-26 18:04
pytorch
学习
笔记
【pytorch】
pytorch学习笔记
(实践)p5:线性回归问题中损失函数为什么要使用均方误差?均方误差:即误差的平方和的平均数。p8:1.pytorch不是一个完备的语言库,而是一个对于数据的gpu加速库,所以其没有对string的内键支持,即pytorch的基本类型中不包含string。2.pytorch表示string的方法:(1)onehotencoding问题:1)两个单词之间的相关性并没有在onehot编码中得到体现;2)
小白冲鸭
·
2024-01-26 18:34
pytorch
学习
笔记
【pytorch】
pytorch学习笔记
(续3)
p41:1.LeakReLU,SELU,softplus2.GPU加速:.to方法p42:不太懂p43:1.visdom,tensorbroadXp44:p45:1.如何检测过拟合?在train上表现很好,而在test上表现不好。test的目的(没有valset的时候):防止过拟合,选取最优参数。相当于是验证集。一般选取testaccuracy最高的那点停止训练,作为最优参数。p46:1.trai
小白冲鸭
·
2024-01-26 18:03
pytorch
学习
笔记
小土堆
pytorch学习笔记
001
1、Pytorch环境的配置与安装。(1)建议安装:Anaconda(2)检查显卡:GPU(3)管理环境(不同版本的pytorch版本不同):condacreate-npytorchpython=3.6(4)检测自己的电脑是否可以使用:2、pytorch编辑器的选择(1)pycharm(下载社区版)(2)jupyter(可以交互)启动本地的jupyter:3、为什么torch.cuda.is_av
柠檬不萌只是酸i
·
2024-01-24 19:11
深度学习
pytorch
学习
笔记
Pytorch学习笔记
(2) Autograd(自动求导) —— PyTorch的核心
本文是Pytorch快速入门第二部分,主要学习记录,主要翻译PytorchAutograd部分教程原文autograd包是PyTorch中神经网络的核心部分。torch.autograd提供了类和函数,用来对任意标量函数进行求导。要想使用自动求导,只需要对已有的代码进行微小的改变。只需要将所有的tensor包含进Variable对象中即可。一、Tensor(张量)torch.Tensor是程序包的
银色尘埃010
·
2024-01-24 10:53
pytorch学习笔记
(十)
一、损失函数举个例子比如说根据Loss提供的信息知道,解答题太弱了,需要多训练训练这个模块。Loss作用:1.算实际输出和目标之间的差距2.为我们更新输出提供一定的依据(反向传播)看官方文档每个输入输出相减取平均取绝对值再取平均第一个损失函数:L1Loss(差的绝对值取平均)需要注意输入输出N=batch_size你有多少个数据第一个损失函数:MSELoss(平方差误差,平方取平均)稳妥的写法是先
満湫
·
2024-01-23 10:45
学习
笔记
pytorch学习笔记
(八)
Sequential看看搭建了这个能不能更容易管理,CIFAR-10数据集进行看一下网络模型CIFAR-10模型123456789输入进过一次卷积,然后经过一次最大池化,尺寸变成16*16了,在经过一次卷积尺寸没变,紧接着进过了一次最大池化,变成了8*8,再经过一次卷积通道数改变32→64,再经过一次池化变成4*4,然后展平,最后输出。(1-2)根据图里面看,32×32经过卷积后的尺寸仍然是32×
満湫
·
2024-01-23 10:14
pytorch
学习
笔记
pytorch学习笔记
(十一)
优化器学习把搭建好的模型拿来训练,得到最优的参数。importtorch.optimimporttorchvisionfromtorchimportnnfromtorch.nnimportSequential,Conv2d,MaxPool2d,Flatten,Linearfromtorch.utils.dataimportDataLoaderdataset=torchvision.datasets
満湫
·
2024-01-23 10:12
pytorch
学习
笔记
pytorch学习笔记
(五)
关注不同的方法输入是什么类型,输出是什么类型。1.Compose主要关注初始化函数从作用内置call的调用方法两种,第一种,直接使用对象,不用使用点,直接调用的是__call__当要调用的时候直接写个Person()按住ctrl+P看看需要填啥参数。2.Totensor的使用输出结果如下3.Normalize归一化输入必须要tensor的均值,标准差,然后看图片的维度计算4.Resize给定的是一
満湫
·
2024-01-12 23:18
学习
笔记
pytorch学习笔记
torchvision处理图像的pytorch官网上看数据集的包,COCO数据集目标检测、语义分割,cifar物体识别预训练好的模型这个模块是图片的处理root-位置,train-创建的true是个训练集,transform前面是输出图片的数据类型,“3”是targetimporttorchvisionfromtorch.utils.tensorboardimportSummaryWriterda
満湫
·
2024-01-12 23:18
pytorch
学习
人工智能
pytorch学习笔记
(七 )
池化类似压缩最大池化-上采样例如给一个3的话就会生成一个3×3的窗口(生成相同的高和宽),给一个tuple就会给出一个相同的池化核。stride默认值就是核的大小dilation在卷积dialation设置之后每一个会和另外的差一个,空洞卷积ceilfloor模式(天花板、地板)floor就是向下取整。按下面的方法走,走的步数默认为核的大小取9个里面的最大值,走到右一图,这种情况只能覆盖6个,其他
満湫
·
2024-01-12 23:13
pytorch
学习
笔记
pytorch学习笔记
(一)
1、今天在学习60分钟pytorchtutorial中2、zip就是把2个数组糅在一起x=[1,2,3,4,5]y=[6,7,8,9,10]zip(x,y)[(1,6),(2,7),(3,8),(4,9),(5,10)]还可以方便建立字典。x=['bob','tom','kitty']>>>y=[80,90,95]>>>d=dict(zip(x,y))[('bob',80),('tom',90),
乌拉圭没有壳
·
2024-01-09 00:57
Pytorch学习笔记
| GAN生成对抗网络 | 代码 | 生成mnist手写数字图片
文章目录GAN网络简介测试判别器和测试生成器测试判别器测试生成器首次生成图片(效果欠佳)生成图片(比较清晰,但还有差距)生成图片(继续优化,输入扩维)生成图片(继续优化,)GAN网络简介生成对抗网络(GAN,GenerativeAdversarialNetworks)是一种深度学习模型,由IanGoodfellow和他的同事在2014年首次提出。GAN是一种非常强大和独特的神经网络架构,用于生成新
惊鸿若梦一书生
·
2023-12-24 10:09
Python深度学习
pytorch
学习
笔记
『
PyTorch学习笔记
』分布式深度学习训练中的数据并行(DP/DDP) VS 模型并行
分布式深度学习训练中的数据并行(DP/DDP)VS模型并行文章目录一.介绍二.并行数据加载2.1.加载数据步骤2.2.PyTorch1.0中的数据加载器(Dataloader)三.数据并行3.1.DP(DataParallel)的基本原理3.1.1.从流程上理解3.1.2.从模式角度理解3.1.3.从操作系统角度看3.1.4.低效率3.2.DDP(DistributedDataParallel)的
AI新视界
·
2023-12-04 16:15
Pytorch学习笔记
pytorch
数据并行
模型并行
Data
Parallel
Pytorch学习笔记
——autograd
一、神经网络神经网络就是一个”万能的模型+误差修正函数“,每次根据训练得到的结果与预想结果进行误差分析,进而修改权值和阈值,一步一步得到能输出和预想结果一致的模型。机器学习可以看做是数理统计的一个应用,在数理统计中一个常见的任务就是拟合,也就是给定一些样本点,用合适的曲线揭示这些样本点随着自变量的变化关系。深度学习同样也是为了这个目的,只不过此时,样本点不再限定为(x,y)点对,而可以是由向量、矩
岳野
·
2023-12-04 00:46
学习笔记
python
机器学习
深度学习
PyTorch学习笔记
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录学习目标学习内容:一pytorch深度学习方法二构建一个简单神经网络三深度学习工作流和pytorch生态系统四基于pytorch构建CNN五RNN以及序列数据处理六生成对抗网络七强化学习八将pytorch用用于生产三种不同的方法总结学习目标4月份到来之前学完《PorTorch深度学习实战》学习内容:一pytorch深度学习方法
欢桑
·
2023-11-30 09:14
pytorch
学习
深度学习
Pytorch学习笔记
(4)—LSTM序列生成模型
文章目录前言主要内容一、序列生成问题解决方法二、RNN的引入三、LongShortTermMemory(LSTM)4、序列生成音乐本文引用:前言掌握使用PyTorch构建LSTM模型的方法掌握使用LSTM生成MIDI音乐的方法主要内容如何用神经网络做序列生成?RNN与LSTM的工作原理RNN是如何记忆Pattern的?MIDI音乐的原理如何用LSTM作曲一、序列生成问题解决方法将生成问题转化成一个
llddycidy
·
2023-11-29 09:27
Pytorch学习笔记
pytorch
学习
笔记
PyTorch学习笔记
(二)——TensorBoard
1用途1、训练过程中loss是如何变化的,是否正常或是否按预想的变化,选择什么样的模型2、模型在不同阶段的输出2需要导入的类和常用的方法fromtorch.utils.tensorboardimportSummaryWriterwriter.add_image()writer.add_scalar()查看SummaryWriter的官方文档直接向log_dir文件夹写入事件文件,可以被Tensor
routine1o1oo
·
2023-11-28 01:18
pytorch
【
pytorch学习笔记
03】pytorch完整模型训练套路
B站我是土堆视频学习笔记,链接:https://www.bilibili.com/video/BV1hE411t7RN/?spm_id_from=333.999.0.01.准备数据集train_data=torchvision.datasets.CIFAR10(root='./dataset',train=True,transform=torchvision.transforms.ToTensor
yierrrrr
·
2023-11-21 13:23
DL学习笔记
pytorch
学习
笔记
PyTorch学习笔记
1.item()→number方法:item()返回一个数只能用于只包含一个元素的张量。对于其他的张量,请查看方法tolist().该操作是不可微分的,即不可求导.(译者注:返回的结果是普通Python数据类型,自然不能调用backward()方法来进行梯度的反向传播)Example:例子:>>>x=torch.tensor([1.0])>>>x.item()1.02.Tensor(张量)中包含d
Junoxiang
·
2023-11-20 17:47
pytorch
学习
笔记
PyTorch学习笔记
(4)--神经网络模型的保存和导入
1.numpy矩阵的保存importnumpyasnpa=np.array(2)np.save("nm.npy",a)a=np.load("nm.npy")2.模型的保存和导入将训练好的模型和参数保存下来,下一次使用的时候直接导入模型和参数,和一个已经训练好的神经网络模型一样保存模型importtorch#保存整个神经网络的结构和模型参数torch.save(mymodel,'mymodel.pk
别管我啦就是说
·
2023-11-11 08:00
Pytorch学习笔记
python
pytorch
PyTorch学习笔记
:nn.Sigmoid——Sigmoid激活函数
PyTorch学习笔记
:nn.Sigmoid——Sigmoid激活函数torch.nn.Sigmoid()功能:逐元素应用Sigmoid函数对数据进行激活,将元素归一化到区间(0,1)内函数方程:Sigmoid
视觉萌新、
·
2023-11-11 01:46
PyTorch学习笔记
pytorch
学习
深度学习
Pytorch学习笔记
(1)检查torch、cuda,张量的创建
lesson1检查torch、cudaimporttorch#打印torch版本print("HelloWorld,HelloPyTorch{}".format(torch.__version__))#打印cuda是否可用,打印cuda版本print("\nCUDAisavailable:{},versionis{}".format(torch.cuda.is_available(),torch.
小帅吖
·
2023-11-09 05:50
Pytorch学习笔记
python
pytorch
深度学习
PyTorch学习笔记
:nn.ReLU——ReLU激活函数
PyTorch学习笔记
:nn.ReLU——ReLU激活函数torch.nn.ReLU(inplace=False)功能:逐元素应用ReLU函数对数据进行激活函数方程:ReLU(x)=(x)+=max(
视觉萌新、
·
2023-11-08 06:08
PyTorch学习笔记
pytorch
学习
深度学习
Pytorch学习笔记
目录目录一、Anaconda+pytorch(GPU版)安装及注意事项Anaconda新建环境安装pytorch(GPU版)版本匹配清华源大坑!!!!pycharm中切换终端环境二、TensorBoard数据可视化2.1安装2.2TensorBoard使用流程pytorch代码部分终端部分2.3官方帮助*三、Transforms使用3.1结构及作用3.2常用类ComposeToTensor3.3为
Int mian[]
·
2023-11-07 18:58
pytorch
神经网络
深度学习
卷积神经网络
人工智能
Pytorch学习笔记
--torch.autograd.Function的使用
目录1--前言2--代码实例2-1--e^x函数实现2-2--linear函数实现3--参考1--前言构建可连续求导的神经网络时,往往会继承nn.Module类,此时只需重写__init__和forward函数即可,pytorch会自动求导;构建不可连续求导的神经网络时,可以继承torch.autograd.Function类,此时需要重写forward函数和backward函数,其中backwa
晓晓纳兰容若
·
2023-11-02 06:25
Pytorch学习笔记
pytorch
Pytorch学习笔记
--常用函数nn.init.normal()、nn.init.constant_()、torch.from_numpy()、torch.index_select()总结4
目录1--torch.nn.init.normal()和torch.nn.init.constant_()函数2--torch.from_numpy()函数3--torch.index_select()函数1--torch.nn.init.normal()和torch.nn.init.constant_()函数torch.nn.init.normal()函数:torch.nn.init.norma
晓晓纳兰容若
·
2023-10-28 21:10
Pytorch学习笔记
pytorch
深度学习
python
PyTorch学习笔记
(8)--神经网络:非线性激活
PyTorch学习笔记
(8)–神经网络:非线性激活 本博文是PyTorch的学习笔记,第8次内容记录,主要介绍神经网络非线性激活函数的基本使用。
我这一次
·
2023-10-25 11:18
PyTorch学习笔记
python
pytorch
神经网络
【Pytorch】
Pytorch学习笔记
02 - 单变量时间序列 LSTM
目录说明简单神经网络LSTM原理PytorchLSTM生成数据初始化前向传播方法训练模型自动化模型构建总结参考文献说明这篇文章主要介绍如何使用PyTorch的API构建一个单变量时间序列LSTM。文章首先介绍了LSTM,解释了它们在时间序列数据中的简单性和有效性。然后,文章解释了如何使用前向方法初始化LSTM,包括定义输入和输出形状,训练模型以及自动化模型构建。最后,文章总结了从头构建LSTM所涉
KmBase
·
2023-10-25 07:46
#
机器学习
1024程序员节
Pytorch
LSTM
Pytorch学习笔记
:RNN的原理及其手写复现
目录参考链接如下:RNN网络模型结构单向循环神经网络双向循环神经网络RNN应用场景类型onetomany(例如诗歌生成)manytoone(文本情感分类)manytomany(词法识别,机器翻译)Pytorch官网RNN介绍参数单向单层双向单层比较双向单层和单向单层单向RNN与双向RNN的逐行实现参考链接如下:视频链接:29、PyTorchRNN的原理及其手写复现_哔哩哔哩_bilibili博客链
后来后来啊
·
2023-10-21 16:12
pytorch
学习
笔记
PyTorch学习笔记
(五):模型选择、欠拟合、过拟合和应对方法
PyTorch学习笔记
(五):模型选择、欠拟合、过拟合和应对方法模型选择、欠拟合和过拟合训练误差和泛化误差模型选择验证数据集KKK折交叉验证欠拟合和过拟合模型复杂度训练数据集大小多项式函数拟合实验生成数据集定义
FriendshipT
·
2023-10-05 18:16
PyTorch学习笔记
深度学习
人工智能
过拟合
pytorch梯度下降函数_
PyTorch学习笔记
2 - 梯度下降
1在numpy和pytorch实现梯度下降法(线性回归)梯度下降法的一般步骤为:(1)设定初始值(2)求取梯度(3)在梯度方向上进行参数的更新1.1Numpy版本假设欲拟合的目标函数为y=2*x1-4*x2.这是一个2元线性函数,自变量x是2维向量。通过梯度下降求解最优参数的代码如下:importnumpyasnpimportmatplotlib.pyplotaspltfrommpl_toolki
weixin_39636057
·
2023-10-03 23:47
pytorch梯度下降函数
Pytorch学习笔记
——梯度下降算法
随机梯度下降算法的Python代码实现。与梯度下降算法不同的是随机梯度下降算法,随机梯度下降算法(SGD,StochasticGradientDescent)是从样本中每轮随机选一个。这样做的好处是:若在鞍点时,在梯度下降算法中,使用的是所有样本(可能带有噪声的)计算为0,必不可能向前推动。而使用单个样本计算出来,不一定是每一个都会计算为0,有随机噪声会更好的推进向前。也就是如果取所有样本的话,是
DK_521
·
2023-10-03 23:46
Deep
Learning
pytorch
算法
深度学习
PyTorch学习笔记
(四):Tensor合并与分割
cata=torch.rand(4,32,8)b=torch.rand(5,32,8)print(torch.cat([a,b],dim=0).shape)#torch.Size([9,32,8])stack:createnewdima=torch.rand(32,8)b=torch.rand(32,8)print(torch.stack([a,b],dim=0).shape)#torch.Siz
ICDAT_GO
·
2023-09-26 19:42
PyTorch学习笔记
数据挖掘
pytorch
tensorflow
pytorch学习笔记
——BCE与CE
BCELoss的话只需要网络输出一个通道,CELoss(CrossEntropyLoss)需要输出n_class个通道。对于二分类任务可以使用CELoss输出两个通道,也可以使用BCELoss输出一个通道。https://www.jianshu.com/p/5b01705368bbhttps://zhuanlan.zhihu.com/p/372628727https://zhuanlan.zhih
phily123
·
2023-09-26 05:32
pytorch
学习
笔记
Pytorch学习笔记
(模型验证/测试)
模型验证模型验证(测试,demo):利用已经训练好的模型,然后给它提供输入进行测试验证。importtorchimporttorchvision.transformsfromPILimportImagefromtorchimportnn#需要测试的图片image_path="../imgs/airplane.png"image=Image.open(image_path)image=image.c
高 朗
·
2023-09-23 03:38
pytorch
pytorch
model
test
PyTorch学习笔记
(四) -------卷积层
什么是卷积?来看这张图输入图像是224*224*3即图片尺寸是224*224,3个通道;输出图片尺寸是224*224,64个通道个人认为,卷积就是图片经过卷积核的映射过程,如下图所示什么是通道?在卷积操作中一般要求设置的in_channel和out_channel在一遍jpg,png图片中,in_channel=3,为RGB三个通道,RGB的不同可以调整图片的色彩out_channel则表示卷积核
清忖灬
·
2023-09-21 01:27
PyTorch深度学习
pytorch
深度学习
机器学习
PyTorch学习笔记
(五) ---------最大池化和非线性激活
一、最大池化类似于卷积操作,这里最大池化的过程与卷积有部分相似之处,不多赘述最大池化是为了保留数据特征,减少数据量classModule(nn.Module):def__init__(self):super(Module,self).__init__()#父类继承self.maxpool1=MaxPool2d(kernel_size=3,ceil_mode=True)#kernel_size=3表
清忖灬
·
2023-09-21 01:57
PyTorch深度学习
pytorch
深度学习
机器学习
Pytorch学习笔记
(模型训练)
模型训练在同一个包下创建train.py和model.py,按照步骤先从数据处理,模型架构搭建,训练测试,统计损失,如下面代码所示train.pyimporttorch.optimimporttorchvisionfromtorchimportnnfromtorch.utils.dataimportDataLoaderfromtorch.utils.tensorboardimportSummary
高 朗
·
2023-09-17 00:42
pytorch
pytorch
python
模型训练
小土堆
pytorch学习笔记
想入门pytorch强化学习,就去找pytorch的课来看。B站上播放量最高的就是小土堆的课,整体跟下来感觉内容还是很详细的,但和我的预期不太一样,这个是DL的不是RL的,不过作为对于pytorch使用的初期了解也是很好的,这篇博客就把整个学习过程做一个梳理。 注意:本笔记使用的数据集全部都是CIFAR10,下载比较简单~,下面开始数据读取 在读取之前,需要先准备好数据了,对于CIFAR1
DWQY
·
2023-09-15 09:43
pytorch
pytorch
学习
笔记
PyTorch学习笔记
:nn.SmoothL1Loss——平滑L1损失
PyTorch学习笔记
:nn.SmoothL1Loss——平滑L1损失torch.nn.SmoothL1Loss(size_average=None,reduce=None,reduction='mean
视觉萌新、
·
2023-09-13 09:09
PyTorch学习笔记
pytorch
学习
深度学习
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他