E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
pytorch学习
PyTorch学习
(13):PyTorch的张量相乘(torch.matmul)
PyTorch学习
(1):torch.meshgrid的使用-CSDN博客
PyTorch学习
(2):torch.device-CSDN博客
PyTorch学习
(9):torch.topk-CSDN博客
PyTorch
赛先生.AI
·
2024-09-08 16:02
PyTorch
pytorch
PyTorch实现CIFAR-10分类代码
这篇是
PyTorch学习
之路第七篇,用于记录PyTorch实现CIFAR-10分类代码(书上的代码有好多冗余)目录完整代码(还未训练)完整代码(已训练,直接载入模型)下面实例数据集位于:C:\Users
曹勖之
·
2024-08-28 04:56
PyTorch学习之路
深度学习
pytorch
PyTorch学习
笔记之基础函数篇(四)
文章目录2.8torch.logspace函数讲解2.9torch.ones函数2.10torch.rand函数2.11torch.randn函数2.12torch.zeros函数2.8torch.logspace函数讲解torch.logspace函数在PyTorch中用于生成一个在对数尺度上均匀分布的张量(tensor)。这意味着张量中的元素是按照对数间隔排列的,而不是线性间隔。这对于创建在数
熊猫Devin
·
2024-03-17 16:54
深度学习之PyTorch
pytorch
学习
笔记
深入浅出
PyTorch学习
网址
https://datawhalechina.github.io/thorough-pytorch/
今天是学习的一天
·
2024-02-23 19:38
人工智能
Pytorch学习
记录-接近人类水平的GEC(使用混合机器翻译模型)
五月第二周要结束了,接下来的三个月主要是文献阅读,准备8、9月的开题报告,技术类的文献集中在GEC和Textmaching的应用方面,读完之后找demo复现,然后应用。理论方面的论文也都是英文的8.NearHuman-LevelPerformanceinGrammaticalErrorCorrectionwithHybridMachineTranslation昨天一天没看论文,发现我文献阅读速度太
我的昵称违规了
·
2024-02-20 16:04
Pytorch学习
准备_Pycharm及Jupyter使用
已经创建环境pytorch01,可参考http://t.csdnimg.cn/KwJvh一.pytorch环境查看打开AnacondaPrompt进入pytorch01环境condaactivatepytorch01列出这个环境下的工具包piplist二.Pycharm打开,创建新项目2.1选择“现有指示器"(笔者使用此法未成功,使用的是2.2)找到你自己的pytorch位置笔者如图可以看到解释器
写点什么呢
·
2024-02-14 17:02
学习记录
pytorch
学习
人工智能
python
pycharm
Pytorch学习
01_加载数据初认识
一.Dataset新建py文件fromtorch.utils.dataimportDataset可以按住”Ctrl“,鼠标左键点击Dataset,可以打开Dataset的定义及其内部函数二.编写引用cv2模块终端运行pipinstallopencv-python然后就可以引用cv2模块importcv2引用ImagefromPILimportImage数据集链接https://pan.baidu.
写点什么呢
·
2024-02-14 17:02
pytorch
学习
人工智能
python
pycharm
pip
ipython
Pytorch学习
02_TensorBoard使用01
更换编辑器找到自己的Anaconda安装路径下envs\pytorch01中的oython.exe,pytorch01是笔者自己创建的pytorch环境名选择好后,点击确定点击“应用”,再点击“确定”在pytorch环境下安装tensorboardpipinstallpytorch安装结束writer.add_scalar("y=x",i,i)运行如下内容fromtorch.utils.tenso
写点什么呢
·
2024-02-14 17:02
学习记录
pytorch
学习
人工智能
python
pycharm
Pytorch学习
03_TensorBoard使用02
Opencv读取图片,获得numpy型数据类型复制图片的相对路径目前这种type不适用,考虑用numpy类型安装opencv,在pytorch环境下pipinstallopencv-python导入numpyimportnumpyasnp将PIL类型的img转换为NumPy数组img_array=np.array(img)HWC三通道H:高度W:宽度C:通道fromtorch.utils.tens
写点什么呢
·
2024-02-14 17:30
学习记录
pytorch
学习
人工智能
pycharm
python
【
pytorch学习
】关于torch.nn.MaxPool2d和torch.nn.functional.max_pool2d
两者之间的区别与联系首先给出结论,torch.nn.MaxPool2d和torch.nn.functional.max_pool2d两者本质上是一样的。具体可以参考torch.nn.MaxPool2d的源代码,核心源代码如下所示:from..importfunctionalasFclassMaxPool2d(_MaxPoolNd):kernel_size:_size_2_tstride:_size
你好,我老婆不吃香菜
·
2024-02-10 16:54
pytorch
深度学习
Pytorch学习
记录-GEC语法纠错
Pytorch学习
记录-GEC语法纠错01五月第一周要结束了,接下来的三个月主要是文献阅读,准备8、9月的开题报告,技术类的文献集中在GEC和Textmaching的应用方面,读完之后找demo复现,然后应用
我的昵称违规了
·
2024-02-08 05:49
PyTorch(超详细)部署与激活 举起Python火炬,点亮智慧人生【Windows版】
AI时代,我们不仅要学习Python,同时机器学习,深度学习利器也要逐步掌握,再次开始
Pytorch学习
教程记录。
心安成长
·
2024-02-06 14:04
PyTorch
python
pytorch
windows
Pytorch学习
记录-卷积Seq2Seq(模型训练)
Pytorch学习
记录-torchtext和Pytorch的实例50.PyTorchSeq2Seq项目介绍在完成基本的torchtext之后,找到了这个教程,《基于Pytorch和torchtext来理解和实现
我的昵称违规了
·
2024-02-06 03:47
Python-
Pytorch学习
记录
目录1.python-pycharm下载安装2.VSCode下载安装3.MATLAB下载安装4.pytorch一条龙下载安装环境配置1.python-pycharm下载安装pycharm从安装到全副武装,学起来才嗖嗖的快,图片超多,因为过度详细!_pycharm下载和环境配置-CSDN博客https://chuanchuan.blog.csdn.net/article/details/119934
yt_0618
·
2024-02-05 12:39
学习
pytorch学习
笔记(2)--Tensor
系列文章
pytorch学习
笔记(1)–QUICKSTART
pytorch学习
笔记(2)–Tensor
pytorch学习
笔记(3)–数据集与数据导入
pytorch学习
笔记(4)–创建模型(BuildModel
ToToBe
·
2024-02-03 20:50
pytorch
笔记
1024程序员节
PyTorch学习
笔记(三):softmax回归
PyTorch学习
笔记(三):softmax回归softmax回归分类问题softmax回归模型单样本分类的矢量计算表达式小批量样本分类的矢量计算表达式交叉熵损失函数模型预测及评价小结Torchvision
FriendshipT
·
2024-02-02 09:15
PyTorch学习笔记
pytorch
回归
深度学习
softmax
PyTorch学习
:加载模型和参数
1.直接加载模型和参数加载别人训练好的模型:#保存和加载整个模型torch.save(model_object,'resnet.pth')model=torch.load('resnet.pth')2.分别加载网络的结构和参数#将my_resnet模型储存为my_resnet.pthtorch.save(my_resnet.state_dict(),"my_resnet.pth")#加载resne
TravelingLight77
·
2024-02-01 18:24
DL
Pytorch
pytorch
深度学习
神经网络
PyTorch学习
笔记1
训练过程importtorch#batch_size,input_dimension,hidden_dimension,output_dimensionN,D_in,H,D_out=64,1000,100,10#模拟一个训练集x=torch.randn(N,D_in)y=torch.randn(N,D_out)#模型定义有多种方式,这里不提model#loss函数定义loss_fn=torch.n
zt_d918
·
2024-01-30 23:45
第二十九周:文献阅读笔记(ResMLP)+
pytorch学习
(Resnet代码实现)
方法1.3.1整体流程1.3.2残差多感知机层1.4实验1.4.1数据集1.4.2超参数设置1.4.3主要结果1.4.4监督设置1.4.5自监督设置1.4.5知识蒸馏设置1.5ResMLP的创新点2.
pytorch
@默然
·
2024-01-30 03:01
笔记
pytorch
学习
人工智能
python
深度学习
机器学习
第二十八周:文献阅读笔记(弱监督学习)+
pytorch学习
弱监督学习1.1.文献摘要1.2.引言1.3.不完全监督1.3.1.主动学习与半监督学习1.3.2.通过人工干预1.3.3.无需人工干预1.4.不确切的监督1.5.不准确的监督1.6.弱监督学习的创新点2.
pytorch
@默然
·
2024-01-30 03:31
笔记
学习
pytorch
深度学习
人工智能
python
第二十九周:文献阅读笔记(DenseNet)+
pytorch学习
第二十九周:文献阅读笔记(DenseNet)+
pytorch学习
摘要Abstract1、DenseNet文献阅读1.1文献摘要1.2文献引言1.3DenseNets网络1.3.1残差网络1.3.2密集连接
@默然
·
2024-01-30 03:58
笔记
pytorch
学习
Pytorch学习
记录-Pytorch可视化使用tensorboardX
Pytorch学习
记录-Pytorch可视化使用tensorboardX在很早很早以前(至少一个半月),我做过几节关于tensorboard的学习记录。
我的昵称违规了
·
2024-01-29 11:20
PyTorch学习
---2.自动求梯度
自动求梯度首先给大家介绍几个基本概念:方向导数:是一个数;反映的是f(x,y)在P0点沿方向v的变化率。偏导数:是多个数(每元有一个);是指多元函数沿坐标轴方向的方向导数,因此二元函数就有两个偏导数。偏导函数:是一个函数;是一个关于点的偏导数的函数。梯度:是一个向量;每个元素为函数对一元变量的偏导数;它既有大小(其大小为最大方向导数),也有方向。摘自《方向导数与梯度》梯度从本质上来说也是导数的一种
与世无争小菜鸡
·
2024-01-29 05:53
pytorch学习
路径
微信公众号:诗人藏夜里参考了黄海广老师的[pytorch快速入门资料](https://zhuanlan.zhihu.com/p/87263048),并结合自身从0到1的学习经历,写下此pytorch入门路径本路径适合人群:深度学习初学者,深度学习框架初学者**欢迎拥抱最美DL框架**#1.[莫烦pytorch系列教程](https://morvanzhou.github.io/tutorials
诗人藏夜里
·
2024-01-28 07:46
小土堆
pytorch学习
笔记004
目录1、神经网络的基本骨架-nn.Module的使用2、卷积操作实例3、神经网络-卷积层4、神经网络-最大池化的使用(1)最大池化画图理解:(2)代码实现:5、神经网络-非线性激活(1)代码实现(调用sigmoid函数)6、神经网络-线性层(1)代码7、网络搭建-小实战(1)完整代码1、神经网络的基本骨架-nn.Module的使用官网地址:pytorch里的nnimporttorchfromtor
柠檬不萌只是酸i
·
2024-01-28 00:52
深度学习
pytorch
学习
笔记
机器学习
深度学习
小土堆
pytorch学习
笔记003 | 下载数据集dataset 及报错处理
目录1、下载数据集2、展示数据集里面的内容3、DataLoader的使用例子:结果展示:1、下载数据集#数据集importtorchvisiontrain_set=torchvision.datasets.CIFAR10(root="./test10_dataset",train=True,download=True)test_set=torchvision.datasets.CIFAR10(ro
柠檬不萌只是酸i
·
2024-01-28 00:22
深度学习
人工智能
深度学习
机器学习
pytorch
python
小土堆
pytorch学习
笔记005 | 完结,✿✿ヽ(°▽°)ノ✿
目录1、损失函数与反向传播2、如何在搭建的网络中使用损失函数呢?3、优化器4、现有网络模型的使用及修改例子:5、模型训练保存+读取(1)保存(2)读取6、完整的模型训练:(1)代码【model文件】:【主文件】:(2)运行截图:(3)绘图展示:(4)添加训练正确率的完整代码:(5)总结!!!:(6)使用GPU训练7、完整模型验证(1)代码(2)运行结果1、损失函数与反向传播①计算实际输出和目标之间
柠檬不萌只是酸i
·
2024-01-28 00:22
深度学习
学习
笔记
pytorch
机器学习
深度学习
小土堆
pytorch学习
笔记002
目录1、TensorBoard的使用(1)显示坐标:(2)显示图片:2、Transform的使用3、常见的Transforms(1)#ToTensor()(2)#Normalize()(3)#Resize()(4)#Compose()4、总结:1、TensorBoard的使用(1)显示坐标:fromtorch.utils.tensorboardimportSummaryWriterimportnu
柠檬不萌只是酸i
·
2024-01-28 00:50
深度学习
pytorch
学习
笔记
【pytorch】
pytorch学习
笔记(续2)
p30:1.均方差(MeanSquaredError,MSE):(1)注意区分MSE和L2范数:L2范数要开根号,而MSE不需要开根号。用torch.norm函数求MSE的时候不要忘记加上pow(2)。求导:pytorch实现自动求导:第一种方法:torch.autograd.grad()设置w需要求导有两种方法:(1)在创建w之后,用来设置w需要求导。(2)在创建w的时候,用w=torch.te
小白冲鸭
·
2024-01-26 18:04
pytorch
学习
笔记
【pytorch】
pytorch学习
笔记(续1)
p22:1.加减乘除:(1)add(a,b):等同于a+b。(2)sub(a,b):等同于a-b。(3)mul(a,b):等同于a*b。(4)div(a,b):等同于a/b。a//b表示整除。2.tensor的矩阵式相乘:matmul注意区分:(1)*:表示相同位置的元素相乘;(2).matmul:表示矩阵相乘。对于(2)矩阵的相乘,有三种方式:(1)torch.mm:只适用于二维的tensor,
小白冲鸭
·
2024-01-26 18:04
pytorch
学习
笔记
【pytorch】
pytorch学习
笔记
(实践)p5:线性回归问题中损失函数为什么要使用均方误差?均方误差:即误差的平方和的平均数。p8:1.pytorch不是一个完备的语言库,而是一个对于数据的gpu加速库,所以其没有对string的内键支持,即pytorch的基本类型中不包含string。2.pytorch表示string的方法:(1)onehotencoding问题:1)两个单词之间的相关性并没有在onehot编码中得到体现;2)
小白冲鸭
·
2024-01-26 18:34
pytorch
学习
笔记
【pytorch】
pytorch学习
笔记(续3)
p41:1.LeakReLU,SELU,softplus2.GPU加速:.to方法p42:不太懂p43:1.visdom,tensorbroadXp44:p45:1.如何检测过拟合?在train上表现很好,而在test上表现不好。test的目的(没有valset的时候):防止过拟合,选取最优参数。相当于是验证集。一般选取testaccuracy最高的那点停止训练,作为最优参数。p46:1.trai
小白冲鸭
·
2024-01-26 18:03
pytorch
学习
笔记
pytorch学习
3——卷积神经网络
错题:全连接层解析:图像展平后长度为3×256×256,权重参数和偏置参数的数量是3×256×256×1000+1000=196609000。,前面是权重参数,后面的1000是偏执参数数量2.池化层基础问题解析:选项1:错误,池化层有参与模型的正向计算,同样也会参与反向传播选项2:正确,池化层直接对窗口内的元素求最大值或平均值,并没有模型参数参与计算循环神经网络描述解析:选项1:批量训练的过程中,
柠檬酸的很
·
2024-01-25 04:16
小土堆
pytorch学习
笔记001
1、Pytorch环境的配置与安装。(1)建议安装:Anaconda(2)检查显卡:GPU(3)管理环境(不同版本的pytorch版本不同):condacreate-npytorchpython=3.6(4)检测自己的电脑是否可以使用:2、pytorch编辑器的选择(1)pycharm(下载社区版)(2)jupyter(可以交互)启动本地的jupyter:3、为什么torch.cuda.is_av
柠檬不萌只是酸i
·
2024-01-24 19:11
深度学习
pytorch
学习
笔记
Pytorch学习
笔记(2) Autograd(自动求导) —— PyTorch的核心
本文是Pytorch快速入门第二部分,主要学习记录,主要翻译PytorchAutograd部分教程原文autograd包是PyTorch中神经网络的核心部分。torch.autograd提供了类和函数,用来对任意标量函数进行求导。要想使用自动求导,只需要对已有的代码进行微小的改变。只需要将所有的tensor包含进Variable对象中即可。一、Tensor(张量)torch.Tensor是程序包的
银色尘埃010
·
2024-01-24 10:53
pytorch学习
笔记(十)
一、损失函数举个例子比如说根据Loss提供的信息知道,解答题太弱了,需要多训练训练这个模块。Loss作用:1.算实际输出和目标之间的差距2.为我们更新输出提供一定的依据(反向传播)看官方文档每个输入输出相减取平均取绝对值再取平均第一个损失函数:L1Loss(差的绝对值取平均)需要注意输入输出N=batch_size你有多少个数据第一个损失函数:MSELoss(平方差误差,平方取平均)稳妥的写法是先
満湫
·
2024-01-23 10:45
学习
笔记
pytorch学习
笔记(八)
Sequential看看搭建了这个能不能更容易管理,CIFAR-10数据集进行看一下网络模型CIFAR-10模型123456789输入进过一次卷积,然后经过一次最大池化,尺寸变成16*16了,在经过一次卷积尺寸没变,紧接着进过了一次最大池化,变成了8*8,再经过一次卷积通道数改变32→64,再经过一次池化变成4*4,然后展平,最后输出。(1-2)根据图里面看,32×32经过卷积后的尺寸仍然是32×
満湫
·
2024-01-23 10:14
pytorch
学习
笔记
pytorch学习
笔记(十一)
优化器学习把搭建好的模型拿来训练,得到最优的参数。importtorch.optimimporttorchvisionfromtorchimportnnfromtorch.nnimportSequential,Conv2d,MaxPool2d,Flatten,Linearfromtorch.utils.dataimportDataLoaderdataset=torchvision.datasets
満湫
·
2024-01-23 10:12
pytorch
学习
笔记
Pytorch学习
第4周:综合应用和实战项目 Day 25-27: 模型调优和优化
第4周:综合应用和实战项目Day25-27:模型调优和优化在这段时间里,我们将深入学习和实践如何通过高级技巧优化Pytorch和TensorFlow模型的性能。关键点包括正则化、dropout和批标准化等技术的应用。正则化(Normalization):在Pytorch中,可以通过在优化器中添加权重衰减来实现L2正则化。在TensorFlow中,可以在层级中使用kernel_regularizer
M.D
·
2024-01-20 06:57
pytorch
学习
人工智能
tensorflow
Pytorch学习
第二周Day 10-11: 损失函数和优化器
Day10-11:损失函数和优化器在这两天的学习中,我深入了解了不同的损失函数和优化器,并通过使用两个流行的深度学习框架,PyTorch和TensorFlow,来对比学习这些概念的实际应用。损失函数学习了交叉熵损失、均方误差(MSE)、平均绝对误差(MAE)和Huber损失等常用损失函数。损失函数在训练过程中用于评估模型的性能,目标是最小化这个损失。优化器探讨了随机梯度下降(SGD)、Adam、R
M.D
·
2024-01-20 06:56
pytorch
学习
人工智能
tensorflow2
python
Pytorch学习
第二周--Day 12-13: 构建你的第一个神经网络
Day12-13:构建你的第一个神经网络在这两天里,我动手实践构建了我的第一个神经网络,目的是解决一个基本的分类问题。使用了两个主流的深度学习框架:PyTorch和TensorFlow,以对比和理解它们在神经网络构建方面的不同。目标:构建一个全连接的神经网络来处理分类问题。过程:设计网络结构,包括输入层、若干隐藏层和输出层。选择合适的激活函数,如ReLU。定义损失函数和优化器,例如使用交叉熵损失和
M.D
·
2024-01-20 06:16
pytorch
学习
神经网络
pytorch学习
(一)线性模型
文章目录线性模型pytorch是一个基础的python的科学计算库,它有以下特点:类似于numpy,但是它可以使用GPU可以用它来定义深度学习模型,可以灵活的进行深度学习模型的训练和使用线性模型线性模型的基本形式为:f(x)=wTx+bf(x)=w^Tx+bf(x)=wTx+b,线性模型的参数是w和b,它的学习是通过不断减少损失实现的,其损失一般为均方损失pytorch代码实现:#fromtkin
@@老胡
·
2024-01-17 12:28
python
pytorch
学习
人工智能
pytorch学习
笔记(五)
关注不同的方法输入是什么类型,输出是什么类型。1.Compose主要关注初始化函数从作用内置call的调用方法两种,第一种,直接使用对象,不用使用点,直接调用的是__call__当要调用的时候直接写个Person()按住ctrl+P看看需要填啥参数。2.Totensor的使用输出结果如下3.Normalize归一化输入必须要tensor的均值,标准差,然后看图片的维度计算4.Resize给定的是一
満湫
·
2024-01-12 23:18
学习
笔记
pytorch学习
笔记
torchvision处理图像的pytorch官网上看数据集的包,COCO数据集目标检测、语义分割,cifar物体识别预训练好的模型这个模块是图片的处理root-位置,train-创建的true是个训练集,transform前面是输出图片的数据类型,“3”是targetimporttorchvisionfromtorch.utils.tensorboardimportSummaryWriterda
満湫
·
2024-01-12 23:18
pytorch
学习
人工智能
pytorch学习
笔记(七 )
池化类似压缩最大池化-上采样例如给一个3的话就会生成一个3×3的窗口(生成相同的高和宽),给一个tuple就会给出一个相同的池化核。stride默认值就是核的大小dilation在卷积dialation设置之后每一个会和另外的差一个,空洞卷积ceilfloor模式(天花板、地板)floor就是向下取整。按下面的方法走,走的步数默认为核的大小取9个里面的最大值,走到右一图,这种情况只能覆盖6个,其他
満湫
·
2024-01-12 23:13
pytorch
学习
笔记
Pytorch学习
记录-torchtext数据预处理
Pytorch学习
记录-torchtext学习Field重新又看了一遍,这东西还得实际做,具体内容看注释。等会还会用中文分词试一下,希望之后文本处理可以使用torchtext做预处理。
我的昵称违规了
·
2024-01-12 09:22
Pytorch学习
记录-60分钟
最最最基础的部分实现一遍,其实就是pytorch教程的那个60分钟实践。主要包括7个部分Basicautogradexample1Basicautogradexample2LoadingdatafromnumpyInputpiplineInputpiplineforcustomdatasetPretrainedmodelSaveandloadmodel1.Basicautogradexample1
我的昵称违规了
·
2024-01-11 06:18
Pytorch学习
记录-基于CRF+BiLSTM的CGED
Pytorch学习
记录-GEC语法纠错03五月第一周要结束了,接下来的三个月主要是文献阅读,准备8、9月的开题报告,技术类的文献集中在GEC和Textmaching的应用方面,读完之后找demo复现,然后应用
我的昵称违规了
·
2024-01-10 20:06
pytorch学习
笔记(一)
1、今天在学习60分钟pytorchtutorial中2、zip就是把2个数组糅在一起x=[1,2,3,4,5]y=[6,7,8,9,10]zip(x,y)[(1,6),(2,7),(3,8),(4,9),(5,10)]还可以方便建立字典。x=['bob','tom','kitty']>>>y=[80,90,95]>>>d=dict(zip(x,y))[('bob',80),('tom',90),
乌拉圭没有壳
·
2024-01-09 00:57
【
pytorch学习
】 深度学习 教程 and 实战
pytorch编程实战博主:https://github.com/lucidrainshttps://github.com/lucidrains/vit-pytorch
联系丝信
·
2024-01-08 06:13
【杂学】
学习
深度学习
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他