E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
莫烦pytorch学习
pytorch学习
的一些tips(11)
map函数格式:map(function,iterable,...)作用:map()会根据提供的函数对指定序列做映射。第一个参数function以参数序列中的每一个元素调用function函数,返回包含每次function函数返回值的新列表。filter()语法:filter(function,iterable)作用:filter()函数用于过滤序列,过滤掉不符合条件的元素,返回由符合条件元素组成
苦逼学习pytorch中
·
2023-01-06 16:08
pytorch
pytorch学习
的一些tips(10)
add_module:add_module(name,module)作用:为当前的module添加子module具有两个参数:pytorch不会自动给我们注册模块,我们需要根据传进来的参数对网络进行初始化,pytorch在注册模块的时候,会查看成员的类型,如果成员变量类型是Module的子类,那么pytorch就会注册这个模块,否则就不会。在__init__中conv_ls=[]foriinran
苦逼学习pytorch中
·
2023-01-06 16:07
学习
pytorch学习
的一点儿tips(9)
今天训练模型,官方文献中的正确率是83.5%,我下午的时候训练正确率在百分之六十左右,我很纳闷,why?后来发现自己输出验证集的正确率的代码写错了,再后来又开始看程序,我发现不能笃信范本程序的超参数,当你把程序做了一些更改之后,或者是说写了自己的版本后,超参数是要做出一些改变的。验证集的使用一直不清楚验证集怎么使用,问了我的npy,算是大概明白了。验证集是用来挑选出最好的模型的,如果只在训练集上训
苦逼学习pytorch中
·
2023-01-06 16:37
学习
Pytorch学习
笔记09----Softmax与交叉熵函数
本文主要讲解了分类问题中的二分类问题和多分类问题之间的区别,以及每种问题下的交叉熵损失的定义方法。由于多分类问题的输出为属于每个类别的概率,要求概率和为1。因此,我们还介绍了如何利用Softmax函数,处理神经网络的输出,使其满足损失函数的格式要求。Softmax与交叉熵函数一、二分类问题和多分类问题1.二分类问题2.多分类问题3.Softmax二、损失函数1.葡萄酒的种类预测2.交叉熵损失函
AI Chen
·
2023-01-06 14:15
Pytorch学习
Pytorch
Softmax
tensorflow2.0
简单的tensorflow模型搭建刚开始学习tensorflow框架,跟着
莫烦
的视频做一些实验,但是他用的是tensorflow1,好多语句需要改,我整理了一下,大家一起交流进步吧代码importtensorflowastfimportnumpyasnp
让我三行代码、
·
2023-01-06 12:14
tensorflow
深度学习
pytorch学习
(四)——激活函数
文章目录1.Sigmoid2.Tanh3.ReLU4.LeakyReLU介绍了模型层后,接下来我们就看看模型层中各种各样的激活函数吧。激活函数,就是在人工神经网络的神经元上运行的函数,负责将神经元的输入映射到输出端。激活函数对于人工神经网络模型去学习、理解非常复杂和非线性的函数来说具有十分重要的作用。如果不用激活函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合,
Suppose-dilemma
·
2023-01-06 11:14
Pytorch
1024程序员节
pytorch学习
总结
1、os.path.join()函数的功能:root_dir="dataset/train"label_dir='ants'path=os.path.join(root_dir,label_dir)连接两个或更多的路径名组件如果各组件名首字母不包含’/’,则函数会自动加上如果有一个组件是一个绝对路径,则在它之前的所有组件均会被舍弃如果最后一个组件为空,则生成的路径以一个’/'分隔符结尾2、self
深山里的菜叶子
·
2023-01-06 04:11
pytorch深度学习
python
pytorch
深度学习
人工智能
【
莫烦
Python】Matplotlib Python 画图教程 image图片
a=np.array([0.313660827978,0.365348418405,0.423733120134,0.365348418405,0.439599930621,0.525083754405,0.423733120134,0.525083754405,0.651536351379]).reshape(3,3)"""forthevalueof"interpolation",checkth
有梦想的“咸鱼”
·
2023-01-05 23:05
Python学习之道
python
深度学习
机器学习
神经网络
matplotlib
【PyTorch】高级神经网络结构
本文为
PyTorch学习
笔记,讲解高级神经网络结构。欢迎在评论区与我交流CNN简介卷积神经网络简写为CNN。卷积的意思是不再对每个像素的信息做处理,而是对一小块像素区域的信息做处理。
Louis1874
·
2023-01-05 23:28
#
深度学习
神经网络
机器学习
人工智能
深度学习
pytorch
Pytorch学习
日记——常见的Transforms(二)
学习视频——B站【小土堆】代码fromPILimportImagefromtorch.utils.tensorboardimportSummaryWriterfromtorchvisionimporttransformswriter=SummaryWriter("logs")img=Image.open("dataset/train/0a7940e11293d1d4404c5c35065a5656
快乐白给
·
2023-01-05 19:13
学习
pytorch
深度学习
python
Pytorch学习
日记——DataLoader的使用
学习视频——B站【小土堆】下载数据集(将数据集下载到dataset文件夹,数据集为torchvision中的cifar-10)importtorchvisiontrain_set=torchvision.datasets.CIFAR10(root="./dataset",train=True,download=True)test_set=torchvision.datasets.CIFAR10(r
快乐白给
·
2023-01-05 19:13
pytorch
学习
深度学习
python
人工智能
pytorch学习
记录
pytorch学习
记录0.引言1.numpy简单入门1.1.常用基础1.2.numpy其他学习2.pytorch简单入门2.1.Pytorch的基本组成元素2.2.Pytorch构建神经网络2.3.进阶部分
古路
·
2023-01-05 19:13
深度学习
python
pytorch
pytorch基础学习
Pytorch学习
日记——nn.Module的使用
学习视频——B站【小土堆】代码importtorchfromtorchimportnnclassTudui(nn.Module):def__init__(self):super().__init__()defforward(self,input):output=input+1returnoutputtudui=Tudui()x=torch.tensor(1.0)output=tudui(x)pri
快乐白给
·
2023-01-05 19:42
pytorch
学习
人工智能
python
深度学习
PyTorch学习
笔记(6)--神经网络:卷积层
PyTorch学习
笔记(6)–神经网络:卷积层 本博文是PyTorch的学习笔记,第6次内容记录,主要介绍神经网络卷积层的基本使用。
我这一次
·
2023-01-05 14:20
PyTorch学习笔记
python
pytorch
神经网络
PyTorch学习
笔记06
1.PyTorchVideo简介近几年来,随着传播媒介和视频平台的发展,视频正在取代图片成为下一代的主流媒体,这也使得有关视频的深度学习模型正在获得越来越多的关注。然而,有关视频的深度学习模型仍然有着许多缺点:计算资源耗费更多,并且没有高质量的modelzoo,不能像图片一样进行迁移学习和论文复现。数据集处理较麻烦,但没有一个很好的视频处理工具。随着多模态越来越流行,亟需一个工具来处理其他模态。除
Shannon_Lau
·
2023-01-05 14:45
PyTorch
pytorch
学习
深度学习
PyTorch学习
—18.标准化—Batch Normalization、Layer Normalizatoin、Instance Normalizatoin、Group Normalizatoin
文章目录引言一、BatchNormalization概念1.BatchNormalization的计算方式二、PyTorch中的BatchNormalization三、常见的Normalization方法1.BatchNormalization(BN)2.LayerNormalizatoin(LN)3.InstanceNormalizatoin(IN)4.GroupNormalizatoin(GN
哎呦-_-不错
·
2023-01-05 14:34
PyTorch框架学习
PyTorch
Normalization
标准化
ICS
pytorch学习
001- -如何保存模型
保存和加载模型只保存模型的参数保存torch.save(model.state_dict(),'xxx.pth')加载model=net()#首先要先定义网络模型state_dict=torch.load('xxx.pth')#读取pth文件中的参数model.load_state_dict(state_dict['model'])#将参数导入模型这种方法操作比较麻烦,但是比较节省内存。offic
SigMap
·
2023-01-05 08:54
深度学习
pytorch
深度学习
python
【
pytorch学习
笔记】第一篇——环境搭建
文章目录1.安装英伟达驱动2.安装Anaconda环境3.安装pytorch、CUDA和cuDNN环境(1)配置国内镜像加速(2)安装4.查看安装环境的版本4.1查看Anaconda版本4.2查看Nvidia驱动版本4.3查看pytorch版本4.4查看CUDA版本4.5查看cuDNN版本5.pycharm配置pytorch由于使用的需要,从现在开始陆续学习并记录pytorch相关的使用,首先这篇
非晚非晚
·
2023-01-04 14:51
pytorch
pytorch
python
深度学习环境
conda
pip
【
PyTorch学习
1】B站刘二大人《PyTorch深度学习实践》——线性模型(Linear Model)
b站课程链接:线性模型1.基本思想:给出了一组一维数据,定义了一个简单的线性拟合函数,通过穷举法来列出一些权重(拟合函数的系数),并计算这些权重对应的拟合损失函数(使用均方误差(MSE))。LinearModel:y^=w∗x\hat{y}=w*xy^=w∗x(为了简化模型,未加偏置项b)TrainingLoss(Error):loss=(y^−y)2=(w∗x−y)2loss=(\hat{y}-
小龙呀
·
2023-01-04 09:17
#
深度学习
深度学习
pytorch
线性模型
Pytorch学习
笔记(二)
张量的操作1、拼接,切分,索引,和变换2、张量的数学运算3、线性回归1、拼接,切分,索引,和变换(1)拼接与切分①torch.cat(tensors,dim,out=None)功能:将张量按维度dim进行拼接tensors:张量序列dim:要拼接的维度②torch.stack(tensors,dim,out=None)功能:在新创建的维度dim上进行拼接tensors:张量序列dim:要拼接的维度
hu120_
·
2023-01-03 19:24
机器学习
Pytorch
【
Pytorch学习
:对比与总结】
文章目录前言一、Pytorch技巧总结1.torch.nonzero:标号提取2.torch.unique:标号分离3.torch.argsort:标号排序二、Pytorch方法比较1.torch.cat与torch.stack2.乘法运算torch.mmtorch.bmmtorch.matmultorch.mul乘法运算符@与*3.张量复制torch.cloneTensor.detachclon
影子里的风
·
2023-01-03 19:24
pytorch
学习
深度学习
计算机视觉
pytorch学习
笔记(1)(数据类型、基础使用、自动求导、矩阵操作、维度变换、广播、拼接拆分、基本运算、范数、argmax、矩阵比较、where、gather)...
一、Pytorch安装安装cuda和cudnn,例如cuda10,cudnn7.5官网下载torch:https://pytorch.org/选择下载相应版本的torch和torchvision的whl文件使用pipinstallwhl_dir安装torch,并且同时安装torchvision二、初步使用pytorch#-*-coding:utf-8-*-__author__='Leo.Z'imp
dianshu9815
·
2023-01-03 19:24
人工智能
python
数据结构与算法
Pytorch学习
(3):Tensor合并、分割与基本运算
Chunk三、基本运算1.加减乘除2.矩阵乘法mm/@/matmul3.幂运算**4.指数exp/对数log5.近似floor/ceil/round/trunc/frac6.裁剪(归化)clamp总结前言
Pytorch
Leafing_
·
2023-01-03 19:24
pytorch
深度学习
人工智能
深度学习
pytorch
机器学习
矩阵
人工智能
pytorch学习
笔记(三)数据的拼接、分割与运算
一、前言前文简单的介绍了tensor的索引、切片等操作。本文主要介绍数据的拼接与分割以及数学运算。二、数据的拼接[In]a=torch.rand(4,32,8)[In]b=torch.rand(5,32,8)torch.cat()#需要合并的维度值可以不同,其他维度必须完全相同[In]torch.cat([a,b],dim=0).shape[Out]torch.Size([9,32,8])torc
围白的尾巴
·
2023-01-03 19:23
Pytorch学习笔记
pytorch
python
Pytorch中cat和stack的用法
Pytorch中cat和stack的用法详解cat和stack
Pytorch学习
说明```torch.Cat()``````torch.stack()```详解cat和stack本文为原创,仅供交流学习
mocap路上的小白
·
2023-01-03 16:23
Pytorch学习
python
深度学习
人工智能
Pytorch学习
笔记(一)
张量的学习:张量是一种特殊的数据结构,张量可以在GPU或者其他软件中运行importtorchimportnumpyasnp1、直接生成张量data=[[1,2],[3,4]]x_data=torch.tensor(data)注:torch.tensor()单一数据元素的多维矩阵当requires_grad=False不计算梯度=True时,计算梯度2、通过numpy数组来生成张量np_array
m0_46314815胡说养的猪
·
2023-01-03 11:02
pytorch
学习
python
Pytorch学习
笔记①——anaconda和jupyter环境的安装(小白教程)
一、安装Pytorch1、首先找到anaconda命令端并点击进入。2、输入如下命令创建子空间(博主的命名是pytorch1.4.0,使用python3.6版本)condacreate-npytorch1.4.0python=3.6对于下载速度慢的话,首先需要进行换源,换源教程详见博客,亲测有效。3、创建完毕,输入如下命令进入创建好的pytorch1.4.0空间中进行后续pytorch安装。con
堇禤
·
2023-01-03 11:28
Pytorch学习笔记
pytorch
学习
jupyter
Pytorch学习
(六)构建神经网络
文章目录前言1.定义神经网络2.通过神经网络处理输入3.计算损失值4.调用反向传播5.更新网络的参数前言通常,一个典型的神经网络训练过程包括以下几点:1.定义一个包含可训练参数的神经网络2.通过神经网络处理输入3.计算损失(loss)4反向传播梯度到神经网络的参数5.更新网络的参数,典型的用一个简单的更新方法:weight=weight-learning_rate*gradient1.定义神经网络
liu_jie_bin
·
2023-01-02 10:20
Pytorch
深度学习
pytorch
神经网络
pytorch主要组成模块之:动手完成简单的深度学习模型搭建
Pytorch学习
第二部分:pytorch的主要组成模块Let'sgo!
Liuyc-Code boy
·
2023-01-02 10:59
深度学习
pytorch
机器学习
【
Pytorch学习
】add_module()函数用法
最近在看大佬们写的代码时,看到使用add_module函数。所以就了解了一番,在这里做个介绍。add_module就好像是list的用法,看代码之后就懂了(代码来自文献【3】)fromtorchimportnnfromtorchsummaryimportsummaryclassNet_test(nn.Module):def__init__(self):super(Net_test,self).
一穷二白到年薪百万
·
2023-01-02 08:32
Pytorch学习
python
pytorch
Pytorch学习
(六)Dataset, DataLoader,Sampler的理解
1.DatasetDataset表示的是静态的数据集,DataLoader的侧重点在于Loader加载器,将Dataset中的数据按照一定的规则加载到神经网络中2.DataLoader用法详解DataLoader类涉及到的参数如下:torch.utils.data.DataLoader(dataset,batch_size=1,shuffle=False,sampler=None,batch_sa
TEn%
·
2023-01-01 10:00
Pytorch系列学习
Python
深度学习与神经网络
pytorch
pytorch学习
笔记 —— torch.nn.Embedding
torch.nn.Embedding可以实现wordembedding,在自然语言处理中比较常用;wordembedding的理解将源数据映射到另外一个空间中,一对一映射。假设将A空间中的单词a1和a2对应B空间中的映射是多维变量b1和b2,那么若a1>>#anEmbeddingmodulecontaining10tensorsofsize3>>>embedding=nn.Embedding(10
piupiurui
·
2023-01-01 09:37
pytorch
莫烦
nlp——transformer(1)
莫烦
更多使用比喻介绍结构,没用公式或实际输入输出结构。我做的李宏毅视频+博客的总结语言多次注意力 使用了三次注意力,每次注意的时候都是基于上次注意后的
卢容和
·
2022-12-31 19:22
TensorFlow
NLP
深度学习
pytorch实战学习入门(理解篇)
pytorch学习
入门第一节、自定义数据类第二节、tensorboard第三节、transform第四节、数据集的使用第五节、DataLoader第六节、网络:nn.module1、初步了解module2
走夜路的猫
·
2022-12-31 15:24
深度学习
pytorch
学习
深度学习
pytorch学习
笔记(新)
pytorch学习
笔记原理篇1、torch.nn.BatchNorm2d()详解①原理介绍②代码实现③参数详解2、torch.autograd.functional.jacobian()技巧篇1、utils.save_image
氏族归来
·
2022-12-31 07:18
pytorch
pytorch
学习
深度学习
机器学习(ML) 入门知识
ML知识概括:知识地图.jpegML常用公式常用公式.jpeg推荐学习博客:
莫烦
Python(有视频和图文,很大神非常推荐)https://morvanzhou.github.io/基本术语特征向量(featurevector
z_ccsdn
·
2022-12-31 06:09
机器学习
pytorch学习
(一)pytorch中的断点续训
1.设置断点续训的目的在遇到停电宕机,设备内存不足导致实验还没有跑完的情况下,如果没有使用断点续训,就需要从头开始训练,耗时费力。断点续训主要保存的是网络模型的参数以及优化器optimizer的状态(因为很多情况下optimizer的状态会改变,比如学习率的变化)2.设置断点续训的方法参数设置resume:是否进行续训initepoch:进行续训时的初始epochcheckpoint载入过程(这部
TEn%
·
2022-12-30 23:08
Pytorch系列学习
pytorch
pytorch中的cat、stack、tranpose、permute、unsqeeze、contiguous()
【
pytorch学习
1】pytorch中的cat、stack、tranpose、permute、unsqeeze详解pytorch中的cat、stack、tranpose、permute、unsqeezepytorch
cloudless_sky
·
2022-12-30 23:38
Pytorch
pytorch
深度学习
人工智能
pytorch学习
笔记
文章目录一、Pytorch张量及基本数据类型二、张量的创建1.通过torch.tensor()方法创建张量,可通过多种形式创建,如下:2.生成随机矩阵三、张量运算一、Pytorch张量及基本数据类型1.张量Tensor是Pytorch最基本的操作对象,它表示一个多维矩阵。标量可以称为0维张量,向量可以称为1维张量,矩阵可以称为2维张量,RGB图像可以表示3维张量。张量类似于Numpy的数组,但张量
Twj871
·
2022-12-30 12:16
pytorch
学习
PyTorch学习
笔记(三):Tensor变换
view/reshapea=torch.rand(4,1,28,28)print(a.shape)#torch.Size([4,1,28,28])print(a.view(4,28*28).shape)#torch.Size([4,784])print(a.reshape(4,28*28).shape)#torch.Size([4,784])print(a.view(4,-1).shape)#to
ICDAT_GO
·
2022-12-30 12:42
PyTorch学习笔记
数据挖掘
python
pytorch
Pytorch学习
笔记——reshape和view的区别
前言在使用pytorch或者读别人的代码时,reshape和view是最常用的,都是矩阵变形,二者到底有什么区别呢?原文地址:https://discuss.pytorch.org/t/difference-between-view-reshape-and-permute/54157原作者:ptrblckReshape如果可以的话,reshape会尝试返回view,否则会将数据复制到连续(cont
coder1479
·
2022-12-30 12:08
深度学习
pytorch
Pytorch学习
笔记8:多分类问题
多分类问题:实际上求解的是随机事件的分布问题引入前篇中,对糖尿病数据集的问题是一个二分类问题,但实际问题中,二分类问题较少,更多的是以MINIST、CIFAR为例的多分类问题。网络设计转换为二分类问题进行判断(eg:当输出为1时,对其他的非1输出都规定为0,以此来进行判断。)但这种情况下,类别之间所存在的互相抑制的关系没有办法体现,当一个类别出现的概率较高时,其他类别出现的概率仍然有可能很高。换言
岳戴
·
2022-12-30 12:06
Pytorch学习
-问题集锦(自用)
Pytorch学习
-问题集锦(自用)Ptorch1.yolov5中检测source设置2.下载网络视频的神器-LUX(前Annie)3.用命令行/终端,运行/停止python文件4.python两个法宝函数
一只肥然
·
2022-12-30 08:23
pytorch
【
Pytorch学习
笔记】8.训练类别不均衡数据时,如何使用WeightedRandomSampler(权重采样器)
文章目录关于类别不平衡数据的训练Pytorch的权重采样器WeightedRandomSamplerWeightedRandomSampler工作流图代码复现训练时的重采样当我们平时处理类别不平衡数据(ImbalancedData)时,比如当你有一个二分类数据集,其中90%的样本标为阳性,10%的样本为阴性,如果直接拿给模型训练,然后你会发现模型的预测准确率Accuracy永远在某个不到90%的值
takedachia
·
2022-12-30 07:27
Pytorch学习笔记
pytorch
深度学习
人工智能
Pytorch学习
笔记---自动求导机制,线性回归模型搭建
一、自动求导机制torch框架可以自动进行求导,这在搭建网络过程中提供了很大的便利。需要求导的话就在创建tensor时,将求导参数设置为Trueimporttorchimportnumpyasnpx=torch.randn(5,5,requires_grad=True)这个参数默认为False,因此需要求导时,就将其设置为True。利用这个机制进行求导:importtorchimportnumpy
NewSuNess
·
2022-12-30 03:00
Pytorch深度学习
pytorch
线性回归
深度学习
pytorch学习
笔记-----现有模型的使用和修改
注意事项:1.很多现有的,比较好的网络模性都在torchvision.models模块下下面观看完整代码importtorchvisionfromtorchimportnn#现有模型的使用和修改vgg16_flase=torchvision.models.vgg16(pretrained=False)#pretrained=false仅仅就是将网络模型在这里进行替换,参数都是随机初始化的#vgg1
完◎笑
·
2022-12-30 02:27
python
pytorch
深度学习
Pytorch学习
笔记---1:正则化降低过拟合
训练模型涉及两个2个关键步骤:1.优化,减少训练集上的损失2.泛化,提高对没见过的数据如验证机和测试集的泛化能力而正则化可以有效的帮助我们的模型收敛和泛化。本文提供三个正则化的方法。一、检查参数:权重惩罚稳定泛化的第一种方法实在损失中添加一个正则化项。这个术语的设计是为了减小模型本身的权重,从而限制训练对它们增长的影响。换句话说,这是对较大权重的惩罚。这使得损失更平滑,并且从拟合单个样本中获得的收
一件迷途小书童
·
2022-12-30 02:55
Deep
Learning
pytorch
学习
深度学习
pytorch学习
笔记2-线性模型
pytorch学习
笔记2-线性模型一维线性回归例1随机设置点回归多项式回归例23次多项式回归参考资料一维线性回归例1随机设置点回归#引入numpyimportnumpyasnp#随机设置数据x_train
Evelyn_1987
·
2022-12-30 02:48
pytorch框架学习
python
深度学习
神经网络
【
Pytorch学习
】Transforms
Transforms结构及用法一、Transforms的使用二、TensorBoard显示三、常用的Transforms1.ToTensor()2.ToPILImage()3.Normalize()4.Resize()5.Compose()6.RandomCrop()四、总结transforms.py相当于一个工具箱,里面有很多工具,比如totensor(将数据转换为tensor类型)、resiz
糊涂懿
·
2022-12-29 23:02
pytorch
pytorch
学习
计算机视觉
numpy和torch的数据格式
title:
Pytorch学习
笔记-numpy和torch的数据格式numpy和torch的数据格式学习笔记"""对比学习numpy与tensor数据格式"""importtorchimportnumpyasnpnp_data
Yuzzz.
·
2022-12-29 21:21
Pytorch
numpy
python
深度学习
上一页
8
9
10
11
12
13
14
15
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他