E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
莫烦pytorch学习
pytorch学习
笔记——常用函数
torch.softmax()torch.reduce_max()torch.pow()torch.subtrack()torch.gather()torch.log()
phily123
·
2022-11-30 22:29
pytorch学习笔记
pytorch
基于PyTorch的深度学习--PyTorch 数据集和数据加载器
本篇文章是翻译:https://deeplizard.com网站中的关于
Pytorch学习
的文章,供学习使用。
三哥_DH
·
2022-11-30 19:02
Pytorch
pytorch
深度学习
【torch安装踩雷】torchtext、torch、anaconda安装问题解决
最近因为寒假即将结束,也要继续毕设的工作了,但是在回归
pytorch学习
的时候,遇到很大问题,烦了我挺长一段时间,终于解决。
QinZheng7575
·
2022-11-30 19:24
毕设GP
pytorch
深度学习
神经网络
python
机器学习
pytorch学习
笔记-入门-定义网络
%matplotlibUsingmatplotlibbackend:TkAgg神经网络的典型训练过程如下:1:定义包含一些参数(或者权重)的神经网络模型2:在数据集上迭代,3:通过神经网络处理输入4:计算损失,输出值和正确值的插值大小5:将梯度反向传播会回网络的参数6:更新网络的参数,主要使用如下的更新原则:weight=weight-learning_rate*gradient定义网络impor
wenqiang su
·
2022-11-30 18:01
Pytorch
Pytorch学习
笔记【8】---经典MNIST
Pytorch学习
笔记【8】—经典MNISTPytorch笔记目录:点击进入文章目录
Pytorch学习
笔记【8】---经典MNIST1.网络结构2.代码3.API分析torch.utils.data.DataLoader
AndSonder
·
2022-11-30 17:55
小白的ai学习之路
Pytorch
python
深度学习
【
Pytorch学习
笔记】记录L1Loss实现附源码
文章目录前言一、实现步骤1.引入库2.读生成网络输出以及目标输出3.设置三种不同参数的L1Loss总结前言本章节简单介绍实现L1Loss的方法及源码,仅供学习参考!一、实现步骤1.引入库代码如下(示例):#coding:utf-8importtorchimporttorch.nnasnn2.读生成网络输出以及目标输出代码如下(示例):output=torch.ones(2,2,requires_g
秋天的波
·
2022-11-30 17:54
深度学习
pytorch
python
pytorch
学习
深度学习
【
Pytorch学习
笔记】finetune一个cnn网络实现详细步骤
文章目录前言一、预处理1.引入库2.定义分类类别二、加载数据数据预处理设置构建MyDataset实例构建DataLoder三、定义网络四、定义损失函数和优化器五、训练六、绘制混淆矩阵图七、完整代码如下总结前言finetune一个cnn网络实现详细步骤,分为以下7步。提示:以下是本篇文章正文内容,下面案例可供参考一、预处理1.引入库代码如下(示例):importtorchfromtorch.util
秋天的波
·
2022-11-30 17:53
机器学习
深度学习
pytorch
pytorch
学习
cnn
深度学习
【
Pytorch学习
笔记】 MSELoss使用案例
文章目录前言案例代码1.引入库2.生成网络输出以及目标输出3.设置三种不同参数的MSELoss4.完整代码总结前言MSELoss损失函数又称为“均方损失函数”,本文将使用该损失函数完成计算。提示:以下是本篇文章正文内容,下面案例可供参考案例代码1.引入库代码如下(示例):importtorchimporttorch.nnasnn2.生成网络输出以及目标输出代码如下(示例):output=torch
秋天的波
·
2022-11-30 17:46
python
深度学习
pytorch
pytorch
深度学习
人工智能
【
Pytorch学习
笔记】交叉熵损失函数CrossEntropyLoss的案例使用
文章目录前言一、案例代码1.引入库2.生成网络输出以及目标输出3.熟悉计算公式,手动计算第一个样本4.交叉熵损失权重5.CrossEntropyloss:ignore_index二、完整代码总结前言分类问题常用的损失函数为交叉熵(CrossEntropyLoss)。交叉熵描述了两个概率分布之间的距离,交叉熵越小说明两者之间越接近。熵是信息量的期望值,它是一个随机变量的确定性的度量。熵越大,变量的取
秋天的波
·
2022-11-30 17:46
pytorch
深度学习
机器学习
pytorch
深度学习
人工智能
Transformer硬件实现第二篇:Pytorch基础知识补充(1)
v=lAaCeiqE6CE&feature=emb_title,其主页是:
莫烦
Python建议直接观看该博主视频教程完成pytorch的知识补充。也可走马观花浏览我的文字记录。
锤子与人
·
2022-11-30 16:47
Transformer
算法与电路协同设计
pytorch
transformer
算法
Transformer硬件实现第三篇:Pytorch基础知识补充(2)
v=lAaCeiqE6CE&feature=emb_title,其主页是:
莫烦
Python建议直接观看该博主视频教程完成pytorch的知识补充。也可走马观花浏览我的文字记录。
锤子与人
·
2022-11-30 16:47
Transformer
算法与电路协同设计
pytorch
transformer
深度学习
Pytorch学习
笔记(3)线性回归从零开始实现
主要包括以下几个部分:构建数据集,读数据集,初始化参数,定义模型,定义损失函数,定义优化算法,训练模型。1.构建数据集构建一个带有噪声的线性模型的1000个样本的数据集,每个样本从标准正态分布中随机采样2个特征我们使用线性模型参数w=[2,−3.4]⊤、b=4.2和噪声项ϵ生成数据集及其标签:y=X*w+b+ϵ.首先引入库importrandomimporttorchdefcreate_data(
小帅吖
·
2022-11-30 14:10
Pytorch学习笔记
pytorch
线性回归
深度学习
pytorch学习
中 torch.squeeze() 和torch.unsqueeze()的区别与用法
1.torch.unsqueeze详解torch.unsqueeze(input,dim,out=None)torch.unsqueeze()这个函数主要是对数据维度进行扩充。给指定位置加上维数为一的维度,比如原本有个三行的数据(3),在0的位置加了一维就变成一行三列(1,3)。a.squeeze(N)就是在a中指定位置N加上一个维数为1的维度。还有一种形式就是b=torch.squeeze(a,
白羊是小白
·
2022-11-30 13:02
深度学习
pytorch
python
pytorch
pytorch学习
中 torch.squeeze() 维度进行压缩和torch.unsqueeze()维度进行扩充的用法
torch.squeeze()这个函数主要对数据的维度进行压缩,去掉维数为1的的维度,比如是一行或者一列这种,一个一行三列(1,3)的数去掉第一个维数为一的维度之后就变成(3)行。squeeze(a)就是将a中所有为1的维度删掉。不为1的维度没有影响。a.squeeze(N)就是去掉a中指定的维数为一的维度。还有一种形式就是b=torch.squeeze(a,N)a中去掉指定的定的维数为一的维度。
CV-杨帆
·
2022-11-30 13:52
pytorch
python
PyTorch学习
(九)--Softmax Classifier
传送门:SoftmaxClassifier说明:1、softmax的输入不需要再做非线性变换,也就是说softmax之前不再需要激活函数(relu)。softmax两个作用,如果在进行softmax前的input有负数,通过指数变换,得到正数。所有类的概率求和为1。2、y的标签编码方式是one-hot。我对one-hot的理解是只有一位是1,其他位为0。3、多分类问题,标签y的类型是LongTen
just kidding°
·
2022-11-30 12:29
PyTorch学习
深度学习
神经网络
python
pytorch
pytorch学习
笔记(二)——pytorch手写数字识别
手写数字识别原理每张照片用长28宽28个像元的灰度信息表示将28*28[28,28]的矩阵打平(flat)成784个像素[784],则可以忽略二维位置相关性,再插入一个维度变成[1,784]使用三个线性函数y=wx+b的嵌套来解决手写数字识别问题H1=XW1+b1W1:[d1,dx],b1:[d1]H2=H1W2+b2W2:[d2,d1],b2:[d2]H3=H2W3+b3W3:[d3,d2],b
weixin_46753186
·
2022-11-30 11:19
pytorch
pytorch
人工智能
python
深度学习
Pytorch学习
笔记(3):前馈神经网络
本博客基于github上某位大神的pytorch入门学习代码,在他的基础上加上了更详细的中文注释以及不懂的模块使用方法。github连接:https://github.com/yunjey/pytorch-tutorial前馈神经网络在运行代码之前,请确保当前环境下已安装torch、torchvision。importtorchimporttorch.nnasnnimporttorchvision
马可仕马可仕
·
2022-11-30 10:53
Pytorch在学了
神经网络
python
pytorch
pytorch学习
笔记——requires_grad、detach、torch.no_grad
requires_grad()requires_grad表示这个tensor是否要求计算梯度,自己新建的tensor(即叶子节点)默认为False,不用计算梯度。如果创建一个张量x,并设置其requires_grad参数为True,程序将会追踪所有对于该张量的操作,当完成计算后通过调用.backward(),自动计算所有的梯度,这个张量的所有梯度将会自动积累到.grad属性。(即如果某个输入需要计
phily123
·
2022-11-30 10:26
pytorch学习笔记
pytorch
学习
深度学习
pytorch学习
3:张量的加减乘除
一、先介绍乘法,张量的乘法有两种,分别是元素乘法和矩阵乘法,不清楚矩阵乘法的看这个视频(https://www.bilibili.com/video/BV1TJ411s7dk/?spm_id_from=333.788.recommend_more_video.1)一、函数介绍pytorch中两个张量的乘法可以分为两种:(1)两个张量对应元素相乘,在PyTorch中可以通过torch.mul函数(或
淼仔爱学习
·
2022-11-30 06:51
pytorch
pytorch
学习
深度学习
【Anaconda中打开Jupyter找不到创建的虚拟环境内核】
Anaconda中打开Jupyter找不到创建的虚拟环境内核(强烈推荐up主安装
pytorch学习
视频!!!小土堆yyds!)
野衅
·
2022-11-30 04:07
Pytorch学习
jupyter
python
pytorch
Pytorch学习
-----nn.Sequential(*layers)
文章目录前言一、*变量二、nn.Sequential(*layers)1.源码2.分析总结前言学习Pytorch代码时,遇到了nn.Sequential(*layers),其中layers为list类型一、*变量作用在形参上,代表这个位置接收任意多个非关键字参数,转化成元组*作用在实参上,代表的是将输入迭代器拆成一个个元素。二、nn.Sequential(*layers)1.源码2.分析nn.Se
沐雪年
·
2022-11-30 03:56
pytorch
学习
深度学习
pytorch报错ValueError: too many values to unpack (expected 4)
最近在复现
莫烦
老师的DQN玩倒立摆游戏,运行中断并报错为:s_,r,done,info=env.step(a)ValueError:toomanyvaluestounpack(expected4)。
krystal_leee
·
2022-11-30 02:23
pytorch
python
人工智能
PyTorch学习
笔记(5)--神经网络基本骨架nn.Module的使用
PyTorch学习
笔记(5)–神经网络基本骨架nn.Module的使用 本博文是PyTorch的学习笔记,第5次内容记录,主要介绍神经网络基本骨架nn.Module的基本使用。
我这一次
·
2022-11-30 01:00
PyTorch学习笔记
python
pytorch
神经网络
【小土堆】
Pytorch学习
笔记_P16/17_nn.Module的使用、土堆说卷积
(0)摘要#课程链接PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】_哔哩哔哩_bilibili#笔记内容(1)P16_神经网络的基本骨架-nn.Module的使用(2)P17_土堆说卷积操作(可选看)(1)神经网络的基本骨架-nn.Moudle的使用#(1)torch.nn工具1)文档查阅方法。如下图所示,我们找到pytorch官网的Docs下的pytorch,然后选择左下角的py
惜年_night
·
2022-11-30 00:54
pytorch学习笔记_小土堆
pytorch
PyTorch学习
笔记-现有网络模型的使用及修改
1.VGG16模型的使用我们以VGG16为例,该网络模型是用于大规模图像识别的超深度卷积神经网络,官方文档:VGG16。该网络模型主要有以下参数:weights:可以设置成torchvision.models.VGG16_Weights.DEFAULT,DEFAULT表示自动使用最新的数据。老版本为pretrained,如果为True,表示使用预先训练好的权重,在官网可以看到这个权重是在Image
柃歌
·
2022-11-30 00:53
Artificial
Intelligence
pytorch
学习
网络
深度学习
神经网络
PyTorch学习
笔记-完整训练模型的方法
1.训练模型时的注意事项(1)通常我们会将超参数的设置放在一起,使代码更加直观且方便修改:BATCH_SIZE=64LEARNING_RATE=0.01EPOCH=10(2)我们在每一轮epoch中会先对训练集进行训练,然后使用测试集进行正确率的测试,因此一般我们会记录总共训练的次数total_train_step以及总共测试的次数total_test_step,方便后续绘图使用。(3)在开始训练
柃歌
·
2022-11-30 00:23
Artificial
Intelligence
pytorch
学习
深度学习
人工智能
神经网络
Pytorch学习
笔记(三):神经网络基本骨架
一、ContainersModule:给所有神经网络提供基本骨架,输入的参数x会经过一次卷积,一次非线性,再进行一次卷积与非线性才会得到输出。神经网络基本结构的使用:1.卷积层接下来卷积核会在图像上逐渐移动,移动的步长可以通过stride参数进行调整。输入的参数可以是一个数,也可以通过元祖来设置横向和纵向移动的步长。代码实现:##----nn.conv2dimporttorchimporttorc
银河甜弟学DL
·
2022-11-30 00:18
pytorch
神经网络
深度学习
PyTorch学习
笔记-神经网络Torch.NN基本骨架的使用及卷积原理
1.torch.nn.Module介绍torch.nn能够帮助我们更优雅地训练神经网络,使神经网络代码更加简洁和灵活。官方文档:Torch.NN。在文档中可以看到第一块内容叫做Container(容器),这就相当于神经网络的骨架,Container之后的东西就用于往骨架里面填充,如ConvolutionLayers(卷积层)、PoolingLayers(池化层),有卷积神经网络基础的小伙伴对这些词
柃歌
·
2022-11-30 00:16
Artificial
Intelligence
pytorch
神经网络
学习
深度学习
cnn
Notes on Matplotlib
在系统地学习了【
莫烦
Python】MatplotlibPython画图教程后,进行一些思考和总结,整个matplotlib包就清楚了,希望以后再画图的时候不再挠头。
SATAN 先生
·
2022-11-29 18:21
matplotlib
python
开发语言
Pytorch学习
笔记(三) 图像分类器&数据并行处理
一、图像分类器1.加载并处理输入数据通常来说,处理图像、文本、语音或者视频数据时,可以使用标准python包将数据加载成numpy数组格式,然后将这个数组转换成torch.*Tensor。图像:Pillow,OpenCV语音:scipy,librosa文本:可以直接用Python或Cython基础数据加载模块,或者NLTK、SpaCy几种常用数据集:CIFAR-10、ImageNet、MS-COC
Nismilesucc
·
2022-11-29 17:57
python
pytorch
深度学习
python
pytorch学习
笔记——2.4torch.nn模块简介
前言torch.nn模块包含torch为我们准备好的各种层,方便我们调用以构建网络。我们主要介绍卷积层、池化层、激活函数层、循环层、全连接层等的相关使用方法。一、卷积层卷积可以看作是输入与卷积核之间的内积运算,是两个实值函数之间的一种数学运算。在卷积层中,我们通常使用卷积核将输入数据进行卷积运算从而得到输出作为特征映射,通过每一个卷积核我们可以得到一个特征映射。例如下图中的使用2*2卷积核进行步长
学不来我就死
·
2022-11-29 17:25
pytorch入门
pytorch
学习
深度学习
PyTorch学习
笔记——PyTorch模块和基础实战
文章目录前言一、pytorch基础知识2.1、张量代码演示2.2自动求导PyTorch实现模拟训练Tensor数据结构是实现自动求导的基础自动求导——数学基础代码展示2.3并行计算怎么并行?——CUDA并行计算的方法2.3并行计算——扩展二、Pytorch模块和基础实践2.1神经网络学习机制2.2深度学习在实现上的特殊性2.3PyTorch深度学习模块2.3.1基本配置2.3.2数据读入2.3.3
但愿此生,从未邂逅
·
2022-11-29 16:51
笔记
人工智能
pytorch
学习
深度学习
PyTorch学习
笔记-Convolution Layers与Pooling Layers
1.ConvolutionLayers由于图像是二维的,因此基本上最常用到的就是二维的卷积类:torch.nn.Conv2d,官方文档:torch.nn.Conv2d。Conv2d的主要参数有以下几个:in_channels:输入图像的通道数,彩色图像一般都是三通道。out_channels:通过卷积后产生的输出图像的通道数。kernel_size:可以是一个数或一个元组,表示卷积核的大小,卷积核
柃歌
·
2022-11-29 11:15
Artificial
Intelligence
pytorch
学习
深度学习
cnn
神经网络
PyTorch学习
笔记-Non-linear Activations与Linear Layers
1.Non-linearActivations非线性激活函数官方文档:Non-linearActivations。有深度学习基础的同学应该知道最常用的非线性激活函数就是ReLU和Sigmoid函数,多分类问题会在输出层使用Softmax函数。这三个函数在PyTorch中分别为nn.ReLU、nn.Sigmoid和nn.Softmax。这两个函数的输入都是只需指明batch_size即可,在PyTo
柃歌
·
2022-11-29 11:15
Artificial
Intelligence
pytorch
学习
深度学习
神经网络
人工智能
PyTorch学习
笔记-损失函数与反向传播
1.损失函数具有深度学习理论基础的同学对损失函数和反向传播一定不陌生,在此不详细展开理论介绍。损失函数是指用于计算标签值和预测值之间差异的函数,在机器学习过程中,有多种损失函数可供选择,典型的有距离向量,绝对值向量等。使用损失函数的流程概括如下:计算实际输出和目标之间的差距。为我们更新输出提供一定的依据(反向传播)。损失函数的官方文档:LossFunctions。(1)nn.L1Loss:平均绝对
柃歌
·
2022-11-29 11:15
Artificial
Intelligence
pytorch
学习
深度学习
人工智能
PyTorch学习
笔记-神经网络模型搭建小实战
1.torch.nn.Sequentialtorch.nn.Sequential是一个Sequential容器,能够在容器中嵌套各种实现神经网络中具体功能相关的类,来完成对神经网络模型的搭建。模块的加入一般有两种方式,一种是直接嵌套,另一种是以OrderedDict有序字典的方式进行传入,这两种方式的唯一区别是:使用OrderedDict搭建的模型的每个模块都有我们自定义的名字。直接嵌套默认使用从
柃歌
·
2022-11-29 11:07
Artificial
Intelligence
pytorch
神经网络
学习
深度学习
python
pytorch学习
一:Anaconda下载、安装、配置环境变量。anaconda创建多版本python环境。安装 pytorch。
文章目录一、Anconada1、为啥要用Anconada2、干啥的~二、下载、安装、配置环境变量1、官网2、下载安装流程3、配置环境变量4、测试命令三、anaconda创建多版本python环境四、anaconda安装pytorch1、安装2、安装中的错误3、测试pytorch五、JupyterNotebook1.登陆2.首次使用《JupyterNotebook》需要输入token解决方法一、An
java冯坚持
·
2022-11-29 10:43
pytorch
python
pytorch
开发语言
pytorch学习
——torch.cat和torch.stack的区别
合并tensorstorch.cat沿着特定维数连接一系列张量。torch.stack沿新维度连接一系列张量。torch.cat在给定维度中连接给定的seq个张量序列。所有张量必须具有相同的形状(连接维度除外)或为空。torch.cat(tensors,dim=0,*,out=None)→Tensor参数tensors(张量序列):任何相同类型的张量序列。提供的非空张量必须具有相同的形状。在给定维
看星星的月儿
·
2022-11-29 10:02
pytorch
深度学习
python
【
Pytorch学习
笔记】torch.gather()与tensor.scatter_()
torch.gather()官方解释:torch.gather(input,dim,index,*,sparse_grad=False,out=None)→Tensor这里可以查看官方解释torch.gather()。个人理解:torch.gather()的作用?torch.gather()可以做什么?从某个tensor(input)按照某一纬中选取一部分数据。怎么选?需要提供一个index数组,
Small___ming
·
2022-11-29 10:56
深度学习
pytorch
学习
python
【
Pytorch学习
笔记】torch.cat() 与 torch.stack()
torch.stack()stack在英文中有“堆叠的意思”。所以stack通常是把一些低纬(二维)的tensor堆叠为一个高维(三维)的tensor。stack()官方解释:torch.stack[source]→Tensor:函数目的:沿着一个新维度对输入张量序列进行拼接。其中序列中所有的张量都应该为相同形状。outputs=torch.stack(inputs,dim=0)#→Tensor参
Small___ming
·
2022-11-29 10:18
深度学习
pytorch
学习
深度学习
Pytorch学习
--回归损失函数总结
“损失函数”是机器学习优化中至关重要的一部分。机器学习中所有的算法都需要最大化或最小化一个函数,这个函数被称为“目标函数”。其中,我们一般把最小化的一类函数,称为“损失函数”。它能根据预测结果,衡量出模型预测能力的好坏。常见的损失函数例如L1、L2损失函数。除此之外,还有Huber损失、Log-Cosh损失、以及常用于计算预测区间的分位数损失。在实际应用中,选取损失函数会受到诸多因素的制约,比如是
一只小小的土拨鼠
·
2022-11-29 09:05
机器学习
人工智能
深度学习
pytorch学习
-使用torch.nn模块自定义模型
使用nn.Module构建神经网络1打印网络perception,可以看到上述定义的layer1和layer22named_parameters()可以返回学习参数的参数名与参数值3将输入数据传入perception,perception()相当于调用perception中的forward()函数4nn.Parameter函数5forward()函数与反向传播6多个module的嵌套7nn.Mod
潘旭阳
·
2022-11-29 08:57
pytorch
pytorch
Pytorch学习
系列之十:如何确定合适的epoch数、在加载的模型基础上继续训练
1,使用背景当有以下两种情况时:1)不知道训练的epoch选取为何值时。过小,训练不充分,泛化能力差;过大,训练过度,导致过拟合。所以需要动态观察每个epoch后,模型在验证集(也可以不严谨的说是测试集)上的精度,选取精度最大的epoch作为最终的训练结果。2)在加载的模型基础上继续训练。在训练模型的时候可能会因为一些问题导致程序中断,或者常常需要观察训练情况的变化来更改学习率等参数,这时候就需要
thequitesunshine007
·
2022-11-29 07:14
Pytorch学习
pytorch
深度学习
人工智能
pytorch学习
线性回归与非线性回归,以及理解nn.linear()和ReLU激活函数
参考书目:Pytorch深度学习入门,作者:曾芃壹文章目录线性回归线性模型与目标函数优化批量输入代码实践大规模数据实验神经网络实现线性回归非线性回归激活函数人工神经网络详解nn.linear()的原理浅谈ReLU激活函数在本例中的作用线性回归线性模型与目标函数这次我们使用直线KaTeXparseerror:\tagworksonlyindisplayequations来拟合几个离散点,个点的值如下
LiterMa
·
2022-11-29 06:21
机器学习
pytorch
线性回归
深度学习
PyTorch学习
笔记(七)进阶训练技巧
目录自定义损失函数以函数方式定义以类方式定义动态调整学习率使用官方scheduler自定义scheduler模型微调-torchvision模型微调的流程使用已有模型结构训练特定层模型微调-timm使用和修改预训练模型模型的保存半精度训练使用argparse进行调参argparse简介argparse的使用更加高效使用argparse修改超参数总结自定义损失函数以函数方式定义defmy_loss(
zhangmeizi1996
·
2022-11-29 01:27
pytorch
pytorch
深度学习
python
Pytorch学习
task02_待补
第三章3.1思考:完成深度学习的必要部分知识点1.深度学习的简单定义由于深度学习所需的样本量很大,一次加载全部数据运行可能会超出内存容量而无法实现;同时还有批(batch)训练等提高模型表现的策略,需要每次训练读取固定数量的样本送入模型中训练.知识点2.深度学习中训练与验证过程的特点深度学习中训练和验证过程最大的特点在于读入数据是按批,每次读入一个批次的数据,放入GPU中训练,然后将损失函数反向传
phac123
·
2022-11-29 01:25
Pytorch
pytorch
学习
深度学习
nn.Conv2d——二维卷积运算解读
PyTorch学习
笔记:nn.Conv2d——二维卷积运算解读nn.Conv2d——二维卷积运算代码案例一般用法输出卷积运算的参数填充方式零填充镜像填充复制填充循环填充官方文档nn.Conv2d——二维卷积运算
视觉萌新、
·
2022-11-28 22:49
PyTorch学习笔记
pytorch
深度学习
python
【
Pytorch学习
】 -- 补充 -- 反向传播(Backpropagation)及更新参数
学习视频本文讲述一些反向传播和更新参数理的代码实现细节Backpropagationimporttorch#初始化所需数据x=torch.tensor(1.0)y=torch.tensor(2.0)#w需要计算梯度->require_grad=Truew=torch.tensor(1.0,requeires_grad=True)#前向传播及计算损失,省去了将s平方的公式,直接写入loss公式y_h
丶Dylan
·
2022-11-28 21:56
pytorch
深度学习
python
【
Pytorch学习
】-- 读取数据 -- torch.utils.data -- Dataset
学习视频:https://www.bilibili.com/video/BV1hE411t7RN?p=1,内含环境搭建Pytorch有两个读取数据的方式:使用Dataset使用DataLoader本文先介绍第一种——DatasetDataset与DataLoader区别Dataset:提供一种方法,去获取数据及其对应的label值DataLoader:提供一种方法,可以以特定的形式打包数据数据集接
丶Dylan
·
2022-11-28 21:26
pytorch
深度学习
机器学习
【
Pytorch学习
】-- 补充 -- 使用Pytorch自带的Loss和Optimizer
修改损失函数更新参数用Optimizer代替代码importtorchimporttorch.nnasnn#已知公式形式:f=w*x,未知参数w的数值#目标w=2#初始化数据#数据集XX=torch.tensor([1,2,3,4],dtype=torch.float32)#验证集YY=torch.tensor([2,4,6,8],dtype=torch.float32)#初始ww=torch.t
丶Dylan
·
2022-11-28 21:26
pytorch
深度学习
python
上一页
15
16
17
18
19
20
21
22
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他