E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
莫烦pytorch学习
pytorch 深度学习实践 第三讲 梯度下降算法
第三讲梯度下降算法gradientDescent
pytorch学习
视频——B站视频链接:《PyTorch深度学习实践》完结合集哔哩哔哩bilibili以下是视频内容的个人笔记,主要是梯度下降算法的理解和简单公式实例
会游泳的小雁
·
2023-09-28 13:08
pytorch学习
python
pytorch
随机梯度下降
PyTorch学习
笔记(四):Tensor合并与分割
cata=torch.rand(4,32,8)b=torch.rand(5,32,8)print(torch.cat([a,b],dim=0).shape)#torch.Size([9,32,8])stack:createnewdima=torch.rand(32,8)b=torch.rand(32,8)print(torch.stack([a,b],dim=0).shape)#torch.Siz
ICDAT_GO
·
2023-09-26 19:42
PyTorch学习笔记
数据挖掘
pytorch
tensorflow
pytorch学习
笔记——BCE与CE
BCELoss的话只需要网络输出一个通道,CELoss(CrossEntropyLoss)需要输出n_class个通道。对于二分类任务可以使用CELoss输出两个通道,也可以使用BCELoss输出一个通道。https://www.jianshu.com/p/5b01705368bbhttps://zhuanlan.zhihu.com/p/372628727https://zhuanlan.zhih
phily123
·
2023-09-26 05:32
pytorch
学习
笔记
Pytorch学习
记录- 训练GRU Seq2Seq(论文再读)
对Pytorch的Seq2Seq这6篇论文进行精读,第二篇,Cho,K.,etal.,LearningPhraseRepresentationsusingRNNEncoder-DecoderforStatisticalMachineTranslation.2014.发表于2014年,全文链接摘要很牛逼的一个神经网络,基于RNN的Seq2Seq,用于处理符号。使用这个encoder-decoder计
我的昵称违规了
·
2023-09-24 03:46
PyTorch学习
:使用pytorch进行数据预处理
本文基于jupiter,将从如何读取数据集、对数据集处理缺失值、将数据转为张量形式来完成对数据的预处理。其中用到的数据集有:house_tiny.csv、boston_house_prices.csv、Iris.txt数据集:https://pan.baidu.com/s/17-xn66iShCXQCqZREo51Zw?pwd=5q6s一、读取数据集由于我未找到鸢尾花iris数据集的csv或者xl
今天也是元气满满的一天呢
·
2023-09-23 09:34
深度学习
pytorch
学习
人工智能
PyTorch学习
:关于张量的一些认识
本文主要通过对张量不同角度的认识以及相关张量的函数来帮助大家学习张量。一、张量的概念1.张量与NumPy的区分和相似点在阅读有关张量的知识时,感觉张量tensor与numpy很相似。以下两者之间的区分与相似点。(1)相似点Tensor和numpy都能进行基础的数值运算,比如数组间的加减乘除。Tensor和numpy都可以支持多维数组的操作,比如创建多维数组,还有索引等功能。(2)区别Tensor:
今天也是元气满满的一天呢
·
2023-09-23 07:25
深度学习
pytorch
学习
人工智能
Pytorch学习
笔记(模型验证/测试)
模型验证模型验证(测试,demo):利用已经训练好的模型,然后给它提供输入进行测试验证。importtorchimporttorchvision.transformsfromPILimportImagefromtorchimportnn#需要测试的图片image_path="../imgs/airplane.png"image=Image.open(image_path)image=image.c
高 朗
·
2023-09-23 03:38
pytorch
pytorch
model
test
pytorch学习
之实现代码在GPU上运行
当模型太大,或者参数太多的情况下,为了加快训练速度,经常会使用GPU来进行训练此时我们的代码需要稍作调整:在cup上运行的代码:#!/usr/bin/envpython#-*-coding:utf-8-*-importtorchfromtorchimportnnfromtorchimportoptimimportnumpyasnpfrommatplotlibimportpyplotasplt#1、
韭菜盖饭
·
2023-09-22 22:33
神经网络
pytorch
学习
人工智能
pytorch学习
------常见的优化算法
优化算法优化算法就是一种调整模型参数更新的策略,在深度学习和机器学习中,我们常常通过修改参数使得损失函数最小化或最大化。优化算法介绍1、梯度下降算法(batchgradientdescentBGD)每次迭代都需要把所有样本都送入,这样的好处是每次迭代都顾及了全部的样本,做的是全局最优化,但是有可能达到局部最优。梯度下降:全局最优2、随机梯度下降法(Stochasticgradientdescent
韭菜盖饭
·
2023-09-22 22:59
神经网络
pytorch
学习
算法
PyTorch学习
之线性回归练习+手写数字识别初体验
线性回归练习loss=(WX+b-y)^2defcompute_error_for_line_given_points(b,w,points):totalError=0foriinrange(0,len(points)):x=points[i,0]y=points[i,1]totalError+=(y-(w*x+b))**2returntotalError/float(len(points))de
糖公子没来过
·
2023-09-22 11:55
PyTorch
Deep
Learning
PyTorch
pytorch学习
3(pytorch手写数字识别练习)
网络模型设置三层网络,一般最后一层激活函数不选择relu任务步骤手写数字识别任务共有四个步骤:1、数据加载--LoadData2、构建网络--BuildModel3、训练--Train4、测试--Test实战1、导入各种需要的包importtorchfromtorchimportnnfromtorch.nnimportfunctionalasFfromtorchimportoptimimportt
dyh_chd
·
2023-09-22 11:24
pytorch
学习
人工智能
Pytorch学习
记录-TextMatching几个经典模型
Pytorch学习
记录-TextMatching文本匹配01本文是对知乎上这篇文章的阅读笔记,查了一下ACL和arXiv历年来关于TextMatching的论文,不知道如何下手,就找找别人的文献综述看看
我的昵称违规了
·
2023-09-21 13:29
pytorch学习
1
前言王者之争核心之争在于动态图优先还是静态图优先pytorch是动态计算生成新变量tf是先定义变量,再生成回归问题1、梯度下降算法了解[梯度算法是深度学习的核心,deeplearning求解复杂问题主要靠的是梯度下降算法,故deeplearning近似等于gradientprograming.]类似于高中所学的求导问题,求解loss的极小值,loss也可以看作我们熟悉的y,求y的倒数,再检验这个导
dyh_chd
·
2023-09-21 06:42
pytorch
学习
人工智能
pytorch学习
2
分类问题手写数字数据集其中,每个数字图片大小是28x28,矩阵中每个元素的大小为[0,1]区间的灰度值,将二维矩阵拉平(flat)为一维784,数据量不变,这样能忽略上下位置相关性,甚至左右位置相关性也可忽略,再插入一个维度变为[1,784]线性模型能解决吗一个简单的线性模型为:y=w*x+b但对于手写数字来说,用一个简单的线性模型,是不可能解决问题的。故用以上三个线性函数进行嵌套其中d1=784
dyh_chd
·
2023-09-21 06:05
pytorch
学习
人工智能
PyTorch学习
笔记(四) -------卷积层
什么是卷积?来看这张图输入图像是224*224*3即图片尺寸是224*224,3个通道;输出图片尺寸是224*224,64个通道个人认为,卷积就是图片经过卷积核的映射过程,如下图所示什么是通道?在卷积操作中一般要求设置的in_channel和out_channel在一遍jpg,png图片中,in_channel=3,为RGB三个通道,RGB的不同可以调整图片的色彩out_channel则表示卷积核
清忖灬
·
2023-09-21 01:27
PyTorch深度学习
pytorch
深度学习
机器学习
PyTorch学习
笔记(五) ---------最大池化和非线性激活
一、最大池化类似于卷积操作,这里最大池化的过程与卷积有部分相似之处,不多赘述最大池化是为了保留数据特征,减少数据量classModule(nn.Module):def__init__(self):super(Module,self).__init__()#父类继承self.maxpool1=MaxPool2d(kernel_size=3,ceil_mode=True)#kernel_size=3表
清忖灬
·
2023-09-21 01:57
PyTorch深度学习
pytorch
深度学习
机器学习
jupyter notebook无法运行代码
Pytorch学习
工具安装1.安装过程最近要开始深度学习的相关课程,得提前准备好相关工具。
佳雨初林
·
2023-09-20 17:04
深度学习
python
jupyter
深度学习
Pytorch学习
(四)Dataloader
Dataloader()从Dataset当中取数据。可以通过参数设置。num_wokers是否采用多线程,win系统一般只能设置为0.drop_last,为true的话,则舍去最后的不能除的数据,为false则不舍去。DataLoader是把所有img,target打包输出DataLoader中的数据:importtorchvisionfromtorch.utils.dataimportDataL
。七十二。
·
2023-09-20 14:09
神经网络
pytorch学习
---实现线性回归初体验
假设我们的基础模型就是y=wx+b,其中w和b均为参数,我们使用y=3x+0.8来构造数据x、y,所以最后通过模型应该能够得出w和b应该分别接近3和0.8。步骤如下:准备数据计算预测值计算损失,把参数的梯度置为0,进行反向传播更新参数方式一该方式没有用pytorch的模型api,手动实现importtorch,numpyimportmatplotlib.pyplotasplt#1、准备数据lear
韭菜盖饭
·
2023-09-19 23:44
神经网络
pytorch
学习
线性回归
ImportError: cannot import name ‘Mapping‘ from ‘collections‘
PSD:\Pycharm_data\小土堆
pytorch学习
>tensorboard--logdir=logsTraceback(mostrecentcalllast):File"D:\Anaconda3
Chen_Chance
·
2023-09-19 13:37
pytorch
pytorch 学习率代码_Pytorch使用ReduceLROnPlateau来更新学习率
自己之前写过一个
Pytorch学习
率更新,其中感觉依据是否loss升高或降低的次数来动态更新学习率,感觉是个挺好玩的东西,自己弄了好久都设置错误,今天算是搞出来了!
weixin_39817176
·
2023-09-19 09:27
pytorch
学习率代码
pytorch
每次迭代更新学习率
PyTorch学习
之六个学习率调整策略
PyTorch学习
率调整策略通过torch.optim.lr_scheduler接口实现。
张博208
·
2023-09-19 09:53
pytorch
Pytorch学习
整理笔记(二)
文章目录损失函数与反向传播优化器VGG模型使用与修改模型保存与读取损失函数与反向传播常见的损失函数:nn.L1Loss简单的做差值,nn.MSELoss平方差,nn.CrossEntropyLoss交叉熵见下图importtorchfromtorch.nnimportL1Loss,MSELoss,CrossEntropyLossinputs=torch.tensor([1,2,3],dtype=t
高 朗
·
2023-09-17 00:43
pytorch
pytorch
python
人工智能
Pytorch学习
笔记(模型训练)
模型训练在同一个包下创建train.py和model.py,按照步骤先从数据处理,模型架构搭建,训练测试,统计损失,如下面代码所示train.pyimporttorch.optimimporttorchvisionfromtorchimportnnfromtorch.utils.dataimportDataLoaderfromtorch.utils.tensorboardimportSummary
高 朗
·
2023-09-17 00:42
pytorch
pytorch
python
模型训练
强化学习实践
【
莫烦
Python】机械手臂从零开始(机器学习实战强化学习)_哔哩哔哩_bilibili
笑傲江湖2023
·
2023-09-15 16:23
人工智能
pytorch学习
(8)——现有网络模型的使用以及修改
1vgg16模型1.1vgg16模型的下载采用torchvision中的vgg16模型,能够实现1000个类型的图像分类,VGG模型在AlexNet的基础上使用3*3小卷积核,增加网络深度,具有很好的泛化能力。首先下载vgg16模型,python代码如下:importtorchvision#下载路径:C:\Users\win10\.cache\torch\hub\checkpointsvgg16_
阳排
·
2023-09-15 10:52
pytorch
学习
网络
pytorch学习
(7)——神经网络优化器torch.optim
1optim优化器PyTorch神经网络优化器(optimizer)通过调整神经网络的参数(weight和bias)来最小化损失函数(Loss)。学习链接:https://pytorch.org/docs/stable/optim.html1.1优化器基类使用时必须构造一个优化器对象,它将保存当前状态,并将根据计算的梯度(grad)更新参数。调用优化器的step方法。CLASStorch.opti
阳排
·
2023-09-15 10:21
pytorch
学习
神经网络
小土堆
pytorch学习
笔记
想入门pytorch强化学习,就去找pytorch的课来看。B站上播放量最高的就是小土堆的课,整体跟下来感觉内容还是很详细的,但和我的预期不太一样,这个是DL的不是RL的,不过作为对于pytorch使用的初期了解也是很好的,这篇博客就把整个学习过程做一个梳理。 注意:本笔记使用的数据集全部都是CIFAR10,下载比较简单~,下面开始数据读取 在读取之前,需要先准备好数据了,对于CIFAR1
DWQY
·
2023-09-15 09:43
pytorch
pytorch
学习
笔记
Pytorch学习
整理笔记(一)
文章目录数据处理DatasetTensorboard使用Transformstorchvision数据集使用DataLoader使用nn.Module的使用神经网络数据处理Dataset主要是对Dataset的使用:继承Dataset实现init方法,主要是进行一些全局变量的定义,在对其初始化时需要赋值。实现getitem方法,获取每个数据实现len方法,获取数据sizefromtorch.uti
高 朗
·
2023-09-15 03:24
pytorch
pytorch
python
Pytorch学习
:卷积神经网络—nn.Conv2d、nn.MaxPool2d、nn.ReLU、nn.Linear和nn.Dropout
文章目录1.torch.nn.Conv2d2.torch.nn.MaxPool2d3.torch.nn.ReLU4.torch.nn.Linear5.torch.nn.Dropout卷积神经网络详解:csdn链接其中包括对卷积操作中卷积核的计算、填充、步幅以及最大值池化的操作。1.torch.nn.Conv2d对由多个输入平面组成的输入信号应用2D卷积。官方文档:torch.nn.Conv2dCL
緈福的街口
·
2023-09-14 05:35
pytorch学习
pytorch
学习
cnn
Pytorch学习
:torch.max()
文章目录torch.max()dimkeepdimdim=0dim=1out:返回命名元组(values,indices)torch.max()torch.max(input)→Tensor:返回input张量中所有元素的最大值。注意输入的必须是张量形式,输出的也为张量形式当输入为tuple类型时,会报错,需要将输入改为tensor类型,输出也为tensor类型torch.max():官方文档to
緈福的街口
·
2023-09-14 05:32
pytorch学习
pytorch
学习
人工智能
电梯偶遇
善交益友
莫烦
厌,助其脉广仗慧贤。愿君明悉天下事,识以应变化万千。
闲耕默耘
·
2023-09-13 20:37
PyTorch学习
笔记:nn.SmoothL1Loss——平滑L1损失
PyTorch学习
笔记:nn.SmoothL1Loss——平滑L1损失torch.nn.SmoothL1Loss(size_average=None,reduce=None,reduction='mean
视觉萌新、
·
2023-09-13 09:09
PyTorch学习笔记
pytorch
学习
深度学习
pytorch学习
——LSTM和GRU
参考书籍:https://zh-v2.d2l.ai/chapter_recurrent-modern/lstm.html参考论文:https://colah.github.io/posts/2015-08-Understanding-LSTMs/简介:LSTM(长短期记忆网络)和GRU(门控循环单元)是两种常用的改进型循环神经网络(RNN),用于解决传统RNN中的长期依赖性和梯度消失/梯度爆炸等问
一只小百里
·
2023-09-12 12:03
pytorch
深度学习
pytorch
学习
lstm
PyTorch学习
之 自动微分
PyTorch学习
之自动微分autograd包autograd包是PyTorch中所有神经网络的核心。该autograd软件包为Tensors上的所有操作提供自动微分。
坐在墙上的猫
·
2023-09-12 09:30
PyTorch学习
PyTorch
自动微分
autograd
PyTorch学习
之 图像分类器
PyTorch学习
之图像分类器学习网站http://pytorch123.com/SecondSection/neural_networks/训练一个图像分类器通过前面的章节,我们已经知道怎样定义一个神经网络
坐在墙上的猫
·
2023-09-12 09:30
PyTorch学习
图像的读取与加载-PyTorch
图像的读取与加载-
PyTorch学习
网站https://www.jianshu.com/p/cfca9c4338e71.从文件中读取图像数据importmatplotlib.pyplotaspltimportskimage.ioasioimportcv2fromPILimportImageimportnumpyasnpimporttorch
坐在墙上的猫
·
2023-09-12 09:30
PyTorch学习
pytorch中的常用损失函数整理
参考博文:1、
Pytorch学习
之十九种损失函数2、PyTorch基础(五)--损失函数有示例代码3、PyTorch中的损失函数有示例代码1基本用法criterion=LossCriterion()#构造函数有自己的参数
wuling129
·
2023-09-09 19:29
pytorch
人工智能
python
python 爬虫 scrapy 和 requsts 哪个快_Python 爬虫进阶:从Requests到Scrapy 学习心得 *小说下载代码示例...
把两周以来从零学起的小小心得陈列如下:Requests入门我是学习
莫烦
的爬虫基础途中,突然就在python上开了窍。强烈推荐他的爬虫教程。
余丰慧
·
2023-09-08 10:53
python
爬虫
scrapy
和
requsts
哪个快
李沐
pytorch学习
-DropOut
DropOut即丢弃法,一般用于全连接层的隐含层,卷积层一般不用。在训练时随机把一些神经元丢弃,不参与运算,防止过度依赖某个神经元。可用于防止过拟合。DropOut过程如图1所示,隐含层每个神经元丢弃概率为p,丢弃前隐含层的数值为:丢弃后h2和h3被丢弃,丢弃后隐含层的数值为:图1.DropOut示意图因此梯度计算如下:先只看分量因为:因此:可见更新权重时,与被DropOut的神经元相连的梯度为零
三年级王垄翔
·
2023-09-08 01:27
深度学习
pytorch
学习
人工智能
pytorch学习
——循环神经网络RNN讲解及其实现
参考书籍:8.6.循环神经网络的简洁实现—动手学深度学习2.0.0documentation参考视频:54循环神经网络RNN【动手学深度学习v2】_哔哩哔哩_bilibili一.介绍循环神经网络RNN(RecurrentNeuralNetwork)是一类广泛应用于序列数据建模和处理的神经网络模型。相比于传统的前馈神经网络,RNN在处理序列数据时引入了时间维度的循环连接,使得网络能够保持对先前信息的
一只小百里
·
2023-09-08 00:56
深度学习
pytorch
学习
rnn
岀门人
岀门人离乡行囊有多沉,
莫烦
亲人多嘱咐。异乡难听故乡语,空腹才思家中饭。摇尾乞怜讨人悦,世间冷暖自己尝。自知多轻有多重,何须拿称断分毫。
书香第
·
2023-09-07 17:37
pytorch学习
过程中一些基础语法
1、tensor.view()函数,通俗理解就是reshape,#参数这里的-1需要注意,可以根据原张量size自行计算data1=torch.randn((4,2))data2=data1.view(2,4)data3=data2.view(-1,8)2、tensor.max()函数,在分类问题中,通常需要使用max()函数对softmax函数的输出值进行操作,求出预测值索引,然后与标签进行比对
mm_exploration
·
2023-09-05 23:56
python
ptorch
深度学习
pytorch学习
:Focal loss
1.总述Focalloss主要是为了解决one-stage目标检测中正负样本比例严重失衡的问题。该损失函数降低了大量简单负样本在训练中所占的权重,也可理解为一种困难样本挖掘。2.损失函数形式Focalloss是在交叉熵损失函数基础上进行的修改,首先回顾二分类交叉熵损失:是经过激活函数的输出,所以在0-1之间。可见普通的交叉熵对于正样本而言,输出概率越大损失越小。对于负样本而言,输出概率越小则损失越
BBB7788
·
2023-09-05 10:46
python
深度学习
Pytorch自定义自己的dataset和dataloader
Pytorch自定义自己的dataset和dataloader
Pytorch学习
(三)定义自己的数据集及加载训练pytorch的自定义数据集/DataLoader和Dataset重写Dataset和DataLoader
^_^linger^_^
·
2023-09-05 07:09
pytorch
人工智能
python
pytorch学习
nn.Conv2d(nc, ndf, 4, 2, 1, bias=False)
nn.Conv2d(nc,ndf,4,2,1,bias=False)如何理解这里的nc和ndf呢?首先,nc这里是输入的通道数,比如说图片的RGB三通道,当然这里的通道数是不限的。ndf是filter的数量,因为算的时候,就是先对每一个滤波器去计算每一个通道的,然后把每个通道的结果加和,这个和就是这个滤波器的结果,输出的就是由ndf个滤波器算出的结果的向量。后面三个4,2,1分别是kernel_s
朝不闻道,夕不可死
·
2023-09-03 11:08
打卡学习
深度学习
人工智能
李沐
pytorch学习
-BatchNormalization
一、意义在使用较深的网络时,BatchNormalization(批量归一化)几乎是必需的,可以加速收敛。对于图1所示的全连接层神经网络,输出节点的GroundTruth为,损失函数为,则损失对权重的梯度为:更新权重的梯度为:图1.网络结构如果该网络有5个隐含层,那么更新底层权重的梯度为:从上面的推导可知,如果网络非常深,那么更新底层权重的梯度后面会乘很多偏导数,而偏导数一般比较小,小于1,所以网
三年级王垄翔
·
2023-09-03 07:38
深度学习
pytorch
深度学习
Pytorch学习
系列-04-构建卷积神经网络实现CIFAR-10图片分类
对CIFAR-10数据集进行图像分类。数据集中的图像大小为32x32x3。定义卷积神经网络的结构这里,将定义一个CNN的结构。将包括以下内容:(1)卷积层:可以认为是利用图像的多个滤波器(经常被称为卷积操作)进行滤波,得到图像的特征。(2)通常,我们在PyTorch中使用nn.Conv2d定义卷积层,并指定以下参数:nn.Conv2d(in_channels,out_channels,kernel
骚火棍
·
2023-09-02 11:37
Pytorch学习系列
cifar-10图片分类
Pytorch学习
:神经网络模块torch.nn.Module和torch.nn.Sequential
文章目录1.torch.nn.Module1.1add_module(name,module)1.2apply(fn)1.3cpu()1.4cuda(device=None)1.5train()1.6eval()1.7state_dict()2.torch.nn.Sequential2.1append3.torch.nn.functional.conv2d1.torch.nn.Module官方文档
緈福的街口
·
2023-08-31 09:43
pytorch学习
pytorch
学习
人工智能
深度学习
PyTorch学习
笔记(一):基本操作
PyTorch学习
笔记(一):基本操作简介环境搭建数据操作Tensor创建Tensor获取Tensor形状加法操作索引改变形状线性代数广播机制内存开销Tensor与Numpy相互转换Tensor在GPU
FriendshipT
·
2023-08-30 23:43
PyTorch学习笔记
pytorch
深度学习
python
张量
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他