E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
莫烦pytorch学习
【
pytorch学习
实战】第二篇:多项式回归
往期相关文章列表:【
pytorch学习
实战】第一篇:线性回归【
pytorch学习
实战】第二篇:多项式回归【
pytorch学习
实战】第三篇:逻辑回归【
pytorch学习
实战】第四篇:MNIST数据集的读取
非晚非晚
·
2022-12-09 14:26
pytorch
pytorch
PloyRegression
多项式回归
python
多项式拟合
Pytorch学习
日记——Tensorboard使用(一)
学习视频——B站【小土堆】代码fromtorch.utils.tensorboardimportSummaryWriterwriter=SummaryWriter("logs")#writer.add_image()#y=2xforiinrange(100):writer.add_scalar("y=2x",2*i,i)writer.close()代码跑通后,在文件夹里会出现一个新创建的logs文
快乐白给
·
2022-12-09 14:55
pytorch
学习
深度学习
python
Pytorch学习
日记——Tensorboard使用(二)
学习视频——B站【小土堆】代码fromtorch.utils.tensorboardimportSummaryWriterimportnumpyasnpfromPILimportImagewriter=SummaryWriter("logs")image_path="dataset/train/erciyuan_image/871-28510.jpg"img_PIL=Image.open(imag
快乐白给
·
2022-12-09 14:55
pytorch
学习
深度学习
Pytorch学习
日记——Transforms使用(二)
学习视频——B站【小土堆】代码fromPILimportImagefromtorch.utils.tensorboardimportSummaryWriterfromtorchvisionimporttransforms#绝对路径C:\py\PycharmProjects\pythonproject1\dataset\train\erciyuan_image\407-22641.jpg#相对路径d
快乐白给
·
2022-12-09 14:55
pytorch
学习
python
Pytorch学习
日记——Transforms使用(一)
学习视频——B站【小土堆】本节内容是将图片转化为tensor形式fromPILimportImagefromtorchvisionimporttransforms#绝对路径C:\py\PycharmProjects\pythonproject1\dataset\train\erciyuan_image\407-22641.jpg#相对路径dataset/train/erciyuan_image/4
快乐白给
·
2022-12-09 14:53
pytorch
学习
人工智能
Pytorch学习
日记——常见的Transforms(一)
学习视频——B站【小土堆】代码fromPILimportImagefromtorch.utils.tensorboardimportSummaryWriterfromtorchvisionimporttransformswriter=SummaryWriter("logs")img=Image.open("dataset/train/erciyuan_image/407-22641.jpg")pr
快乐白给
·
2022-12-09 14:53
pytorch
学习
深度学习
【
pytorch学习
】hook打印中间特征图、计算网络算力等
点击“机器学习与生成对抗网络”,关注星标获取有趣、好玩的前沿干货!作者:知乎—涩醉地址:https://www.zhihu.com/people/se-zui01背景在神经网络的反向传播当中个,流程只保存叶子节点的梯度,对于中间变量的梯度没有进行保存。importtorchx=torch.tensor([1,2],dtype=torch.float32,requires_grad=True)y=x
机器学习与AI生成创作
·
2022-12-09 12:12
深度学习
人工智能
神经网络
计算机视觉
tensorflow
pytorch学习
(一)squeeze()与unsqueeze()
1、squeeze()顾名思义,这个函数主要对数据的维度进行压缩。这个函数对用来压缩维度为1的数据。不管是行数据或者是列数据。总之就是一把梭。这个时候我们来看下列代码。importtorcha=torch.randn(1,3,4,5)print(a)输出的结果:tensor([[[[-0.8684,0.0383,1.5879,-0.6658,-0.3179],[1.3566,0.0889,-0.9
Phr_Nick
·
2022-12-09 10:23
Pytorch
pytorch
unsqueeze
squeeze
pytorch学习
笔记(十)——统计属性
tensor统计属性1.norm-p范数p=1:绝对值之和范数p=2:绝对值平方之和开2次方......eg:2.mean,sum,min,max,prod(累乘)3.argmin,argmax(不给定dim参数时,打平后最大最小值的索引)a=torch.randn(4,10)#创建一个4行10列的Tensor不给定dim参数,求最大值所在的索引a.argmax()#结果为:tensor(18)即
weixin_46753186
·
2022-12-09 09:14
pytorch
pytorch
深度学习
数据分析
人工智能
Pytorch学习
之旅(6)——transforms类
一、transforms()类torchvision.transforms():用于常见的一些图形变换.链接:transforms()类的常用方法二、使用1、运用transforms.Compose()函数,将多个transforms的子类函数拼接成list():#串联图片变换的多个操作valid_transform=transforms.Compose([transforms.Resize((3
不想调试板子
·
2022-12-09 09:42
Pytorch学习之旅
python
pytorch卷积神经网络(cnn)手写数字识别
pytorch手写图片识别,其中还有一些小细节哦文章目录前言一、我们首先了解以下机器学习的数据结构1.数据结构2.表现形式二、代码实现三、结尾前言首先本文很感谢
莫烦
老师,在他的视频中学到了很多东西。
呆头鹅ccc
·
2022-12-09 08:56
pytorch
神经网络
深度学习
pytorch
Pytorch学习
目录Pytorch环境配置及安装Dataset类代码实战TensorBoard的使用TensorBoard的安装add_scalar()的使用Transforms的使用常见的Transforms全部代码ToTensor类Normalize的使用Compose的用法RandomCrop()用法torchvision中的数据集使用DataLoader的使用神经网络的基本骨架-nn.Module的使用土
GC_718
·
2022-12-08 21:55
深度学习
pytorch
python
深度学习
Pytorch入门学习笔记,机器学习模型训练流程,从入门到放弃
Pytorch学习
笔记【小土堆】视频链接:https://www.bilibili.com/video/BV1hE411t7RN?
Error 0
·
2022-12-08 21:53
人工智能
pytorch
机器学习
深度学习
人工智能
Pytorch学习
(十)Pytorch中常用的损失函数
1.torch.nn.CrossEntropyLossCrossEntropyLoss的作用相当于将nn.LogSoftmax()和nn.NLLLoss()结合在一起,nn.LogSoftmax()相当于先对输入矩阵计算softmax值,然后取log。举例说明这几个函数的功能:(1)使用nn.Softmax()+torch.log()来模拟nn.LogSoftmax()importtorchimp
TEn%
·
2022-12-08 21:16
Pytorch系列学习
深度学习与神经网络
Python
pytorch
深度学习
神经网络
python
pytorch学习
003- -如何导出c++中可用的pytorch模型
在C++中加载TorchScript模型推荐阅读官方文档:如何保存模型如何在c++中加载模型pytorch的c++apitorchScript文档以下内容基于官方文档写一些注释~~将pytorch模型转换为torch脚本pytorch模型从python到c++是通过torchScript实现的跟踪是指通过示例输入进行一次推理并获取模型的结构和参数,并记录下这些输入在模型中的流转。注释是向模型中添加
SigMap
·
2022-12-08 21:44
深度学习
pytorch
c++
深度学习
pytorch学习
记录史
***一、python两大函数:***1、dir():打开,看见2、help():说明书dir(pytorch)输出:1、2、3、4dir(pytorch.3)输出:a、b、chelp(pytorch.3.a)总结:dir函数:能让我们知道工具箱以及工具箱中的分隔区有什么东西help函数:能让我们知道每个工具是如何使用的,工具的使用方法。二、jupyter使用:1、打开condapromt激活py
奶盐cookie
·
2022-12-08 21:09
pytorch
python
人工智能
交叉熵损失函数分类_
PyTorch学习
笔记——多分类交叉熵损失函数
理解交叉熵关于样本集的两个概率分布p和q,设p为真实的分布,比如[1,0,0]表示当前样本属于第一类,q为拟合的分布,比如[0.7,0.2,0.1]。按照真实分布p来衡量识别一个样本所需的编码长度的期望,即平均编码长度(信息熵):如果使用拟合分布q来表示来自真实分布p的编码长度的期望,即平均编码长度(交叉熵):直观上,用p来描述样本是最完美的,用q描述样本就不那么完美,根据吉布斯不等式,恒成立,当
海南王先生
·
2022-12-08 13:28
交叉熵损失函数分类
2022.07 TensorFlow-MNIST-CNN (解決版本問題)(會持續更新)
神經網絡學習小白記錄一下學習Tensorflow入門過程Tensorflowv1教程CNN卷积神经网络3|
莫烦
Python莫神的很好,只是好像沒有更新Tensorflowv2的,如果哪位朋友有的話可以分享一下他的
ZXZ961126
·
2022-12-08 12:43
tensorflow
cnn
python
《PyTorch深度学习实践》 第5讲 线性回归
PyTorch学习
(四)--用PyTorch实现线性回归_陈同学爱吃方便面的博客-CSDN博客三、参考了上述大佬的代码并加上了画图部分importtorchi
佤垭
·
2022-12-08 11:58
深度学习
pytorch
线性回归
PyTorch学习
笔记(十二) ---- PyTorch目标检测
转载请注明作者和出处:http://blog.csdn.net/john_bh/文章目录1.定义数据集2.为PennFudan编写自定义数据集3.定义模型3.1PennFudan数据集的实例分割模型4.训练和验证完整代码4.1为数据扩充/转换编写辅助函数:4.2编写执行训练和验证的主要功能4.3.完整代码5.总结在文中将微调在Penn-Fudan数据库中对行人检测和分割的已预先训练的MaskR-C
john_bh
·
2022-12-08 09:24
PyTorch
PyTorch
PyTorch学习笔记
PyTorch目标检测
目标检测
Mask
R-CNN
U_net 网络(
pytorch学习
)
U_net网络(
pytorch学习
) U_net是一个经典的图像分割网络,可以完成许多功能,在学习U_net网络后结合B站的视频尝试编写U_net代码,锻炼编程能力一U_net网络结构 U_net网络的网络结构如下图所示
theshy123333
·
2022-12-08 09:45
pytorch
在
PyTorch学习
过程中所遇问题
1、RuntimeError:stackexpectseachtensortobeequalsize,butgot[3,256,256]atentry0and[3,249,256]atentry26报错原因:(1)没有转换图片格式,不同的图片格式的颜色空间不同设置in_channel的值与读入图像img1的实际通道数不符合。2、jupyterNotebook无法创建新文件,提示文件不可信,终端里显
好烦啊i-27
·
2022-12-08 09:57
pytorch
学习
numpy
「论文工具」
莫烦
Pytorch(一)
资源来源于:
莫烦
Pytorch实验的环境:macOsCatalina10.15Python3.6.9文章目录PyTorch简介1.1科普:人工神经网络VS生物神经网络1.2什么是神经网络(NeuralNetwork
雨y飘零久
·
2022-12-08 07:51
论文工具
PyTorch学习
—16.PyTorch中hook函数
文章目录一、Hook函数概念二、四种Hook函数介绍1.Tensor.register_hook2.Module.register_forward_hook3.Module.register_forward_pre_hook4.Module.register_backward_hook一、Hook函数概念 Hook函数机制:不改变主体,实现额外功能,像一个挂件一样将功能挂到函数主体上。Hook函
哎呦-_-不错
·
2022-12-08 03:59
PyTorch框架学习
PyTorch
hook函数
【
Pytorch学习
笔记】pytorch构建一个简单可训练网络
一、分步代码1.引入库代码如下(示例):#coding:utf-8importtorchfromtorch.utils.dataimportDataLoaderimporttorchvision.transformsastransformsimportnumpyasnpimportosfromtorch.autogradimportVariableimporttorch.nnasnnimportt
秋天的波
·
2022-12-08 03:24
深度学习
pytorch
计算机视觉
pytorch
学习
深度学习
人工智能
python
【
pytorch学习
】四种钩子方法(register_forward_hook等)的用法和注意点
为了节省显存(内存),pytorch在计算过程中不保存中间变量,包括中间层的特征图和非叶子张量的梯度等。有时对网络进行分析时需要查看或修改这些中间变量,此时就需要注册一个钩子(hook)来导出需要的中间变量。网上介绍这个的有不少,但我看了一圈,多少都有不准确或不易懂的地方,我这里再总结一下,给出实际用法和注意点。hook方法有四种:torch.Tensor.register_hook()tor
Brikie
·
2022-12-08 03:22
pytorch学习
python
深度学习
【
Pytorch学习
笔记】通过实现Grad-CAM学习module中的forward_hook和backward_hook函数
一、pandas是什么?1.引入库代码如下(示例):importcv2importosimportnumpyasnpfromPILimportImageimporttorchimporttorch.nnasnnimporttorch.nn.functionalasFimporttorchvision.transformsastransforms2.定义网络代码如下(示例):classNet(nn.
秋天的波
·
2022-12-08 03:51
深度学习
计算机视觉
机器学习
pytorch
学习
python
深度学习
人工智能
pytorch学习
笔记六:torch.utils.data下的TensorDataset和DataLoader的使用
一、TensorDataset对给定的tensor数据(样本和标签),将它们包装成dataset。注意,如果是numpy的array,或者Pandas的DataFrame需要先转换成Tensor。'''data_tensor(Tensor)-样本数据target_tensor(Tensor)-样本目标(标签)'''dataset=torch.utils.data.TensorDataset(dat
耐心的小黑
·
2022-12-08 02:57
#
PyTorch学习笔记
深度学习
pytorch
PyTorch学习
笔记
文章目录1PyTorch基本数据类型1.1与Python的比较1.2标量(dim=0)1.3张量/向量(dim=1)1.4dim,sizeandshape1.5dim=3的tensor1.6dim=4的tensor1.7一些其他知识2创建Tensor2.1从Numpy中导入2.2使用其他方式创建Tensor3nn.Module3.1nn.Module的好处3.1.1embedcurrentlaye
m0_73819666
·
2022-12-08 02:25
学习笔记
pytorch
学习
python
Pytorch学习
笔记(六)
目录01配置环境①Conda环境②项目环境02利用YOLOv5预测03训练YOLOv5模型本笔记主要记录了以github上的开源项目为例,利用YOLOv5进行目标检测、训练YOLOv5神经网络、制作和训练自己的数据集的学习过程。项目地址:https://github.com/ultralytics/yolov5项目版本:Tags=v6.001配置环境①Conda环境下载github项目后,在pyc
Hygge0+
·
2022-12-08 02:18
深度学习
pytorch
学习
python
深度学习
Deep Reinforcement Learning
Python3.6零基础目前用一个礼拜看了吴恩达的机器学习课程,一礼拜看了吴恩达深度学习的第一课+第二课中tensorflow那一讲DavidSliver强化学习的第一讲、李宏毅的MLLecture28、
莫烦
马里奥奥利奥
·
2022-12-08 00:04
强化学习
python
PyTorch学习
笔记(七)------------------ Vision Transformer
目录一、PatchandLinearmap二、Addingclassificationtoken三、Positionalencoding四、LN,MSAandResidualConnection五、LN、MLPandResidualConnection六、ClassificationMLP前言:visiontransformer(vit)自Dosovitskiy等人介绍以来,一直在计算机视觉领域占
清忖灬
·
2022-12-07 21:24
PyTorch深度学习
transformer
深度学习
计算机视觉
【
Pytorch学习
笔记】6.关于Tensor、Module内参数的dtype类型转换
本文继续刨刨代码背后的含义。文章目录问题引入Module的float()方法是对模型所有参数进行的float转换疑问解答1buffer是另一种模型参数2浮点型参数指代float64,float32,float16小总结:Tensor的dtype类型转换3为什么要统一成float32总结问题引入我们在学习深度学习实战项目(比如Kaggle房价预测)时,会看到在定义完线性模型后,在定义训练方法时,看到
takedachia
·
2022-12-07 19:10
Pytorch学习笔记
pytorch
python
深度学习
人工智能
PyTorch学习
笔记(二:Tensor和Variable&&自动微分)
PyTorch学习
笔记(二:Tensor和Variable&&自动微分)参考博客:https://ptorch.com/docs/3/autograd_tutorial(Pytorch官方中文教程)https
jiangchao98
·
2022-12-07 19:08
深度神经网络
python
深度学习
机器学习
pytorch
pytorch学习
笔记(零)之基础知识(张量,自动微分)
文章目录张量(tensor)基础1.张量的创建2.张量的操作(1)张量变换(2)张量拼接与切分tensor与numpy转换1.numpy.array转换为torch.tensor2.torch.tensor转换为numpy.array自动微分Autograd张量(tensor)基础tensor和numpy非常像,无论是创建还是其他操作几乎一样,不熟悉numpy的可以先看这一篇:numpy快速入门教
nanyidev
·
2022-12-07 19:07
2022
人工智能
机器学习
pytorch
pytorch学习
笔记-入门-自动求导
#!/usr/bin/envpython#coding:utf-8#In[1]:get_ipython().magic(u'matplotlibinline')##Autograd自动求导机制:#Pytorch中所有神经网络的核心是autograd包。#autograd包为张量上所有操作提供了自动求导。他是一个运行时定义的框架,这意味着反向传播是根据你的代码来确定如何运行。并且每次迭代可以是不同的
wenqiang su
·
2022-12-07 13:49
Pytorch
Pytorch简单学习入门--Autograd自动求导
这里和
莫烦
老师的笔记有点不同,新的Pytorch版本里面,将Tensor和Variable进行了合并。importto
不不加辣椒
·
2022-12-07 13:16
pytorch学习笔记
神经网络
pytorch学习
笔记03-nn.Module-卷积-池化-激活函数
Content:1.构建模型2.torch.nn(1)nn.Parameter(2)nn.Module(3)nn.functional(4)nn.init3.Containers(1)nn.Sequential(2)nn.ModuleList(3)nn.ModuleDict4.卷积5.转置卷积6.池化7.线性层8.激活函数1.构建模型关键步骤:(1)init()构建子模块;(2)forward()
marvel2018
·
2022-12-07 12:18
pytorch
深度学习
pytorch学习
(五)---torch.nn模块
本篇自学笔记来自于b站《PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】》,Up主讲的非常通俗易懂,文章下方有视频连接,如有需要可移步up主讲解视频,如有侵权,实非故意,深表歉意,请与我联系,删除相关内容!本节介绍一些torch.nn模块的常用层,包括卷积层、池化层以及激活函数等。首先是卷积层:torch.nn.Conv2d():主要参数有:in_channel:输入的通道数;out
橘春十三99
·
2022-12-07 12:46
pytorch
学习笔记
python
深度学习
pytorch
Pytorch学习
笔记(三)——索引与切片
学习目标:掌握Pytorch路漫漫其修远兮,吾将上下而求索。学习内容:索引:pytorch,默认从左往右开始索引,-1表示从右往左。:表示都取x:表示从x取到最后:x表示从开始取到xx:y表示从x取到y#生成一个随机tensor,表示类似一个CNN的图片的输入数据,4表示这个batch一共有4张照片,而3表示图片的通道数为3(RGB),(28,28)表示图片的大小a=torch.randn(4,3
喵了个咪的大猫猫
·
2022-12-07 10:55
Pytorch学习
pytorch
学习
python
pytorch学习
(一)数据加载之前的预处理(UCSD数据集)
最近在做有关视频异常检测方面的实验,需要用到UCSD数据集,pytorch自定义加载自己的数据集时需要将自己的数据的路径以及标签存放到txt文档中,方便后续的数据加载。最后我会给出生成好的UCSD数据集txt文档下载链接,有需要的可以自行下载。1、UCSD异常检测数据集UCSD数据集是通过固定摄像头俯瞰人行道拍摄的,它有两个子文件夹,分别是UCSDped1和UCSDped2,每个文件夹下都有剪辑好
cuixianheng
·
2022-12-07 09:52
pytorch
深度学习
python
pytorch
PyTorch学习
笔记(七):PyTorch可视化
PyTorch可视化往期学习资料推荐:1.Pytorch实战笔记_GoAI的博客-CSDN博客2.Pytorch入门教程_GoAI的博客-CSDN博客本系列目录:
PyTorch学习
笔记(一):PyTorch
GoAI
·
2022-12-07 02:56
Pytorch
深度学习
人工智能
深度学习
pytorch
可视化
PyTorch 学习笔记(六):PyTorch hook 和关于 PyTorch backward 过程的理解 call
您的位置首页
PyTorch学习
笔记系列
PyTorch学习
笔记(六):PyTorchhook和关于PyTorchbackward过程的理解发布:2017年8月4日7,195阅读0评论在看pytorch官方文档的时候
weixin_ry5219775
·
2022-12-07 02:26
pytorch学习
笔记:task07
task07一、可视化网络结构1、使用print函数打印模型基础信息2、使用torchinfo可视化网络结构二、CNN卷积层可视化1可视化卷积核2、可视化CNN特征图的方法3CNNclassactivationmap可视化方法三、使用Tensorboard可视化训练过程1TensorBoard可视化的基本逻辑2TensorBoard的配置与启动一、可视化网络结构背景:深度神经网络的结构越来越复杂,
qq_32795481
·
2022-12-07 02:26
pytorch
python
pytorch学习
笔记(七):pytorch hook 和 关于pytorch backward过程的理解
pytorch的hook机制在看pytorch官方文档的时候,发现在nn.Module部分和Variable部分均有hook的身影。感到很神奇,因为在使用tensorflow的时候没有碰到过这个词。所以打算一探究竟。Variable的hookregister_hook(hook)注册一个backward钩子。每次gradients被计算的时候,这个hook都被调用。hook应该拥有以下签名:hoo
长夜悠悠
·
2022-12-07 02:56
pytorch
pytorch学习
笔记—tensorboard的使用(2)
复制图片的相对地址,打开控制台,image需要是以下三种类型img_tensor(torch.Tensor,numpy.array,orstring/blobname)image_path="D:\\a\\dataset\\000.png"fromPILimportImage是PIL.Png类型的,不满足要求。利用opencv读取图片,获得numpy型图片数据→利用numpy.array(),对P
A徒手摘星星
·
2022-12-06 23:44
pytorch
深度学习
人工智能
pytorch学习
笔记-最大池化的使用
作用:保留输入特征,同时减小数据量。输入图像:1203101231121005231121011池化核:3*3,kernel_size=3输出图像:ceil_mode=True2351ceil_mode=False2输入:fromturtleimportshapeimporttorchfromtorchimportnnfromtorch.nnimportMaxPool2dinput=torch.t
A徒手摘星星
·
2022-12-06 23:13
pytorch
人工智能
python
pytorch学习
笔记一:model.train()与model.eval()
model.train()与model.eval()的用法 如果模型中有BN层(BatchNormalization)和Dropout,需要在训练时添加model.train(),在测试时添加model.eval()。其中model.train()是保证BN层用每一批数据的均值和方差,而model.eval()是保证BN用全部训练数据的均值和方差;而对于Dropout,model.train()是
只争朝夕^ω^)↗
·
2022-12-06 22:22
深度学习
pytorch学习
笔记-网络训练中,model.train() model.eval()的使用
1.model.train()启用BatchNormalization和Dropout。如果模型中有BN层(BatchNormalization)和Dropout,需要在训练时添加model.train()。model.train()作用:对BN层,保证BN层能够用到每一批数据的均值和方差,并进行计算更新;对于Dropout,model.train()是随机取一部分网络连接来训练更新参数。2.mo
冲上云霄!
·
2022-12-06 22:52
python
Pytorch学习
笔记
Pytorch学习
笔记model.train()和model.eval()作用model.train()和model.eval()作用如果模型中有BN层(BatchNormalization)和Dropout
qq_38420710
·
2022-12-06 22:51
笔记
人工智能
pytorch
上一页
12
13
14
15
16
17
18
19
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他