E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
PyTorch学习笔记
深度学习(七十三)
pytorch学习笔记
先吐槽一下,深度学习发展速度真的很快,深度学习框架也在逐步迭代,真的是苦了俺这搞深度学习程序员。本人从三年前开始学深度学习开始,这些深度学习框架也是一个换过一个,从keras、theano、caffe、darknet、tensorflow,最后到现在要开始使用pytorch。一、变量、求导torch.autograd模块默认的variable定义的时候,requires_grad是false,变量
hjimce
·
2018-03-25 14:53
深度学习
pytorch学习笔记
-mnist
pytorch学习笔记
1-mnist摘要:实现mnist手写数字识别,test准确率98%1.构建网络nn.Moudle是pytorch官方指定的编写Net模块,在init函数中添加需要使用的层,在foeword
xz1308579340
·
2018-03-11 22:44
pytorch学习笔记
pytorch学习笔记
(十九):torchtext
文章部分翻译自http://anie.me/On-Torchtext/API一览torchtext.datatorchtext.data.Example:用来表示一个样本,数据+标签torchtext.vocab.Vocab:词汇表相关torchtext.data.Datasets:数据集类,__getitem__返回Example实例torchtext.data.Field:用来定义字段的处理方
ke1th
·
2018-02-11 13:04
deeplearning
NLP
pytorch
pytorch学习笔记
【
Pytorch学习笔记
】——了解Pytorch
用了一段时间tensorlfow和pytorch咯最近越来越觉得pytorch的好用,虽然tf资源强大,但是那个会话开启和关闭,图模型有点厚重,相比之下,pytorch的简洁显得非常的优美!也非常容易上手!所以准备系统的学习一下pytorch本篇翻译的是这个http://pytorch.org/tutorials/beginner/blitz/tensor_tutorial.html#sphx-g
bananajia
·
2018-01-30 17:58
Pytorch学习笔记
(一)
本篇博客主要向大家介绍Pytorch中view()、squeeze()、unsqueeze()、torch.max()函数,这些函数虽然简单,但是在神经网络编程总却经常用到,希望大家看了这篇博文能够把这些函数的作用弄清楚。importtorcha=torch.Tensor(2,3)a3.8686e+259.1836e-391.2771e-409.0079e+151.6751e-372.9775e-
lanse_zhicheng
·
2018-01-24 11:24
pytorch学习笔记
(一) model的cuda运行,torch.unsqueeze
官方docs:http://pytorch.org/docs/master/中文版docs:http://pytorch-cn.readthedocs.io/zh/latest/最近在看廖星宇写的>,发现了一些问题(可能是版本问题),在这边总结一下:书中代码地址https://github.com/SherlockLiao/code-of-learn-deep-learning-with-pyto
夜空_7ddd
·
2017-12-01 18:30
pytorch 学习
pytorch学习笔记
(一)pytorch是一个动态的建图的工具。不像Tensorflow那样,先建图,然后通过feed和run重复执行建好的图。相对来说,pytorch具有更好的灵活性。
bbzz2
·
2017-11-26 19:10
pytorch
莫烦
PyTorch学习笔记
(五)——模型的存取
本文主要是介绍如何对训练好的神经网络模型进行存取。编辑器:spyder1.快速搭建神经网络这里采用上一节介绍的方法快速搭建一个小的神经网络:defsave():#savenet1net1=torch.nn.Sequential(torch.nn.Linear(1,10),torch.nn.ReLU(),torch.nn.Linear(10,1))optimizer=torch.optim.SGD(
manong_wxd
·
2017-11-21 15:48
PyTorch
莫烦
PyTorch学习笔记
(一)——Torch或Numpy
1.什么是NumpyNumpy系统是Python的一种开源的数值计算扩展,用python实现的科学计算包。这种工具可用来存储和处理大型矩阵,包括强大的N维数组对象Array,比较成熟的函数库等。numpy和稀疏矩阵运算包scipy配合使用更加方便。2.用Numpy还是TorchTorch自称为神经网络界的Numpy,它能将torch产生的tensor放在GPU中加速运算,就想Numpy会把arra
manong_wxd
·
2017-11-21 11:39
PyTorch
莫烦
PyTorch学习笔记
(四)——快速搭建法
本文主要是用PyTorch来实现另一种快速搭建神经网络的方法。编辑器:spyder1.用类构建神经网络classNet(torch.nn.Module):def__init__(self,n_feature,n_hidden,n_output):super(Net,self).__init__()self.hidden=torch.nn.Linear(n_feature,n_hidden)self
manong_wxd
·
2017-11-21 09:36
PyTorch
莫烦
PyTorch学习笔记
(三)——分类
本文主要是用PyTorch来实现一个简单的分类任务。编辑器:spyder1.引入相应的包及建立数据集importtorchfromtorch.autogradimportVariableimporttorch.nn.functionalasFimportmatplotlib.pyplotasplt#makefakedatan_data=torch.ones(100,2)x0=torch.norma
manong_wxd
·
2017-11-20 19:40
PyTorch
莫烦
PyTorch学习笔记
(二)——回归
本文主要是用PyTorch来实现一个简单的回归任务。编辑器:spyder1.引入相应的包及生成伪数据importtorchimporttorch.nn.functionalasF#主要实现激活函数importmatplotlib.pyplotasplt#绘图的工具fromtorch.autogradimportVariable#生成伪数据x=torch.unsqueeze(torch.linspa
manong_wxd
·
2017-11-20 18:55
PyTorch
Pytorch学习笔记
(三)线性回归与逻辑回归
在了解了Pytorch的一些机制后,当然要进行一些实例的学习,毕竟实践出真知嘛。对于所有的机器学习爱好者来说,第一个要学的模型无疑是线性回归所谓线性回归,指的就是用对输入数据的每个维度进行线性组合拟合Label-y。最简单的线性回归即是二维平面内的直线拟合。为此我们可以编造一些数据:importtorchimporttorch.nnasnnimportnumpyasnpimportmatplotl
ChrisTiger22
·
2017-11-19 23:54
Pytorch
Pytorch学习笔记
(三)线性回归与逻辑回归
在了解了Pytorch的一些机制后,当然要进行一些实例的学习,毕竟实践出真知嘛。对于所有的机器学习爱好者来说,第一个要学的模型无疑是线性回归所谓线性回归,指的就是用对输入数据的每个维度进行线性组合拟合Label-y。最简单的线性回归即是二维平面内的直线拟合。为此我们可以编造一些数据:importtorchimporttorch.nnasnnimportnumpyasnpimportmatplotl
ChrisTiger22
·
2017-11-19 23:54
Pytorch
pytorch学习笔记
(1)--pytorch张量
本文讲述pytorch张量torch.Tensor类型的构建与相互转换以及torch.type()和torch.type_as()的用法(1)pytorch中张量的定义与类型pytorch的张量定义有很多种,对于cpu版本有如下七种,对于gpu版本有八种类型,gpu版本的张量只需要在cpu版本的基础上增加cuda就可以了:torch.cuda.DoubleTensor(2,3)torch.Floa
nnUyi
·
2017-11-08 08:37
pytorch学习笔
pytorch学习笔记
(二) 其他机制
broadcast机制pytroch中的tensor和numpy中的ndarray一样是支持broadcast的。支持原则是:1.两个tensor都至少有一维2.从最后一维开始,要么其中一个tensor的维数等于1,要么两个维数相同。CUDA语法pytorch可以通过一行代码实现数据在GPU和CPU之间的切换,并且在网络训练过程中,你可以随时将数据从GPU中拿出来进行操作,包括打印之类的,比tf要
ChrisTiger22
·
2017-11-01 10:44
Pytorch
pytorch学习笔记
(二) 其他机制
broadcast机制pytroch中的tensor和numpy中的ndarray一样是支持broadcast的。支持原则是:1.两个tensor都至少有一维2.从最后一维开始,要么其中一个tensor的维数等于1,要么两个维数相同。CUDA语法pytorch可以通过一行代码实现数据在GPU和CPU之间的切换,并且在网络训练过程中,你可以随时将数据从GPU中拿出来进行操作,包括打印之类的,比tf要
ChrisTiger22
·
2017-11-01 10:44
pytorch学习笔记
(一) autograd
学了大概一个月时间的pytorch和tensorflow,觉得pytorch写法比tf更简单,也更灵活。不需要通过session来run到结果,数据可以轻松地在cpu和gpu之间切换。pytorch的一个最重要的机制就是autograd机制,通过这个机制你可以轻易的固定你的模型的部分参数,从而在训练中只是训练你希望训练的那部分计算图。在pytorch中有两个类型的变量,一个是tensor,另外一个
ChrisTiger22
·
2017-10-31 10:02
Pytorch
pytorch学习笔记
(一) autograd
学了大概一个月时间的pytorch和tensorflow,觉得pytorch写法比tf更简单,也更灵活。不需要通过session来run到结果,数据可以轻松地在cpu和gpu之间切换。pytorch的一个最重要的机制就是autograd机制,通过这个机制你可以轻易的固定你的模型的部分参数,从而在训练中只是训练你希望训练的那部分计算图。在pytorch中有两个类型的变量,一个是tensor,另外一个
ChrisTiger22
·
2017-10-31 10:02
Pytorch
Pytorch学习笔记
(二)自己加载单通道图片用作数据集训练
作者:灰色橡皮擦pytorch在torchvision包里面有很多的的打包好的数据集,例如minist,Imagenet-12,CIFAR10和CIFAR100。在torchvision的dataset包里面,用的时候直接调用就行了。具体的调用格式可以去看文档(目前好像只有英文的)。网上也有很多源代码。不过,当我们想利用自己制作的数据集来训练网络模型时,就要有自己的方法了。pytorch在torc
灰色橡皮擦
·
2017-06-15 20:51
Pytorch学习笔记
Pytorch学习笔记
(一):pytorch的安装-Ubuntu14.04
Pytorch在Ubuntu下的安装还是很容易的,知道你的Python版本,再直接安装就可以了。我的是Python2.7的,直接用PIP安装,没有出什么错,如果有什么依赖直接再安装就行了。反正也就是几行命令的事。pipinstallhttp://download.pytorch.org/whl/cu75/torch-0.1.11.post5-cp27-none-linux_x86_64.whlpi
灰色橡皮擦
·
2017-06-15 20:11
Pytorch学习笔记
pytorch学习笔记
(十):learning rate decay(学习率衰减)
pytorchlearningratedecay本文主要是介绍在pytorch中如何使用learningratedecay.先上代码:defadjust_learning_rate(optimizer,epoch):"""每50个epoch,学习率以0.99的速率衰减"""ifepoch//50==0:lr=args.lr*(0.1**(epoch//30))forparam_groupinopt
qq_27245709
·
2017-06-15 13:23
pytorch
pytorch学习笔记
(六):自定义Datasets
自定义Datasets什么是Datasets:在输入流水线中,我们看到准备数据的代码是这么写的data=datasets.CIFAR10("./data/",transform=transform,train=True,download=True)。datasets.CIFAR10就是一个Datasets子类,data是这个类的一个实例。为什么要定义Datasets:PyTorch提供了一个工具函
qq_27245709
·
2017-06-15 13:03
pytorch
Pytorch学习笔记
(六)
(10)使用Pytorch实现ResNetResNet要解决的问题深度学习网络的深度对最后的分类和识别的效果有着很大的影响,所以正常想法就是能把网络设计的越深越好,但是事实上却不是这样,常规的网络的堆叠(plainnetwork)在网络很深的时候,效果却越来越差了。其中的原因之一即是网络越深,梯度消失的现象就越来越明显,网络的训练效果也不会很好。但是现在浅层的网络(shallowernetwork
kongshuchen
·
2017-05-16 16:24
Pytorch
Pytorch学习笔记
(五)
(9)在Pytorch中使用LSTM学习Pytorch的RNN使用时最好去官方文档看一下API是如何使用的:(http://pytorch.org/docs/nn.html#recurrent-layers)。一个需要注意的地方是在Pytorch中RNN的输入input的shape的三维分别是(seq_len,batch,input_size),隐藏层h_0的shape三维分别是(num_laye
kongshuchen
·
2017-05-16 14:37
Pytorch
Pytorch学习笔记
(四)
(8)迁移学习(TransferLearning)接下来将会使用ResNet进行迁移学习,完成图片分类。目前迁移学习的方式主要有两种,一种是fineturning,就是只改变pretrain网络最后一层或者几层的网络结构,对于pretrain网络的全局参数在原来的基础上进行微调;另外一种是将ConvNet当做一个特征提取器(FeatureExtractor),结构方面只改变pretrain网络最后
kongshuchen
·
2017-05-16 10:13
Pytorch
Pytorch学习笔记
(三)
(6)在Pytorch中实现自己定义的层:在Pytorch中实现自己定义的层需要继承torch.autograd.Function类,然后实现其中的forward和backward方法,代码如下所示:#-*-coding:utf-8-*-importtorchfromtorch.autogradimportVariableclassMyReLU(torch.autograd.Function):d
kongshuchen
·
2017-05-16 00:27
Pytorch
Pytorch学习笔记
(二)
(3)批训练包装器DataLoaderPytorch中提供了一种帮你整理你的数据结构的好东西,叫做DataLoader,我们能用它来包装自己的数据,进行批训练.importtorchimporttorch.utils.dataasDataBATCH_SIZE=5x=torch.linspace(1,10,10)y=torch.linspace(10,1,10)torch_dataset=Data.
kongshuchen
·
2017-05-15 23:57
Pytorch
Pytorch学习笔记
(一)
最近,Torch7团队开源了PyTorch。据该项目官网介绍,PyTorch是一个Python优先的深度学习框架,能够在强大的GPU加速基础上实现张量和动态神经网络。官网:http://pytorch.org/github:https://github.com/pytorch/pytorch官方文档:http://pytorch.org/docs/tensors.htmlpytorch的一大优势就
kongshuchen
·
2017-05-15 21:48
Pytorch
pytorch学习笔记
(八):PytTorch可视化工具 visdom
VisdomPyTorch可视化工具本文翻译的时候把略去了Torch部分。项目地址一个灵活的可视化工具,可用来对于实时,富数据的创建,组织和共享。支持Torch和Numpy。总览基本概念Setup启动可视化接口总结总览Visdom目的是促进远程数据的可视化,重点是支持科学实验。。向您和您的合作者发送可视化图像,图片和文本。通过编程组织您的可视化空间,或者通过UI为实时数据创建dashboards,
算法学习者
·
2017-04-06 16:02
pytorch
pytorch学习笔记
(八):PytTorch可视化工具 visdom
VisdomPyTorch可视化工具本文翻译的时候把略去了Torch部分。项目地址[外链图片转存失败(img-uSERNfqv-1567829177278)(https://lh3.googleusercontent.com/-bqH9UXCw-BE/WL2UsdrrbAI/AAAAAAAAnYc/emrxwCmnrW4_CLTyyUttB0SYRJ-i4CCiQCLcB/s0/Screen+Sh
ke1th
·
2017-04-06 14:08
pytorch
pytorch学习笔记
pytorch学习笔记
(二):gradient
gradient在BP的时候,pytorch是将Variable的梯度放在Variable对象中的,我们随时都可以使用Variable.grad得到对应Variable的grad。刚创建Variable的时候,它的grad属性是初始化为0.0的。importtorchfromtorch.autogradimportVariablew1=Variable(torch.Tensor([1.0,2.0,
算法学习者
·
2017-03-16 14:49
pytorch
hjimce算法类博文目录
1393852684知乎:https://www.zhihu.com/people/huang-jin-chi-28/activities一、深度学习深度学习(七十四)半监督Meanteachers深度学习(七十三)
pytorch
hjimce
·
2016-01-24 13:52
图像处理
机器学习
深度学习
数据挖掘
基础知识
图形处理
算法移植优化
上一页
19
20
21
22
23
24
25
26
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他