E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
莫烦tensorflow学习
莫烦
pytorch 循环神经网络(分类)
MNIST手写数据importtorchfromtorchimportnnimporttorchvision.datasetsasDataimporttorchvision.transformsastransformsimportmatplotlib.pyplotasplttorch.manual_seed(1)EPOCH=1BATCH_SIZE=64TIME_STEP=28#rnn时间补数/图片
Kstheme
·
2019-08-22 09:50
pytorch
莫烦
pytorch 循环神经网络(分类)
MNIST手写数据importtorchfromtorchimportnnimporttorchvision.datasetsasDataimporttorchvision.transformsastransformsimportmatplotlib.pyplotasplttorch.manual_seed(1)EPOCH=1BATCH_SIZE=64TIME_STEP=28#rnn时间补数/图片
Kstheme
·
2019-08-22 09:50
pytorch
莫烦
pytorch 什么是LSTM 循环神经网络
RNN的弊端之前我们说过,RNN是在有顺序的数据上进行学习的。为了记住这些数据,RNN会像人一样产生对先前发生事件的记忆。不过一般形式的RNN就像一个老爷爷,有时候比较健忘。为什么会这样呢?想象现在有这样一个RNN,他的输入值是一句话:“我今天要做红烧排骨,首先要准备排骨,然后….,最后美味的一道菜就出锅了”。现在请RNN来分析,我今天做的到底是什么菜呢。RNN可能会给出“辣子鸡”这个答案。由于判
Kstheme
·
2019-08-21 20:13
pytorch
莫烦
pytorch 什么是循环神经网络(Recurrent Neural Network)
RNN的用途上图说明,对于预测,顺序排列是多么重要。我们可以预测下一个按照一定顺序排列的字,但是打乱顺序,我们就没办法分析自己到底在说什么了。序列数据我们想象现在有一组序列数据data0,1,2,3.在当预测results0的时候,我们基于的是data0,同样在预测其他数据的时候,我们也都只单单基于单个的数据。每次使用的神经网络都是同一个NN。不过这些数据是有关联顺序的,就像在厨房做菜,酱料A要比
Kstheme
·
2019-08-21 19:35
pytorch
tensorflow学习
笔记——多线程输入数据处理框架
之前我们学习使用TensorFlow对图像数据进行预处理的方法。虽然使用这些图像数据预处理的方法可以减少无关因素对图像识别模型效果的影响,但这些复杂的预处理过程也会减慢整个训练过程。为了避免图像预处理成为神经网络模型训练效率的瓶颈,TensorFlow提供了一套多线程处理输入数据的框架。下面总结了一个经典的输入数据处理的流程:下面我们首先学习TensorFlow中队列的概念。在TensorFlow
战争热诚
·
2019-08-20 11:00
用Pytorch训练CNN(数据集MNIST,使用GPU的方法)
参考代码(在
莫烦
python的教程代码基础上修改)如下:importtorchimporttorch.nnasnnfromtorch.autogradimportVariableimpo
qq_32464407
·
2019-08-19 18:21
莫烦
pytorch CNN卷积神经网络
不了解卷积神经网络的,看这篇:一文教你读懂pytorch+CNN
莫烦
pytorch什么是卷积神经网络CNN(ConvlutinoalNeuralNetwork)我们了解了卷积神经网络之后,开始用python
Kstheme
·
2019-08-19 09:35
pytorch
莫烦
pytorch 什么是卷积神经网络CNN(Convlutinoal Neural Network)
卷积神经网络是一种人工神经网络结构,因为利用卷积神经网络在图像和语音识别方面能够给出更优预测结果,这一技术也被广泛的传播可应用。卷积神经网络最常被应用的方面是计算机的图像识别,不过因为不断地创新,它也被应用在视频分析,自然语言处理,药物发现,等等。卷积和神经网络什么是卷积神经网络?我们可以把这个词拆开成为“卷积”和“神经网络”。卷积也就是说神经网络不再是对每个像素的输入信息做处理了,而是图片上每一
Kstheme
·
2019-08-17 10:19
pytorch
tensorflow学习
笔记——图像数据处理
喜欢摄影的盆友都知道图像的亮度,对比度等属性对图像的影响是非常大的,相同物体在不同亮度,对比度下差别非常大。然而在很多图像识别问题中,这些因素都不应该影响最后的结果。所以本文将学习如何对图像数据进行预处理使训练得到的神经网络模型尽可能小地被无关因素所影响。但与此同时,复杂的预处理过程可能导致训练效率的下降。为了减少预处理对于训练速度的影响,后面也学习多线程处理输入数据的解决方案。在大部分图像识别问
战争热诚
·
2019-08-17 09:00
莫烦
pytorch Optimizer优化器
创建数据importtorchimporttorch.utils.dataasDataimporttorch.nn.functionalasFimportmatplotlib.pyplotasplttorch.manual_seed(1)LR=0.01BATCH_SIZE=32EPOCH=12x=torch.unsqueeze(torch.linspace(-1,1,1000),dim=1)y=x
Kstheme
·
2019-08-17 08:47
pytorch
莫烦
pytorch 批训练
批训练,即把完整数据分成数批分别进行训练。DataLoaderimporttorchimporttorch.utils.dataasDatatorch.manual_seed(1)BATCH_SIZE=5x=torch.linespace(1,10,10)y=torch.linespace(10,1,10)#转换成torch能识别的Datasettorch_dataset=Data.TensorD
Kstheme
·
2019-08-14 12:03
pytorch
莫烦
pytorch 保存提取
保存有两种:第一种是保存整个神经网络,第二种是保存神经网络参数。提取也是有两种:第一种是提取整个神经网络(网络大时会比较慢),第二种是提取神经网络参数。第二种的前提是有一个要构建一个相同的神经网络。importtorchimportmatplotlib.pyplotasplt#torch.manual_seed(1)#reproducible#fakedatax=torch.unsqueeze(t
Kstheme
·
2019-08-14 10:28
pytorch
tensorflow学习
笔记——图像识别与卷积神经网络
无论是之前学习的MNIST数据集还是Cifar数据集,相比真实环境下的图像识别问题,有两个最大的问题,一是现实生活中的图片分辨率要远高于32*32,而且图像的分辨率也不会是固定的。二是现实生活中的物体类别很多,无论是10种还是100种都远远不够,而且一张图片中不会只出现一个种类的物体。为了更加贴近真实环境下的图像识别问题,由李飞飞教授带头整理的ImageNet很大程度上解决了这个问题。ImageN
战争热诚
·
2019-08-13 10:00
莫烦
pytorch 关系拟合(回归)
思路:首先建立一个数据集用来拟合函数,要拟合函数我们就需要建立一个神经网络,建立好神经网络后,我们再通过训练网络来减小神经网络拟合函数的误差,最后再可视化拟合过程。建立数据集我们创建一个一元二次函数:y=a*x^2+b,我们给y数据加上一点噪声来更加真实的展示它。importtorchimportmatplotlib.pyplotasplt#可视化函数库x=torch.unsqueeze(torc
Kstheme
·
2019-08-12 08:44
pytorch
Python爬虫学习笔记
本篇笔记主要基于
莫烦
老师的python爬虫入门教程:https://morvanzhou.github.io/tutorials/data-manipulation/scraping/本片笔记的完整代码见
小新_XX
·
2019-08-10 17:34
tensorflow学习
笔记——使用TensorFlow操作MNIST数据(2)
tensorflow学习
笔记——使用TensorFlow操作MNIST数据(1)一:神经网络知识点整理1.1,多层:使用多层权重,例如多层全连接方式以下定义了三个隐藏层的全连接方式的神经网络样例代码:importtensorflowastfl1
战争热诚
·
2019-08-10 08:00
tensorflow学习
笔记——使用TensorFlow操作MNIST数据(2)
tensorflow学习
笔记——使用TensorFlow操作MNIST数据(1)一:神经网络知识点整理1.1,多层:使用多层权重,例如多层全连接方式以下定义了三个隐藏层的全连接方式的神经网络样例代码:importtensorflowastfl1
weixin_30670925
·
2019-08-10 08:00
笔记 - tensorflow中 Variable 与 get_variable 的用法
莫烦
scope命名方法我们为什么要对变量命名举个例子:在迁移学习中我们是通过变量名加载相应的值#restorevariables#redefinethesameshapeandsametypeforyourvariablesW
chen_holy
·
2019-08-07 12:20
AI
编程
tensorflow
模型训练
tensorflow学习
笔记 -- 神经网络由来
12.神经网络由来神经网络主要用于处理分类问题,是由感知机升级而来,下图是一个非常简单的感知机可以看到如果想要区分x1和x2都大于1的感知机直线非常好找到,该感知机求解模型可以用下图表示w1和w2还有阈值就是模型的参数,例如求得w1=1,w2=1,阈值=1.5,大于阈值的就会在感知机的右侧,根据坐标图就有:x1=1,x2=1,得到1*1+1*1=2>1.5所以(1,1)点在直线右侧,而x1=1,x
赵珅
·
2019-08-06 22:29
人工智能
学习笔记
TensorFlow学习
笔记——深层神经网络的整理
维基百科对深度学习的精确定义为“一类通过多层非线性变换对高复杂性数据建模算法的合集”。因为深层神经网络是实现“多层非线性变换”最常用的一种方法,所以在实际中可以认为深度学习就是深度神经网络的代名词。从维基百科给出的定义可以看出,深度学习有两个非常重要的特性——多层和非线性。那么为什么要强调这两个性质呢?下面我们开始学习。1,线性模型的局限性在线性模型中,模型的输出为输入的加权和。假设一个模型的输出
战争热诚
·
2019-08-06 09:00
tensorflow学习
笔记(五):模型参数的保存和读取saver
文章目录一、Tensorflow模型二、保存模型三、模型数据的读取四、其他保存和读取方法在深度学习中,经常会听到”预训练“、”保存模型“、”加载模型“等词,实际上就是在模型训练完成之后,将模型及其训练得到的参数保存下来,下次再来直接调用,或者上次得到的数据上再次训练(预训练)。一、Tensorflow模型所谓的Tensorflow模型,是指训练得到的网络参数的网络设计或图形和值。因此,Tensor
陈小虾
·
2019-08-02 21:44
tensorflow实战
tensorflow学习
笔记(四):利用BP手写体(MNIST)识别
文章目录一、MNIST数据集1.简介2.特点二、问题描述三、项目实践四、网络优化一、MNIST数据集1.简介MNIST数据集是一个手写体数据集,简单说就是一堆这样东西:MNIST的官网地址是MNIST;通过阅读官网可以知道,这个数据集由四部分组成,分别是:也就是一个训练图片集,一个训练标签集,一个测试图片集,一个测试标签集;我们可以看出这个其实并不是普通的文本文件或是图片文件,而是一个压缩文件,下
陈小虾
·
2019-08-02 17:31
tensorflow实战
tensorflow学习
笔记——常见概念的整理
为什么选择TensorFlow?自从12年AlexNet获得ImageNet大赛的冠军后,深度学习开始流行起来,也因为硬件的快速发展GPU并行计算配合易用的API,让深度学习以及神经网络大方光彩。深度学习的框架其实有很多,目前来说最火的还要数PyTorch,TensorFlow以及Keras。其中Pytorch比较适合学术研究,自己搞着玩,如果工业实践就不太适合了。TensorFlow由于时间比较
战争热诚
·
2019-08-02 16:00
tensorflow学习
笔记——常见概念的整理
TensorFlow的名字中已经说明了它最重要的两个概念——Tensor和Flow。Tensor就是张量,张量这个概念在数学或者物理学中可以有不同的解释,但是这里我们不强调它本身的含义。在TensorFlow中,张量可以被简单地理解为多维数组,Flow翻译成中文就是“流”,它直观的表述计算的编程系统。TensorFlow中的每一个计算都是计算图上的一个节点,而节点之间的边描述了计算之间的依赖关系。
weixin_30784945
·
2019-08-02 16:00
莫烦
python 关系拟合 (回归)
importtorchimporttorch.nn.functionalasF#包含激励函数importmatplotlib.pyplotasplt#画图工具包a=torch.linspace(-1,1,100)#linspace()函数从(-1,1)的区间均匀地取100个值,返回一个一维张量torch.Size([100])x=torch.unsqueeze(a,dim=1)#使用unsquee
PMPWDF
·
2019-08-02 13:19
pytorch
tensorflow学习
笔记 -- 变量可视化和模型保存
10.变量可视化为了方便查看训练的效果,可以将每一步训练的变量值可视化,代码如下:importtensorflowastfdefregression():"""用Tensorflow实现一个简单的线性回归我们预设一个线性函数然后通过线性回归看看能否得到这个函数对应的参数预设的函数:y=0.7*x+0.5(其中0.7和0.5是我们需要通过训练得到的参数,也就是最终需要的得到模型)"""withtf.
赵珅
·
2019-07-31 23:39
人工智能
tensorflow
框架
人工智能
学习笔记
莫烦
PYTHON批训练
一般而言,神经网络的喂入数据集很大,不会在一次迭代中全部使用,那样会撑死的。一般,在一次迭代中分批喂给部分数据,用小部分数据分批训练要比用全部数据训练的结果要好。pytorch中提供此类批训练功能,DataLoader难点:如何将自己的数据放到DataLoader中如何在训练时调用DataLoaderDataLoader加载相关包importtorch.utils.dataasData将你的数据转
一株草的世界
·
2019-07-28 21:07
莫烦PYTHON
莫烦
PYTHON 模型保存和提取
文章目录已知神经网络net1:保存整个模型并调用保存模型参数并调用可视化三个模型完整代码已知神经网络net1:importtorchimporttorch.nn.functionalasFimportmatplotlib.pyplotaspltx=torch.unsqueeze(torch.linspace(-1,1,100),dim=1)#xdata(tensor),shape=(100,1)y
一株草的世界
·
2019-07-28 20:18
莫烦PYTHON
[机器学习] keras入门:用单层网络实现玩具回归
learnfrom:
莫烦
教keras的视频:https://morvanzhou.github.io/tutorials/machine-learning/keras/2-1-regressor/keras
长颈鹿大侠
·
2019-07-28 20:00
莫烦
PYTHON 分类
文章目录要点建立数据集建立神经网络训练网络可视化训练过程完整代码要点这次我们也是用最简单的途径来看看神经网络是怎么进行事物的分类.分类建立数据集我们创建一些假数据来模拟真实的情况.比如两个二次分布的数据,不过他们的均值都不一样.importtorchimportmatplotlib.pyplotasplt#假数据n_data=torch.ones(100,2)#数据的基本形态x0=torch.no
一株草的世界
·
2019-07-28 16:47
莫烦PYTHON
莫烦
PYTHON 关系拟合(回归)
文章目录要点建立伪数据集训练网络可视化训练过程完整代码pytorch中默认的数据输入格式:行是样本,列是特征/属性autograddirectlysupportstensors自动微分可以直接在tensor中进行,不需要将x,y转为variable但是loss依旧是variable,打印其值为loss.data.numpy()要点我会这次会来见证神经网络是如何通过简单的形式将一群数据用一条线条来表
一株草的世界
·
2019-07-27 20:19
pytorch
莫烦PYTHON
李宏毅教授强化学习sparse reward课程笔记总结
SparseReward在实际生活中,reward通常都非常稀疏,只对某一特定行为有reward,而其余的exploration均为0,因此agent往往难以训练RewardShaping(参考
莫烦
)区别于真实环境中的
lueluewaaa
·
2019-07-27 10:44
强化学习笔记
强化学习
笔记总结
tensorflow训练时内存持续增加并占满
记录一次小白的
tensorflow学习
过程,也为有同样困扰的小白留下点经验。先说我出错和解决的过程。
芮芮杰
·
2019-07-26 21:24
tensorflow学习
笔记 -- 梯度爆炸/消失和作用域
8.梯度爆炸/消失对于学习率来说过高或者过低都不会达到好的训练效果,拿之前的例子来看,之前的是在0.1的学习率前提下训练100次效果很不错,下图是在0.001的学习率得到的结果:可以看到过小的学习率导致训练过程渐渐的就学不动了从而丧失了学习能力,最终训练的结果与预期的相差很远,这就是梯度消失,下面是学习率为2的情况:可以看到学习率过大的话会导致参数增长幅度过大从而使得超出了数字范围,这就是梯度爆炸
赵珅
·
2019-07-25 21:23
人工智能
学习笔记
tensorflow学习
笔记——使用TensorFlow操作MNIST数据(1)
续集请点击我:
tensorflow学习
笔记——使用TensorFlow操作MNIST数据(2)本节开始学习使用tensorflow教程,当然从最简单的MNIST开始。
战争热诚
·
2019-07-24 11:00
tensorflow学习
笔记 -- 简单线性回归实现
7.简单线性回归importtensorflowastfdefregression():"""用Tensorflow实现一个简单的线性回归我们预设一个线性函数然后通过线性回归看看能否得到这个函数对应的参数预设的函数:y=0.7*x+0.5(其中0.7和0.5是我们需要通过训练得到的参数,也就是最终需要的得到模型)"""#1.自己生成一些训练数据,真实项目中这些数据应该是给定的#1.1随机生成100
赵珅
·
2019-07-24 00:55
人工智能
学习笔记
tensorflow学习
笔记 -- 变量和可视化
5.变量变量也是一种operation,是一种特殊的张量,与张量不同的是变量op可以持久化,而普通张量op不能,所以变量可以用来存储训练模型的各种参数importtensorflowastf#创建一个变量var=tf.Variable(tf.random_normal([2,3],mean=1.2,stddev=2.0))print(var)#变量初始化,如果要在会话中用到变量计算必须要初始化所有
赵珅
·
2019-07-21 23:38
人工智能
学习笔记
tensorflow学习
笔记——高效读取数据的方法(TFRecord)
关于TensorFlow读取数据,官网给出了三种方法:供给数据(Feeding):在TensorFlow程序运行的每一步,让python代码来供给数据。从文件读取数据:在TensorFlow图的起始,让一个输入管线从文件中读取数据。预加载数据:在TensorFlow图中定义常量或变量来保存所有数据(仅适用于数据量比较小的情况)。对于数据量较小而言,可能一般选择直接将数据加载进内存,然后再分batc
战争热诚
·
2019-07-20 20:00
tensorflow学习
笔记 -- 张量和简单API
3.张量张量是一种operation是由数组组成,不同维的数组对于张量来说是不同的阶也叫做形状,例如如下形状的表示:0阶:()-->括号内没有数字,表示0维也就是最普通的数字1阶:(5)-->括号内一个数字,表示长度为5的1维数组2阶:(2,5)-->括号内两个数字,表示2行5列的二维数组3阶:(3,2,5)-->括号内三个数字,表示3张2行5列的二维数组张量的形状分为静态和动态两种,不产生新张量
赵珅
·
2019-07-18 22:40
人工智能
学习笔记
ubuntu之路——day4(今天主要看了神经网络的概念)
tid=2001392029#/learn/announce第二个是由
莫烦
老师
NWNU-LHY
·
2019-07-11 20:00
Tensorflow学习
笔记1
https://github.com/tensorflow/官方的github网址:https://github.com/tensorflow/models这是一个收藏了大量GoogleAI和TensorFlow社区开源模型的大集合,包括了样本和代码片段。从树到神经元程序的合成都有。https://github.com/tensorflow/tensor2tensorTensor2Tensor,o
北京看看
·
2019-07-11 13:07
AI
其他
python
tensorflow学习
(三)实战!lenet-5+mnist数据集
实战!lenet-5+mnist数据集这两天真的超忙啊,一转眼三天没更了,满满的罪恶感+ing。废话不多说,从这篇开始进入实战篇,接下来将使用tensorflow对卷积神经网络历史上最为经典的模型从lenet-5一直到ResNet进行实现。大纲:MNIST数据集Lenet-5网络模型MNIST数据集对于卷积神经网络,MNIST手写体的识别就是入门的“helloworld”,是最为简单的一个图片数据
lzrrrrr
·
2019-07-10 23:12
tensorflow
tensorflow
python
卷积神经网络
tensorflow学习
笔记 -- 图和会话
1.图:描述数据在operation(计算单元)间流动结构的对象有点类似于一个模块或者一个类,两个图之间的张量不会互通,相当于两个类各自的私有变量不会互通一样。计算单元就是不同和函数,一个图就相当于很多数据一块内存中执行很多写好的函数运算。但是一张图仅仅表示张量与运算的结构自己不会去自动运算,需要调用特定的方法才能执行运算最终得到结果。2.会话:运行图的类如下图所示,会话首先为图分配内存然后选择硬
赵珅
·
2019-07-08 23:37
人工智能
学习笔记
Tensorflow学习
笔记(一):人工智能概述
Tensorflow学习
笔记(一):人工智能概述一、基本概念1、什么是人工智能2、什么是机器学习3、什么是深度学习4、人工智能Vs机器学习Vs深度学习二、神经网络的发展历史(三起两落)三、机器学习的典型应用
AllenPippen
·
2019-07-06 15:35
学习笔记
灵活使用Tensorflow执行梯度下降算法
嫌不够仔细的可以参见:https://blog.csdn.net/edward_zcl/article/details/90345318声明:参考官方文档参考
tensorflow学习
笔记(三十)关于神经网络中的梯度计算
edward_zcl
·
2019-07-05 17:31
人工智能-神经网络
Tensorflow学习
流水
tf.Graph()tf.Graph()表示实例化了一个类,一个用于tensorflow计算和表示用的数据流图,通俗来讲就是:在代码中添加的操作(画中的结点)和数据(画中的线条)都是画在纸上的“画”,而图就是呈现这些画的纸,你可以利用很多线程生成很多张图,但是默认图就只有一张。tf.Graph().as_default()tf.Graph().as_default()表示将这个类实例,也就是新生成
时光_机
·
2019-07-03 09:28
深度学习
人工智能之深度学习框架:深度学习Tensorflow
深度学习Tensorflow笔记介绍一、深度学习二、TensorFlow环境搭建三、TensorFlow入门四、深层神经网络笔记介绍通过参考书:“TensorFlow实战Google深度学习框架”、“
莫烦
呆瓜怎熟
·
2019-06-30 09:15
人工智能系列
TensorFlow笔记(一):
TensorFlow学习
资源
目的TensorFlow是Google发布的一款非常优秀的机器学习工具包,其功能强大、易用性高、获取方便。本文旨在发布我在学习TensorFlow时用到的一些资源,以方便查阅。资料网站教程网站Tensorflow官网:https://www.tensorflow.org/?hl=zh_cnw3cschool的TensorFlow官方文档:https://www.w3cschool.cn/tenso
花酒石
·
2019-06-27 09:14
TensorFlow学习
笔记之批归一化:tf.layers.batch_normalization()函数
关于归一化的讲解的博客——【深度学习】BatchNormalization(批归一化)tensorflow中的函数解析在这个博客——tf.nn.batch_normalization()函数解析目录0前言1函数2训练3验证4测试5批归一化6总结参考文章0前言关于批归一化的讲解我们在博客【深度学习】BatchNormalization(批归一化)中做了详细的讲解,不懂的同学可以看一下,下面我们来说一
我是管小亮 :)
·
2019-06-24 00:00
Deep
Learning
【
Tensorflow学习
笔记---制作并读取TFRecord数据集】
参考链接:https://blog.csdn.net/m0_37407756/article/details/80684883代码:importosimporttensorflowastffromPILimportImageimportmatplotlib.pyplotaspltimportnumpyasnpcwd='C:\\Users\\Administrator\\Desktop\\0430\
树莓派派酒
·
2019-06-19 10:55
tensorflow
上一页
25
26
27
28
29
30
31
32
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他