E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
莫烦tensorflow学习
西江月 石缝间的种子
幸得春心不老,
莫烦
秋意初凋。挺身立壁对天号,落寞繁华皆好。随园雅集10月28日长线作业,主题要求与种子相关。填词苏轼体西江月。
繁花落尽深眸
·
2017-12-11 06:49
tensorflow学习
笔记----TensorBoard讲解
TensorBoard简介TensorBoard是TensorFlow自带的一个强大的可视化工具,也是一个Web应用程序套件。TensorBoard目前支持7种可视化,Scalars,Images,Audio,Graphs,Distributions,Histograms和Embeddings。其中可视化的主要功能如下。(1)Scalars:展示训练过程中的准确率、损失值、权重/偏置的变化情况。(
Rainydayfmb
·
2017-12-07 23:00
Tensorflow学习
笔记-输入数据处理框架
通过前面几节的总结,Tensorflow关于TFRecord格式文件的处理、模型的训练的架构为:1、获取文件列表、创建文件队列:http://blog.csdn.net/lovelyaiq/article/details/787119442、图像预处理:http://blog.csdn.net/lovelyaiq/article/details/787163253、合成Batch:http://b
TiRan_Yang
·
2017-12-05 10:50
TensorFlow
深度学习框架
TensorFlow学习
与应用(六)——卷积神经网络应用于MNIST数据集分类
传统神经网络存在的问题:1.权值太多,计算量太大。2.权值太多,需要大量样本进行训练。局部感受野:1962年哈佛医学院神经生理学家Hubel和Wiesel通过对猫视觉皮层细胞的研究,提出了感受野(receptivefield)的概念,1984年日本学者Fukushima基于感受野概念提出的神经认知机(neocognitron)可以看作是卷积神经网络的第一个实现网络,也是感受野概念在人工神经网络领域
jlutiger316
·
2017-12-02 19:47
深度学习
tensorflow学习
:池化层(pooling)和全连接层(dense)
一、池化层的github中的比较官方的定义:池化层定义有最大值池化和均值池化tf.layers.max_pooling2dmax_pooling2d(inputs,pool_size,strides,padding='valid',data_format='channels_last',name=None)inputs:进行池化的数据。pool_size:池化的核大小(pool_height,po
蜗牛me
·
2017-12-02 11:19
tensorflow
深度学习
Keras
python
TensorFlow学习
笔记-实现经典LeNet5模型
LeNet5模型是YannLeCun教授于1998年提出来的,它是第一个成功应用于数字识别问题的卷积神经网络。在MNIST数据中,它的准确率达到大约99.2%.通过TensorFlow实现的LeNet5模型,主要用到在说使用变量管理,可以增加代码可读性、降低代码冗余量,提高编程效率,更方便管理变量。我们将LeNet5模型分为三部分:1、网络定义部分:这部分是训练和验证都需要的网络结构。2、训练部分
TiRan_Yang
·
2017-12-01 14:50
TensorFlow
RNN实践一:LSTM实现MNIST数字分类
将MNIST数据集实现手写分类,代码转自周
莫烦
的Github。输入为[None,784]的image(28*28)数据。
abclhq2005
·
2017-11-30 16:55
RNN
TensorFlow学习
--ResNet实现
github上用ResNet模型对CIFAR-10数据集进行分类,链接:CIFAR-10ResNetmodelCIFAR-10数据集,链接:TheCIFAR-10datasetResNet结构从AlexNet之后神经网络有两个发展方向,一是调整网络结构,二是增加网络深度,如下所示:LeNet→AlexNet→{NIN→InceptionV1→InceptionV2→InceptionV3VGG→M
阿卡蒂奥
·
2017-11-28 19:44
TensorFlow
Tensorflow学习
笔记-模型保存与加载
保存模型时,文件格式有两种,ckpt和pb格式,这两种格式的模型区别是什么呢?首先看一下英文的解释。并且我们的学习中也要养成看英文文档的习惯,其一:老外写的东西通俗易懂,其二,在翻译时,每个人的英文理解不同,原汁原味的道理就没有了。The.ckptisthemodelgivenbytensorflowwhichincludesalltheweights/parametersinthemodel.T
TiRan_Yang
·
2017-11-27 16:11
TensorFlow
TensorFlow学习
--GoogLeNet实现
GoogLeNet结构GoogleInceptionNet通常被称为GoogleInceptionV1,在ILSVRC-2014比赛中由论文<Goingdeeperwithconvolutions>提出.InceptionV1有22层,比AlexNet的8层和VGGNet的19层还要深.参数量(500万)仅有AlexNet参数量(6000万)的1/12,但准确率远胜于AlexNet的准确率.Inc
阿卡蒂奥
·
2017-11-27 11:45
TensorFlow
TensorFlow学习
--VGGNet实现&图像识别
VGGNet架构VGGNet结构CNN的发展(刘昕博士的《CNN的近期进展与实用技巧》)如图:VGGNet是由牛津大学计算机视觉组和GoogleDeepMind公司研发的深度卷积神经网络,通过加深网络结构提升性能.具体来说,VGGNet通过反复堆叠3*3的小卷积核和2*2的最大池化层构造了16-19层深的卷积神经网络.凭借该结构,VGGNet在ILSVRC-2014比赛上取得了分类项目的第2名和定
阿卡蒂奥
·
2017-11-24 19:30
TensorFlow
Tensorflow学习
笔记-过度拟合问题
Tensorflow学习
笔记-过度拟合问题神经网络在训练是,并不是希望模型尽量模拟训练的数据,而是希望模型对未来的数据具有准确的判断。因此,模型在训练数据上的表现并不代表对未来数据的表现。
TiRan_Yang
·
2017-11-23 22:53
Python
TensorFlow
未来计划
对问题建模也有了尝试艰难的入门了深度学习发现了自己在做Presitation时的不足未来计划完成对ECG信号T波的降噪标记训练FastCNN,以期获得很好的结果真正去掌握深度学习的常规模型,不看书手敲
TensorFlow
即使迷茫也要努力
·
2017-11-23 21:14
生活记录
TensorFlow学习
笔记(三):TensorFlow实现逻辑回归模型
一、Mnist数据集的介绍与获取1.Mnist数据集的介绍简介60000行的训练数据集(mnist.train)和10000行的测试数据集(mnist.test)每一个MNIST数据单元有两部分组成:一张包含手写数字的图片和一个对应的标签。我们把这些图片设为“xs”,把这些标签设为“ys”。训练数据集和测试数据集都包含xs和ys,比如训练数据集的图片是mnist.train.images,训练数据
fairy小鲜子
·
2017-11-23 17:18
TensorFlow学习笔记
Tensorflow学习
笔记:用minst数据集训练卷积神经网络并用训练后的模型测试自己的BMP图片
(1)mnist_test_conv.py代码如下#!/usr/bin/envpython2#-*-coding:utf-8-*-'''构造一个卷积神经网络来训练mnist:输入层:784个输入节点两个卷积层(每个都具有一个卷积和Pooling操作):卷积操作:步长为1,边距为0,filter:5x5Pooling(池化):采用maxpooing,2x2矩阵作为模板输出层:10个输出节点'''im
fanchenxinok
·
2017-11-23 17:44
深度学习
TensorFlow学习
--AlexNet实现&图像识别
AlexNet主要技术点AlexNet使用的主要技术:1.使用ReLU作为CNN的激活函数,解决了Sigmoid在较深网络中的梯度弥散问题(vanishinggradientproblem).2.训练时使用Dropout随机忽略一部分神经元,避免了模型的过拟合问题.3.在CNN中使用重叠的最大池化,避免了平均池化造成的模糊效果.同时让步长小于池化核的尺寸,使池化层的输出发生重叠和覆盖,提升特征的丰
阿卡蒂奥
·
2017-11-22 18:27
TensorFlow
莫烦
PyTorch学习笔记(五)——模型的存取
本文主要是介绍如何对训练好的神经网络模型进行存取。编辑器:spyder1.快速搭建神经网络这里采用上一节介绍的方法快速搭建一个小的神经网络:defsave():#savenet1net1=torch.nn.Sequential(torch.nn.Linear(1,10),torch.nn.ReLU(),torch.nn.Linear(10,1))optimizer=torch.optim.SGD(
manong_wxd
·
2017-11-21 15:48
PyTorch
莫烦
PyTorch学习笔记(一)——Torch或Numpy
1.什么是NumpyNumpy系统是Python的一种开源的数值计算扩展,用python实现的科学计算包。这种工具可用来存储和处理大型矩阵,包括强大的N维数组对象Array,比较成熟的函数库等。numpy和稀疏矩阵运算包scipy配合使用更加方便。2.用Numpy还是TorchTorch自称为神经网络界的Numpy,它能将torch产生的tensor放在GPU中加速运算,就想Numpy会把arra
manong_wxd
·
2017-11-21 11:39
PyTorch
莫烦
PyTorch学习笔记(四)——快速搭建法
本文主要是用PyTorch来实现另一种快速搭建神经网络的方法。编辑器:spyder1.用类构建神经网络classNet(torch.nn.Module):def__init__(self,n_feature,n_hidden,n_output):super(Net,self).__init__()self.hidden=torch.nn.Linear(n_feature,n_hidden)self
manong_wxd
·
2017-11-21 09:36
PyTorch
tensorflow初学代码系列一(基于
莫烦
视频)
(1)一次线性函数拟合代码下载http://download.csdn.net/download/seven_year_promise/10126396importtensorflowastfimportnumpyasnp#createdatax_data=np.random.rand(100).astype(np.float32)y_data=x_data*0.1+0.3"""structure
YankeeWann
·
2017-11-20 22:16
python
tensorflow
莫烦
PyTorch学习笔记(三)——分类
本文主要是用PyTorch来实现一个简单的分类任务。编辑器:spyder1.引入相应的包及建立数据集importtorchfromtorch.autogradimportVariableimporttorch.nn.functionalasFimportmatplotlib.pyplotasplt#makefakedatan_data=torch.ones(100,2)x0=torch.norma
manong_wxd
·
2017-11-20 19:40
PyTorch
莫烦
PyTorch学习笔记(二)——回归
本文主要是用PyTorch来实现一个简单的回归任务。编辑器:spyder1.引入相应的包及生成伪数据importtorchimporttorch.nn.functionalasF#主要实现激活函数importmatplotlib.pyplotasplt#绘图的工具fromtorch.autogradimportVariable#生成伪数据x=torch.unsqueeze(torch.linspa
manong_wxd
·
2017-11-20 18:55
PyTorch
从 Python到Tensorflow 学习之路(一)
从Python到
Tensorflow学习
之路(一)最近毕业设计题目是研究对抗样本,要用tensorflow来搭建神经网络,因此python必不可少,这个不是一个传统的Python学习教程只是把学习Python
fatetail
·
2017-11-19 16:05
深度学习框架
TensorFlow学习
与应用(五)——TensorBoard结构与可视化
一、TensorBoard网络结构举例:importtensorflowastffromtensorflow.examples.tutorials.mnistimportinput_data#载入数据集mnist=input_data.read_data_sets("D:\BaiDu\MNIST_data",one_hot=True)#每个批次的大小batch_size=100#计算一共有多少个批
jlutiger316
·
2017-11-19 10:58
深度学习
可视化
深度学习
TensorFlow学习
--tf.FIFOQueue队列
队列tf.FIFOQueueFIFOQueue类基于基类QueueBase.QueueBase主要包含入列(enqueue)和出列(dequeue)两个操作.enqueue操作返回计算图中的一个Operation节点,dequeue操作返回一个Tensor值.Tensor在创建时同样只是一个定义,需要放在Session中运行才能获得真正的数值.tensorflow使用tf.FIFOQueue类创建
阿卡蒂奥
·
2017-11-16 16:08
TensorFlow
tesorflow
队列
tf-FIFOQue
码云的使用方法
入门文章https://www.cnblogs.com/riverdubu/p/6491944.html
莫烦
教程0.log、status的简化模式(1)log每个内容只显示一行:$gitlog--oneline
djshichaoren
·
2017-11-16 12:23
django
TensorFlow学习
--tensorflow图像处理--图像翻转及大小色彩调整
翻转图像tf.image.flip_up_down()将图像上下翻转tf.image.flip_left_right()将图像左右翻转tf.image.transpose_image()通过交换第一维和第二维来转置图像随机翻转tf.image.random_flip_up_down()将图像上下翻转的概率为0.5,即输出的图像有50%的可能性是上下翻转的否则就输出原图.tf.image.rando
阿卡蒂奥
·
2017-11-15 15:02
TensorFlow
强化学习方法汇总
本文转自
莫烦
大佬了解强化学习中常用到的几种方法,以及他们的区别,对我们根据特定问题选择方法时很有帮助.强化学习是一个大家族,发展历史也不短,具有很多种不同方法.比如说比较知名的控制方法Qlearning
CCH陈常鸿
·
2017-11-15 13:12
机器学习
TensorFlow学习
--tensorflow图像处理--图像读取/格式转换
tensorflow图像处理一张RGB格式的彩色图像可以看成是一个三维矩阵,矩阵中的每一个数代表图像不同的位置上不同的颜色的亮度.但是图像存储时并不是直接存储这些三维矩阵,而是要先对其进行压缩编码再存储.因此读取图像的过程其实是先读取其压缩编码后的结果,然后将其解码的过程.读取图像&转换格式#!/usr/bin/python#coding:utf-8importmatplotlib.pyplota
阿卡蒂奥
·
2017-11-14 21:26
TensorFlow
深度学习框架
TensorFlow学习
与应用(四)——拟合问题、优化器
一、拟合1)回归问题:过拟合尽量去通过每一个样本点,误差为零。假如有一个新的样本点:会发现过拟合的偏差会很大。2)分类问题:同样的当得到新的样本点后,过拟合的错误率可能会提高。3)防止过拟合:1.增加数据集2.正则化方法,在代价函数后面加一个正则项3.Dropout:训练时,在每一次迭代时使得一些神经元工作,一些神经元不工作。测试时再使用所有的神经元。4)使用Dropout避免过拟合:例如:创建一
jlutiger316
·
2017-11-14 19:24
深度学习
应用
优化
深度学习
Python数据扩展包之Scikit-learn
官方网站:https://scikit-learn.org/stable/index.html官方中文版:http://sklearn.apachecn.org/#/
莫烦
课程:https://morvanzhou.github.io
女王の专属领地
·
2017-11-14 11:37
Python
Python全栈工程师
深度学习框架
TensorFlow学习
与应用(三)——使用交叉熵作为代价函数
二次代价函数(quadraticcost):其中,C表示代价函数,x表示样本,y表示实际值,a表示输出值,n表示样本的总数。例如:假如我们使用梯度下降法(Gradientdescent)来调整权值参数的大小,权值w和偏置b的梯度推导如下:其中,z表示神经元的输入。w和b的梯度跟激活函数的梯度成正比,激活函数的梯度越大,w和b的大小调整得越快,训练收敛得就越快。假设我们的激活函数是sigmoid函数
jlutiger316
·
2017-11-13 20:51
深度学习
TensorFlow学习
笔记4
在第三篇学习笔记中,我们实现了两个简单的模型,线性回归和logistic回归,对于模型结构简单的网络,我们不需要去处理他们的结构关系,但是在复杂的模型中,我们需要更好的安排模型的结构,这样方便我们debug和良好的可视化,接下来,我们就讨论一下如何结构化我们的模型。TensorFlow中结构化模型一般我们的模型都是由一下的两步构成,第一步是构建计算图,第二步是执行计算图,下面我们就来依次看看这两步
duanyajun987
·
2017-11-13 15:11
神经网络
python
机器学习
TensorFlow学习
笔记2
TensorBoard可视化tensorflow不仅仅是一个计算图软件,其还包含了tensorboard可视化工具,安装tensorflow的时候会默认安装,使用方法非常简单,使用writer=tf.summary.FileWriter('./graph',sess.graph)就能够创建一个文件写入器,./graph是存储目录,sess.graph表示读入的图结构。我们可以写一个简单的小程序im
duanyajun987
·
2017-11-13 15:22
神经网络
python
机器学习
数据挖掘
TensorFlow学习
笔记1
下面是lecture1的学习笔记。介绍深度学习后面的数学概念已经存在10多年,但是深度学习框架是最近几年才出来的。现在大量的框架在灵活性上和便于工业界使用上做了权衡,灵活性对于科研非常重要,但是对于工业界太慢了,但是换句话说,足够快,能够用于分布式的框架只适用于特别的网络结构,这对科研又不够灵活。这留给了使用者一个矛盾的境地:我们是否应该尝试用没有那么灵活的框架做科研,这样当应用于工业界的时候,我
duanyajun987
·
2017-11-13 14:56
机器学习
python
神经网络
python
深度学习
神经网络
cpu
gpu
【机器学习】
TensorFlow学习
(一)
感谢中国人民大学胡鹤老师,课讲得非常好~首先,何谓tensor?即高维向量,例如矩阵是二维,tensor是更广义意义上的n维向量(有type+shape)TensorFlow执行过程为定义图,其中定义子节点,计算时只计算所需节点所依赖的节点,是一种高效且适应大规模的数据计算,方便分布式设计,对于复杂神经网络的计算,可将其拆开到其他核中同时计算。Theano——torch———caffe(尤其是图像
水奈樾
·
2017-11-13 10:00
TensorFlow学习
--卷积神经网络训练CIFAR-10数据集
CIFAR-10数据集CIFAR-10数据集包含10个类的60000张32x32的彩色图像,每个类有6000张图像。有50000张训练图像和10000张测试图像。10个分类明细及对应的部分图片:CIFAR-10数据集连接卷积神经网络训练CIFAR-10数据集论文ImageNetClassificationwithDeepConvolutionalNeuralNetworksLRN(LocalRes
阿卡蒂奥
·
2017-11-12 16:27
TensorFlow
TensorFlow学习
笔记——节点(constant、placeholder、Variable)
原文链接:http://www.cnblogs.com/Vulpers/p/7809276.html一、constant(常量)constant是TensorFlow的常量节点,通过constant方法创建,其是计算图(ComputationalGraph)中的起始节点,是传入数据。创建方式cons=tf.constant(value=[1,2],dtype=tf.float32,shape=(1
aoqingpi0093
·
2017-11-10 10:00
TensorFlow学习
笔记(二):TensorFlow实现线性回归模型
一、线性回归模型中所涉及到API#导入TensorFlow包importtensorflowastf#TensorFlow程序分为两个阶段:准备阶段和执行阶段#--------------准备阶段--------------#定义变量、定义函数、定义操作步骤等,中间隐藏着把变量转化为张量的步骤#用tf.Variable来定义变量#注意:定义矩阵的写法([[],[],[]...])a=tf.Vari
fairy小鲜子
·
2017-11-09 20:28
TensorFlow学习笔记
来自2017年的第一篇日记
在昨天开始在上开始记录自己开始的
TensorFlow学习
过程后,我决定从今天开始写一写自己生活的故事,就当给以后的自己留下一点回忆好了。
Sun_atom
·
2017-11-08 22:36
深度学习框架
TensorFlow学习
与应用(一)——基本概念与简单示例
TensorFlow基本概念使用图(graphs)来表示计算任务在被称之为会话(Session)的上下文(context)中执行图使用tensor表示数据通过变量(Variable)维护状态使用feed和fetch可以为任意的操作赋值或者从其中获取数据TensorFlow是一个编程系统,使用图(graphs)来表示计算任务,图(graphs)中的节点称之为op(operation),一个op获得0
jlutiger316
·
2017-11-08 21:23
深度学习
TensorFlow学习
--多层感知机
多层感知机在神经网络上加上隐含层并使用Dropout减轻过拟合,使用Adagrad自适应学习速率,使用ReLU解决梯度消失/弥散问题.ReLU对比Sigmoid的主要变化点:单侧抑制相对宽阔的兴奋边界稀疏激活性采用ReLU解决梯度弥散问题参见深度学习--采用ReLU解决消失的梯度问题(vanishinggradientproblem)单侧抑制:从函数图像上可以看到ReLU把负值都变为0,正值不变,
阿卡蒂奥
·
2017-11-08 19:07
TensorFlow
PyTorch笔记8-Dropout
本系列笔记为
莫烦
PyTorch视频教程笔记github源码概要在训练时loss已经很小,但是把训练的NN放到测试集中跑,loss突然飙升,这很可能出现了过拟合(overfitting)减低过拟合,一般可以通过
YJH-666
·
2017-11-06 08:26
深度学习
PyTorch
师父说
本来人世本多磨心宽意宽努力行为己为家自努力众人皆自为他辛辛苦辛劳磨众志但算还愿今生行难得有缘相聚首就算化厄解怨行了解因果本多受让心泰然正气行人间众考本多磨磨磨心愁磨磨忧磨磨转变心头绪海阔天空咫呎游当然知道颇不易所以才为考字头已有机缘莫陷局才有机会转厄游纷纷扰扰众多事从心解开解心忧人间磨难千万事加油自许稳定从加油自定心自定人间才得清净游人间
莫烦
众多事是要清明面对游不是逃避混乱意理路清晰步步游步步解决
東風唐
·
2017-11-03 19:40
Tensorflow学习
之tf.cast类型转换函数
tf.cast(x,dtype,name=None)//此函数是类型转换函数,把x的类型转换成dtype指定的类型Args:x:ATensororSparseTensor.dtype:Thedestinationtype.name:Anamefortheoperation(optional).Returns:ATensororSparseTensorwithsameshapeasx.Raises:
陈 超
·
2017-11-02 16:53
深度学习
TensorFlow学习
--TensorBoard神经网络可视化
本机:[ubuntu16.04+Pycharm+python2.7+tensorflow1.3.0]TensorBoard是TensorFlow的一套可视化工具,通过读取TensorFlow的事件文件来运行.一般是先创建要汇总的图(graph),然后选择需要在那些节点(op)进行汇总(summary)操作.例子(具体见代码注释):#TensorBoard可视化importtensorflowast
阿卡蒂奥
·
2017-11-01 21:00
TensorFlow
TensorFlow学习
--tf.reduce_mean()
tf.reduce_mean()对应API为:defreduce_mean(input_tensor,axis=None,keep_dims=False,name=None,reduction_indices=None):通过张量的维数计算元素的平均值.相当于Numpy中的np.mean().#!/usr/bin/python#coding:utf-8importtensorflowastft0=
阿卡蒂奥
·
2017-11-01 20:24
TensorFlow
TensorFlow学习
笔记6——《面向机器智能的TensorFlow实践》StanfordDog例程修改记录
《面向机器智能的TensorFlow实践》深入浅出,将tensorflow的很多概念讲的很清楚,很适合tensorflow的初学者学习。该书完整的代码在https://github.com/backstopmedia/tensorflowbook点击打开链接可以下载到。这本书最大的缺陷是其中的例子是基于tensorflow0.8版本的,现在tensorflow已经到1.0版本,有些函数已经更新,在
你行你上天
·
2017-11-01 18:42
tensorflow
莫烦
神经网络RNN例子
学了一段时间tensorflow以后,对于动手写代码的能力还是不行,看了下
莫烦
的视频,记录一下。是一个利用rnn来处理mnist数据集的例子。
wx_13161411563
·
2017-10-31 10:55
Tensorflow学习
之逻辑回归的实现
代码:#coding:utf-8importtensorflowastfimportmatplotlib.pyplotaspltimportnumpyasnpdata=[]label=[]np.random.seed(0)##随机产生训练集foriinrange(150):x1=np.random.uniform(-1,1)x2=np.random.uniform(0,2)ifx1**2+x2**
NFMSR
·
2017-10-30 14:38
tensorflow
上一页
36
37
38
39
40
41
42
43
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他