E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Tensorflow学习
Tensorflow学习
精要版III---使用cifar10构建更加复杂的模型
总览主要是1.可视化2.计算学到的参数的MovingAverage3.随时间改变的learning_rate4.数据预存取队列,将图像预处理操作与模型分开代码地址:tensorflow/models/image/cifar10/主要分为三个部分:模型输入inputs()和distorted_inputs()用于读取图片以及扭曲图片。因为每张图片存储字节数是固定的,所以可以用tf.FixedLeng
Hungryof
·
2017-02-12 20:12
Tensorflow
Tensorflow学习
精要版I---MNIST的训练附加测试自己的图片
初识Tensorflow里面的Python语言中的Tensor是numpyndarray对象。#创建一个变量,初始化为标量0.state=tf.Variable(0,name="counter")#创建一个op,其作用是使state增加1one=tf.constant(1)new_value=tf.add(state,one)#赋值update=tf.assign(state,new_value)
Hungryof
·
2017-02-12 15:53
Tensorflow
TensorFlow学习
笔记--1.0 版本的一个小坑记录
主要是常用的api有一定的更改:tf.mul、tf.sub和tf.neg被弃用,现在使用的是tf.multiply、tf.subtract和tf.negative.可视化的api有较多改变。可以直接参考我的另一篇博客http://blog.csdn.net/l18930738887/article/details/55000008新的版本中这些方法已经木有了~~~各位注意下。最好的方法还是看官方文
骆驼算法学习笔记
·
2017-02-10 00:07
深度学习
tensorflow学习
笔记(一)
一、MINST数据集的下载和使用MINST数据集是入门级的计算机视觉数据集,包含各种手写数字图片,”HelloWord!”是程序员的第一个程序,那么MNIST数据集,毫无疑问是机器学习者第一个训练的数据集在tensorflow官方文档中给了一个input_data.py文件,专门用来下载和解压调用mnist数据集。下载地址:http://download.csdn.net/detail/chenb
_chenby_
·
2017-02-07 00:00
深度学习
python
tensorflow学习
原文:http://www.tensorfly.cn/tfdoc/tutorials/mnist_beginners.html持续学习中。。。MNIST是一个手写数字识别库,由NYU的YannLeCun等人维护。http://yann.lecun.com/exdb/mnist/为了用python实现高效的数值计算,我们通常会使用函数库,比如NumPy,会把类似矩阵乘法这样的复杂运算使用其他外部语言
华山论剑
·
2017-02-04 19:20
TensorFlow学习
笔记(5):基于MNIST数据的卷积神经网络CNN
原文链接:https://segmentfault.com/a/1190000008251179前言本文基于TensorFlow官网的Tutorial写成。输入数据是MNIST,全称是ModifiedNationalInstituteofStandardsandTechnology,是一组由这个机构搜集的手写数字扫描文件和每个文件对应标签的数据集,经过一定的修改使其适合机器学习算法读取。这个数据集
weixin_34277853
·
2017-02-04 09:00
Tensorflow学习
记录10--VGG网络
点我下载paper1VGG网络总结感觉就是再alex-net的基础上,研究了下如何加深网络来提高性能的。总体上也是五层卷积加上三层全链接,但是这五层卷积中都会以pooling来分割,且五层卷积尝试叠加多层卷积再一起,并且尝试以更小的核以及提高核的数量来提高网络的性能,比如alex-net的核的大小为11×11×96不等,vgg网络一般都是用3×3的核,但是她核的数量提高了很多,有3×3×256不等
HxShine
·
2017-02-02 20:30
图像处理
Tensorflow
深度学习
tensorflow学习
笔记(二)-PTBModel初步解析
前言本人最近正在学习深度学习以及tensorflow,在此记录一些学习过程中看到的有价值的参考资料,并且写下一点我自己的初步理解。环境win1064+anaconda3(python3.5)+tensorflow0.12.1关于windows下CUDA等配置,请参考下文:windows1064bit下安装Tensorflow+Keras+VS2015+CUDA8.0GPU加速部分参考/推荐资料te
MADAO__G
·
2017-01-14 21:00
tensorflow学习
笔记(一)-基础模型
前言本人最近正在学习深度学习以及tensorflow,在此记录一些学习过程中看到的有价值的参考资料,并且写下一点我自己的初步理解。环境win1064+anaconda3(python3.5)+tensorflow0.12.1关于windows下CUDA等配置,请参考下文:windows1064bit下安装Tensorflow+Keras+VS2015+CUDA8.0GPU加速部分参考/推荐资料te
MADAO__G
·
2017-01-14 00:00
TensorFlow学习
(九):各种卷积网络
更新日志:2017.5.13删除了一些不常用的内容,可以通过查文档获得,详细解释了conv2d的参数内容和运行过程2017.12.26增加了空洞卷积(dilatedConv)的相关内容2019.5.20所有代码和展示全部迁移到tensorflow2.0对于卷积网络的理论入门,可以看这篇博客:深度学习笔记五:卷积神经网络CNN(基本理论)官方文档:NeuralNetwork查看全部的完整代码,可以去
谢小小XH
·
2017-01-02 11:06
深度学习
TensorFlow
TensorFlow学习
(七):基本神经网络"组件"
更新时间:2017.5.10删掉了大部分的冗余,留下一些重要的东西.更新官方文档地址这篇讲的都是在tf.nn这个模块下面的函数(类),作为提供神经网咯基本”组件”的模块.算是非常重要的一个模块了.官方文档:NeuralNetwork一.激活函数常用的激活函数的理论总结可以看之前的博客:深度学习笔记六:常见激活函数总结激活操作提供了在神经网络中使用的不同类型的非线性模型。包括光滑非线性模型(sigm
xierhacker
·
2016-12-24 16:00
python
tensorflow
TensorFlow学习
(三):Graph和Session
更新时间:2017.5.5对一些函数或者类有了新的认识。重要的地方修改一下。简化了大量的东西,保留重点,只写了常用函数的用法,其他的根据需要看文档之前讲完变量常量等等基本量的操作,意味着最基本的东西都有了,然后接下来很重要的就是那些量和操作怎么组成更大的集合,怎么运行这个集合。这些就是计算图谱Graph和Session的作用了。因为篇幅和格式的缘故,这里的测试代码并没写全,全部的代码可以在我的Gi
谢小小XH
·
2016-12-24 16:56
tensorflow
python
深度学习
TensorFlow
TensorFlow学习
记录-- 7.TensorFlow高效读取数据之tfrecord详细解读
一whytfrecord?对于数据量较小而言,可能一般选择直接将数据加载进内存,然后再分batch输入网络进行训练(tip:使用这种方法时,结合yield使用更为简洁,大家自己尝试一下吧,我就不赘述了)。但是,如果数据量较大,这样的方法就不适用了,因为太耗内存,所以这时最好使用tensorflow提供的队列queue,也就是第二种方法从文件读取数据。对于一些特定的读取,比如csv文件格式,官网有相
HxShine
·
2016-12-06 10:22
tensorflow
tfrecord
Tensorflow
tensorflow学习
记录(一):在windows下的安装
接触了caffe之后,想学习一下tensorflow,两者结合使用。在几天之前,Tensorflow官方出了0.12RC版本,改版本支持在windows下的pip一键安装。我们可以通过安装Python3.5和pip或者用Anaconda3进行安装。我是用的Anaconda3,所以写下自己的一个安装过程。Anaconda包可以一次性安装所有的Python的常用库。在官网下载3.5版本之后,得到一个可
furuiyang_
·
2016-12-04 20:41
tensorflow
TensorFlow学习
(四):梯度带(GradientTape),优化器(Optimizer)和损失函数(losses)
更新时间:2017.5.9简化了很多不需要的内容,关注重点。2019.4.17更新到tensorflow2.x,添加自动求导和新版本的optimizer因为tensorflow2.x相对于tensorflow1.x的变动,API变更和思路也变化了,这节重点介绍的为梯度带(GradientTape)和优化器(Optimizer)因为大多数机器学习任务就是最小化损失,在损失定义的情况下,后面的工作就交
谢小小XH
·
2016-11-27 19:04
TensorFlow
深度学习框架
Tensorflow学习
(五)-----多层感知器模型
一、多层感知器多层感知器(MLP,MultilayerPerceptron)是一种前馈人工神经网络模型,其将输入的多个数据集映射到单一的输出的数据集上。可以实现非线性判别式,如果用于回归,可以逼近输入的非线性函数。其实MLP可以用于“普适近似”,即可以证明:具有连续输入和输出的任何函数都可以用MLP近似,已经证明,具有一个隐藏层(隐藏节点个数不限)的MLP可以学习输入的任意非线性函数。二、代码im
小小菜鸟一只
·
2016-11-23 16:19
TesorFlow教
深度学习框架
Tensorflow学习
(四)----逻辑回归
一、逻辑回归介绍逻辑回归(LogisticRegression)是机器学习中的一种分类模型,由于算法的简单和高效,在实际中应用非常广泛。本文主要从Tensorflow框架下代码应用去分析这个模型。因为比较简单,大家都学习过,就简要介绍一下。二、求解回归求解的一般步骤就是:①寻找假设函数②构造损失函数③求解使得损失函数最小化时的回归参数sigmoid函数在介绍逻辑回归模型之前,我们先引入sigmoi
小小菜鸟一只
·
2016-11-22 17:53
TesorFlow教
TensorFlow学习
记录-- 5.用lstm对手写数字进行识别(待修改,差增加rnn以及lstm的知识)
待修改二Rnn_mnist1整体解释整个结构为每次将batch=500,图片大小为28×28的数据,对于每张图片来说,每次一列一列的读入数据,即分成28个时间序列每次28个送入rnn网络进行训练,将最后一个时间点的输出output[-1]作为最终输出,其中隐藏层里面有n_hidden=256个特征数,即最后输出out的特征的数量也是这么多,一般取最后一个out作为最终输出,最后一个out[-1]是
HxShine
·
2016-11-21 13:59
Tensorflow
tensorflow学习
笔记(二十一):tensorflow可视化
tensorflow的可视化是使用summary和tensorboard合作完成的.基本用法首先明确一点,summary也是op.输出网络结构withtf.Session()assess:writer=tf.summary.FileWriter(your_dir,sess.graph)命令行运行tensorboard--logdiryour_dir,然后浏览器输入127.0.1.1:6006注:t
ke1th
·
2016-11-16 11:56
tensorflow
tensorflow学习笔记
TensorFlow学习
(二):变量常量类型
更新时间:2017.2.27tensorflow1.0出来了,API和以前有了一些不一样,所以这里把把之前的代码迁移到新的上面去。更新时间:2017.5.4对于一些性质有了新的认识。补充一些新的东西更新时间:2019.3.7tensorflow2.0出来了,把基本的代码风格向tensorflow2.0转移。移除了placeholder和图的一些内容,精简了内容这一部分内容的所有完整代码以及note
谢小小XH
·
2016-11-13 21:52
深度学习
TensorFlow
tensorflow学习
笔记(十九):分布式Tensorflow
分布式Tensorflow最近在学习怎么分布式Tensorflow训练深度学习模型,看官网教程看的云里雾里,最终结合着其它资料,终于对分布式Tensorflow有了些初步了解.gRPC(googleremoteprocedurecall)分布式Tensorflow底层的通信是gRPCgRPC首先是一个RPC,即远程过程调用,通俗的解释是:假设你在本机上执行一段代码num=add(a,b),它调用了
u012436149
·
2016-11-12 15:00
TensorFlow学习
记录-- 4.拟合曲线
一拟合直线这里先用numpy创建一些数据点x,然后计算出出标签y(加了一些正态分布的随机点),最后用tensorflow去拟合这些点。代码以及图1.构建点x和标签yimportnumpyasnpnum_points=1000vectors_set=[]foriinxrange(num_points):x1=np.random.normal(0.0,0.55)y1=x1*0.1+0.3+np.ran
HxShine
·
2016-11-11 10:16
Tensorflow
tensorflow学习
笔记(十八):Multiple GPUs
DistribuitedtensorflowMultipleGPUs如何设置训练系统(1)每个GPU上都会有model的副本(2)对模型的参数进行同步更新抽象名词计算单个副本inference和gradients的函数称之为tower,使用tf.name_scope()为tower中的每个op_name加上前缀使用tf.device('/gpu:0')来指定tower中op的运算设备框架:with
u012436149
·
2016-11-11 10:00
TensorFlow学习
(一):感受一下
更新:2017.2.27因为tensorflow1.0出来了,很多不兼容,所以这部分更新了一下。以适应tensorflow1.0更新:2019.3.7因为tensorflow2.0出来了,又带来了很多新的不兼容的东西,因此新的版本全部基于tensorflow2一.tensorflow背景背景直接不多说了,一般学习已经开始学习tensorflow的都应该都知道tensorflow的背景了。所以这里直
谢小小XH
·
2016-11-09 17:52
深度学习
TensorFlow
tensorflow学习
笔记之使用tensorflow进行MNIST分类(3)
在加载MNIST数据集时候用到了Input_data.py。这段代码其实非常重要,现在和大家一起分享一下我的学习理解#coding=utf-8#input_data.py的详解#学习读取数据文件的方法,以便读取自己需要的数据库文件(二进制文件)"""FunctionsfordownloadingandreadingMNISTdata."""from__future__importprint_fun
IEEE_FELLOW
·
2016-11-08 19:52
tensorflow学习
笔记(十七):name&variable scope
name&variablescope水平有限,如有错误,请指正!在tensorflow中,有两个scope,一个是name_scope一个是variable_scope,这两个scope到底有什么区别呢?先看第一个程序:withtf.name_scope("hello")asname_scope: arr1=tf.get_variable("arr1",shape=[2,10],dtype=tf.
u012436149
·
2016-11-08 13:00
tensorflow学习
笔记(十六):rnn_cell.py
rnn_cell水平有限,如有错误,请指正!本文主要介绍一下tensorflow.python.ops.rnn_cell中的一些类和函数,可以为我们编程所用run_cell._linear()def_linear(args,output_size,bias,bias_start=0.0,scope=None): args:listoftensor[batch_size,size].注意,list中
u012436149
·
2016-11-03 22:00
tensorflow学习
笔记(十五): variable scope
variablescopetensorflow为了更好的管理变量,提供了variablescope机制官方解释:Variablescopeobjecttocarrydefaultstoprovidetoget_variable.Manyoftheargumentsweneedforget_variableinavariablestorearemosteasilyhandledwithacontex
u012436149
·
2016-11-03 10:00
tensorflow学习
笔记之使用tensorflow进行MNIST分类(1)
MNIST是一个入门级的计算机视觉数据集,它包含60000个训练数据和10000个测试数据。每个样本为下面各种手写数字图片:它也包含每一张图片对应的标签,告诉我们这个是数字几。比如,上面这四张图片的标签分别是5,0,4,1。MNIST的官方网站:http://yann.lecun.com/exdb/mnist/可以查看该项目目前的最高纪录:http://rodrigob.github.io/are
IEEE_FELLOW
·
2016-11-02 20:27
tensorflow学习
笔记之使用tensorflow进行MNIST分类(2)
接着上一篇:http://blog.csdn.net/IEEE_FELLOW/article/details/53012351本文参考YannLeCun的LeNet5经典架构,稍加ps得到下面适用于本手写识别的cnn结构,构造一个两层卷积神经网络,神经网络的结构如下图所示:输入-卷积-pooling-卷积-pooling-全连接层-Dropout-Softmax输出第一层卷积利用5*5的patch
IEEE_FELLOW
·
2016-11-02 20:38
tensorflow学习
笔记(十四):tensorlfow中使用clip
tensorflow中使用clip在训练深度神经网络的时候,我们经常会碰到梯度消失和梯度爆炸问题,scientists提出了很多方法来解决这些问题,本篇就介绍一下如何在tensorflow中使用clip来address这些问题train_op=tf.train.GradientDescentOptimizer(learning_rate=0.1).minimize(loss)在调用minimize
u012436149
·
2016-11-02 12:00
tensorflow学习
笔记(十二):Normalization
Normalizationlocal_response_normalizationlocal_response_normalization出现在论文”ImageNetClassificationwithdeepConvolutionalNeuralNetworks”中,论文中说,这种normalization对于泛化是有好处的.bix,y=aix,y(k+α∑min(0,i+n/2)j=max(0
u012436149
·
2016-10-31 19:00
tensorflow学习
笔记(十三):conv3d
conv3dtf.nn.conv3d(input,filter,strides,padding,name=None) Computesa3-Dconvolutiongiven5-Dinputandfiltertensors. Insignalprocessing,cross-correlationisameasureofsimilarityoftwowaveformsasafunctionof
u012436149
·
2016-10-31 14:00
tensorflow学习
笔记(十一):seq2seq Model
seq2seqModel源码地址调用外部的函数介绍tf.sampled_softmax_loss()tf.sampled_softmax_loss()中调用了_compute_sampled_logits()关于__compute_sampled_logits()#此函数和nce_loss是差不多的,取样求loss defsampled_softmax_loss(weights,#[num_cla
u012436149
·
2016-10-31 00:00
Tensorflow学习
笔记4:分布式Tensorflow
简介TensorflowAPI提供了Cluster、Server以及Supervisor来支持模型的分布式训练。关于Tensorflow的分布式训练介绍可以参考DistributedTensorflow。简单的概括说明如下:Tensorflow分布式Cluster由多个Task组成,每个Task对应一个tf.train.Server实例,作为Cluster的一个单独节点;多个相同作用的Task可以
lienhua34
·
2016-10-27 19:00
tensorflow学习
笔记(十):sess.run()
session.run()session.run([fetch1,fetch2])importtensorflowastf state=tf.Variable(0.0,dtype=tf.float32) one=tf.constant(1.0,dtype=tf.float32) new_val=tf.add(state,one) update=tf.assign(state,new_val) in
u012436149
·
2016-10-24 09:00
tensorflow学习
笔记(九):tf.shape()与tensor.get_shape()
两种方法都可以获得变量的shapetf.shape(x)其中x可以是tensor,也可不是tensor,返回是一个tensortensor.get_shape()只有tensor有这个方法,返回是一个tuple
u012436149
·
2016-10-23 22:00
tensorflow学习
笔记(八):dropout
tensorflow:dropout我们都知道dropout对于防止过拟合效果不错dropout一般用在全连接的部分,卷积部分不会用到dropout,输出曾也不会使用dropout,适用范围[输入,输出)1.tf.nn.dropout(x,keep_prob,noise_shape=None,seed=None,name=None)2.tf.nn.rnn_cell.DropoutWrapper(r
u012436149
·
2016-10-22 11:00
tensorflow学习
笔记(六):LSTM 与 GRU
[10.26.2016更新][新增内容:今天写代码的时候,如果使用state_is_tuple=True,那么initial_state=lstm_cell.zero_state(batch_size,dtype=tf.float32) ... withtf.Session()assess: tf.initialize_all_variables().run() state=initial_sta
u012436149
·
2016-10-21 21:00
tensorflow学习
笔记(五):变量导入导出
如何使用tensorflow内置的参数导出和导入方法:基本用法如果你还在纠结如何保存tensorflow训练好的模型参数,用这个方法就对了importtensorflowastf """变量声明,运算声明例:w=tf.get_variable(name="vari_name",shape=[],dtype=tf.float32)初始化op声明""" #创建saverop saver=tf.trai
u012436149
·
2016-10-21 15:00
tensorflow学习
笔记(四):激活函数
tesorflow中的激活函数所有激活函数输入和输出的维度是一样的tf.nn.relu() tf.nn.sigmoid() tf.nn.tanh() tf.nn.elu() tf.nn.bias_add() tf.nn.crelu() tf.nn.relu6() tf.nn.softplus() tf.nn.softsign() tf.nn.dropout() tf.nn.relu_layer(x
u012436149
·
2016-10-20 17:00
tensorflow学习
笔记(三):损失函数
tf.python.ops.nn_ops.sparse_softmax_cross_entropy_with_logits(logits,labels,name=None)defsparse_softmax_cross_entropy_with_logits(logits,labels,name=None): #logits是最后一层的z(输入) #Acommonusecaseistohavelo
u012436149
·
2016-10-20 17:00
tensorflow学习
笔记(二):矩阵操作
矩阵操作#对于2-D #所有的reduce_...,如果不加axis的话,都是对整个矩阵进行运算 tf.reduce_sum(a,1)#对axis1 tf.reduce_mean(a,0)#每列均值第二个参数是axis,如果为0的话,res[i]=∑ja[j,i]即(res[i]=∑a[:,i]),如果是1的话,res[i]=∑ja[i,j]NOTE:返回的都是行向量#关于concat,可以用来进
u012436149
·
2016-10-20 13:00
tensorflow学习
笔记(一):命令行参数
全局环境下编写代码importtensorflowastf flags=tf.flags logging=tf.logging flags.DEFINE_string("para_name","default_val","description") flags.DEFINE_bool("para_name","default_val","description") FLAG=flags.FLAG
u012436149
·
2016-10-20 10:00
Tensorflow学习
笔记(三)——深入MNIST
#loadMNISTdataimportinput_datamnist=input_data.read_data_sets("Mnist_data/",one_hot=True)#starttensorflowinteractiveSessionimporttensorflowastfsess=tf.InteractiveSession()#weightinitializationdefweigh
王圆圆Iris
·
2016-10-19 21:15
Tensorflow
Tensorflow学习
笔记(二)——MNIST机器学习入门
一、mnist手写识别代码运行过程1下载数据库在http://yann.lecun.com/exdb/mnist/下载上面提到的4个gz文件,放到本地目录如/tmp/mnist2下载input_data.py,放在/home/tmp/test目录下https://tensorflow.googlesource.com/tensorflow/+/master/tensorflow/g3doc/tut
王圆圆Iris
·
2016-10-19 20:35
Tensorflow
Tensorflow学习
初探
总说tensorflow最近很火啊,更新也超级快。以前学了matconvnet的,但是后来要做的东西却是torch框架的,当学习torch时,感觉这框架真是令人耳目一新。Lua这是一门挺有趣的语言,反正写着类似C和matlab的结合版本。主要是torch框架预先一层一层定义网络,然后对于自定义的网络层,只需要重载3个函数,主要是初始化函数、前向传播函数以及反向传播函数。代码很简洁。但是最令人头大的
Hungryof
·
2016-10-06 16:56
Deep
Learning
Tensorflow
tensorflow学习
之常用函数总结:tensorflow官方例子中的诸如tf.reduce_mean()这类函数
前言tensorflow官网给的例子用到了很多函数,然后并没有具体说明,还要自己去翻文档,有些函数是很常用的,下面来一一总结。正文一,tensorflow中有一类在tensor的某一维度上求值的函数。如:求最大值tf.reduce_max(input_tensor,reduction_indices=None,keep_dims=False,name=None)求平均值tf.reduce_mean
name_s_Jimmy
·
2016-10-04 20:28
tensorflow
函数
tf.reduce_mean
tensorflow
TensorFlow学习
笔记(四):Tensorflow网络构建和TensorBoard进行训练过程可视化
用了Anaconda安装了一个tensorflow运行环境以后,终于发现各种操作顺手了一些。但发现运行了一系列的Tutorial运行后,如何组织一个Tensorflow的应用却仍然不是很明确。下面就从python小白的方面理解一下mnist_with_summaries.py这个文件。0.相关信息Tensorflow版本:r0.10.0Github地址(forkfromyhlleo/mnist):
蓝蓝的天上白云飘X
·
2016-10-01 23:27
TensorFlow
TensorFlow学习
笔记(一补):使用Anaconda安装TensorFlow
建议参照最新的tensorflow安装步骤(Linux,官方网站经常访问不是很稳定,所以给了一个github的地址):https://github.com/tensorflow/tensorflow/blob/master/tensorflow/docs_src/install/install_linux.md最近,tensorflow网站上给出了新的使用Anaconda配置和安装Tensorfl
蓝蓝的天上白云飘X
·
2016-09-29 20:52
TensorFlow
上一页
24
25
26
27
28
29
30
31
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他