E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
莫烦tensorflow学习
TensorFlow学习
(四):梯度带(GradientTape),优化器(Optimizer)和损失函数(losses)
更新时间:2017.5.9简化了很多不需要的内容,关注重点。2019.4.17更新到tensorflow2.x,添加自动求导和新版本的optimizer因为tensorflow2.x相对于tensorflow1.x的变动,API变更和思路也变化了,这节重点介绍的为梯度带(GradientTape)和优化器(Optimizer)因为大多数机器学习任务就是最小化损失,在损失定义的情况下,后面的工作就交
谢小小XH
·
2016-11-27 19:04
TensorFlow
深度学习框架
Tensorflow学习
(五)-----多层感知器模型
一、多层感知器多层感知器(MLP,MultilayerPerceptron)是一种前馈人工神经网络模型,其将输入的多个数据集映射到单一的输出的数据集上。可以实现非线性判别式,如果用于回归,可以逼近输入的非线性函数。其实MLP可以用于“普适近似”,即可以证明:具有连续输入和输出的任何函数都可以用MLP近似,已经证明,具有一个隐藏层(隐藏节点个数不限)的MLP可以学习输入的任意非线性函数。二、代码im
小小菜鸟一只
·
2016-11-23 16:19
TesorFlow教
深度学习框架
Tensorflow学习
(四)----逻辑回归
一、逻辑回归介绍逻辑回归(LogisticRegression)是机器学习中的一种分类模型,由于算法的简单和高效,在实际中应用非常广泛。本文主要从Tensorflow框架下代码应用去分析这个模型。因为比较简单,大家都学习过,就简要介绍一下。二、求解回归求解的一般步骤就是:①寻找假设函数②构造损失函数③求解使得损失函数最小化时的回归参数sigmoid函数在介绍逻辑回归模型之前,我们先引入sigmoi
小小菜鸟一只
·
2016-11-22 17:53
TesorFlow教
TensorFlow学习
记录-- 5.用lstm对手写数字进行识别(待修改,差增加rnn以及lstm的知识)
待修改二Rnn_mnist1整体解释整个结构为每次将batch=500,图片大小为28×28的数据,对于每张图片来说,每次一列一列的读入数据,即分成28个时间序列每次28个送入rnn网络进行训练,将最后一个时间点的输出output[-1]作为最终输出,其中隐藏层里面有n_hidden=256个特征数,即最后输出out的特征的数量也是这么多,一般取最后一个out作为最终输出,最后一个out[-1]是
HxShine
·
2016-11-21 13:59
Tensorflow
tensorflow学习
笔记(二十一):tensorflow可视化
tensorflow的可视化是使用summary和tensorboard合作完成的.基本用法首先明确一点,summary也是op.输出网络结构withtf.Session()assess:writer=tf.summary.FileWriter(your_dir,sess.graph)命令行运行tensorboard--logdiryour_dir,然后浏览器输入127.0.1.1:6006注:t
ke1th
·
2016-11-16 11:56
tensorflow
tensorflow学习笔记
TensorFlow学习
(二):变量常量类型
更新时间:2017.2.27tensorflow1.0出来了,API和以前有了一些不一样,所以这里把把之前的代码迁移到新的上面去。更新时间:2017.5.4对于一些性质有了新的认识。补充一些新的东西更新时间:2019.3.7tensorflow2.0出来了,把基本的代码风格向tensorflow2.0转移。移除了placeholder和图的一些内容,精简了内容这一部分内容的所有完整代码以及note
谢小小XH
·
2016-11-13 21:52
深度学习
TensorFlow
tensorflow学习
笔记(十九):分布式Tensorflow
分布式Tensorflow最近在学习怎么分布式Tensorflow训练深度学习模型,看官网教程看的云里雾里,最终结合着其它资料,终于对分布式Tensorflow有了些初步了解.gRPC(googleremoteprocedurecall)分布式Tensorflow底层的通信是gRPCgRPC首先是一个RPC,即远程过程调用,通俗的解释是:假设你在本机上执行一段代码num=add(a,b),它调用了
u012436149
·
2016-11-12 15:00
TensorFlow学习
记录-- 4.拟合曲线
一拟合直线这里先用numpy创建一些数据点x,然后计算出出标签y(加了一些正态分布的随机点),最后用tensorflow去拟合这些点。代码以及图1.构建点x和标签yimportnumpyasnpnum_points=1000vectors_set=[]foriinxrange(num_points):x1=np.random.normal(0.0,0.55)y1=x1*0.1+0.3+np.ran
HxShine
·
2016-11-11 10:16
Tensorflow
tensorflow学习
笔记(十八):Multiple GPUs
DistribuitedtensorflowMultipleGPUs如何设置训练系统(1)每个GPU上都会有model的副本(2)对模型的参数进行同步更新抽象名词计算单个副本inference和gradients的函数称之为tower,使用tf.name_scope()为tower中的每个op_name加上前缀使用tf.device('/gpu:0')来指定tower中op的运算设备框架:with
u012436149
·
2016-11-11 10:00
TensorFlow学习
(一):感受一下
更新:2017.2.27因为tensorflow1.0出来了,很多不兼容,所以这部分更新了一下。以适应tensorflow1.0更新:2019.3.7因为tensorflow2.0出来了,又带来了很多新的不兼容的东西,因此新的版本全部基于tensorflow2一.tensorflow背景背景直接不多说了,一般学习已经开始学习tensorflow的都应该都知道tensorflow的背景了。所以这里直
谢小小XH
·
2016-11-09 17:52
深度学习
TensorFlow
tensorflow学习
笔记之使用tensorflow进行MNIST分类(3)
在加载MNIST数据集时候用到了Input_data.py。这段代码其实非常重要,现在和大家一起分享一下我的学习理解#coding=utf-8#input_data.py的详解#学习读取数据文件的方法,以便读取自己需要的数据库文件(二进制文件)"""FunctionsfordownloadingandreadingMNISTdata."""from__future__importprint_fun
IEEE_FELLOW
·
2016-11-08 19:52
tensorflow学习
笔记(十七):name&variable scope
name&variablescope水平有限,如有错误,请指正!在tensorflow中,有两个scope,一个是name_scope一个是variable_scope,这两个scope到底有什么区别呢?先看第一个程序:withtf.name_scope("hello")asname_scope: arr1=tf.get_variable("arr1",shape=[2,10],dtype=tf.
u012436149
·
2016-11-08 13:00
tensorflow学习
笔记(十六):rnn_cell.py
rnn_cell水平有限,如有错误,请指正!本文主要介绍一下tensorflow.python.ops.rnn_cell中的一些类和函数,可以为我们编程所用run_cell._linear()def_linear(args,output_size,bias,bias_start=0.0,scope=None): args:listoftensor[batch_size,size].注意,list中
u012436149
·
2016-11-03 22:00
tensorflow学习
笔记(十五): variable scope
variablescopetensorflow为了更好的管理变量,提供了variablescope机制官方解释:Variablescopeobjecttocarrydefaultstoprovidetoget_variable.Manyoftheargumentsweneedforget_variableinavariablestorearemosteasilyhandledwithacontex
u012436149
·
2016-11-03 10:00
tensorflow学习
笔记之使用tensorflow进行MNIST分类(1)
MNIST是一个入门级的计算机视觉数据集,它包含60000个训练数据和10000个测试数据。每个样本为下面各种手写数字图片:它也包含每一张图片对应的标签,告诉我们这个是数字几。比如,上面这四张图片的标签分别是5,0,4,1。MNIST的官方网站:http://yann.lecun.com/exdb/mnist/可以查看该项目目前的最高纪录:http://rodrigob.github.io/are
IEEE_FELLOW
·
2016-11-02 20:27
tensorflow学习
笔记之使用tensorflow进行MNIST分类(2)
接着上一篇:http://blog.csdn.net/IEEE_FELLOW/article/details/53012351本文参考YannLeCun的LeNet5经典架构,稍加ps得到下面适用于本手写识别的cnn结构,构造一个两层卷积神经网络,神经网络的结构如下图所示:输入-卷积-pooling-卷积-pooling-全连接层-Dropout-Softmax输出第一层卷积利用5*5的patch
IEEE_FELLOW
·
2016-11-02 20:38
tensorflow学习
笔记(十四):tensorlfow中使用clip
tensorflow中使用clip在训练深度神经网络的时候,我们经常会碰到梯度消失和梯度爆炸问题,scientists提出了很多方法来解决这些问题,本篇就介绍一下如何在tensorflow中使用clip来address这些问题train_op=tf.train.GradientDescentOptimizer(learning_rate=0.1).minimize(loss)在调用minimize
u012436149
·
2016-11-02 12:00
tensorflow学习
笔记(十二):Normalization
Normalizationlocal_response_normalizationlocal_response_normalization出现在论文”ImageNetClassificationwithdeepConvolutionalNeuralNetworks”中,论文中说,这种normalization对于泛化是有好处的.bix,y=aix,y(k+α∑min(0,i+n/2)j=max(0
u012436149
·
2016-10-31 19:00
tensorflow学习
笔记(十三):conv3d
conv3dtf.nn.conv3d(input,filter,strides,padding,name=None) Computesa3-Dconvolutiongiven5-Dinputandfiltertensors. Insignalprocessing,cross-correlationisameasureofsimilarityoftwowaveformsasafunctionof
u012436149
·
2016-10-31 14:00
tensorflow学习
笔记(十一):seq2seq Model
seq2seqModel源码地址调用外部的函数介绍tf.sampled_softmax_loss()tf.sampled_softmax_loss()中调用了_compute_sampled_logits()关于__compute_sampled_logits()#此函数和nce_loss是差不多的,取样求loss defsampled_softmax_loss(weights,#[num_cla
u012436149
·
2016-10-31 00:00
Tensorflow学习
笔记4:分布式Tensorflow
简介TensorflowAPI提供了Cluster、Server以及Supervisor来支持模型的分布式训练。关于Tensorflow的分布式训练介绍可以参考DistributedTensorflow。简单的概括说明如下:Tensorflow分布式Cluster由多个Task组成,每个Task对应一个tf.train.Server实例,作为Cluster的一个单独节点;多个相同作用的Task可以
lienhua34
·
2016-10-27 19:00
Tensorflow 入门一 (安装配置,会话控制,变量常量,传入值)
主要参考资料一方面是0.8.0版极客学院翻译版资料,另一方面是油管上周
莫烦
的视频资料(附上地址:https://www.youtube.com/user/MorvanZhou/featured)安装配置
傲慢灬
·
2016-10-26 09:39
Tensorflow
数据挖掘基础算法
tensorflow学习
笔记(十):sess.run()
session.run()session.run([fetch1,fetch2])importtensorflowastf state=tf.Variable(0.0,dtype=tf.float32) one=tf.constant(1.0,dtype=tf.float32) new_val=tf.add(state,one) update=tf.assign(state,new_val) in
u012436149
·
2016-10-24 09:00
tensorflow学习
笔记(九):tf.shape()与tensor.get_shape()
两种方法都可以获得变量的shapetf.shape(x)其中x可以是tensor,也可不是tensor,返回是一个tensortensor.get_shape()只有tensor有这个方法,返回是一个tuple
u012436149
·
2016-10-23 22:00
tensorflow学习
笔记(八):dropout
tensorflow:dropout我们都知道dropout对于防止过拟合效果不错dropout一般用在全连接的部分,卷积部分不会用到dropout,输出曾也不会使用dropout,适用范围[输入,输出)1.tf.nn.dropout(x,keep_prob,noise_shape=None,seed=None,name=None)2.tf.nn.rnn_cell.DropoutWrapper(r
u012436149
·
2016-10-22 11:00
tensorflow学习
笔记(六):LSTM 与 GRU
[10.26.2016更新][新增内容:今天写代码的时候,如果使用state_is_tuple=True,那么initial_state=lstm_cell.zero_state(batch_size,dtype=tf.float32) ... withtf.Session()assess: tf.initialize_all_variables().run() state=initial_sta
u012436149
·
2016-10-21 21:00
tensorflow学习
笔记(五):变量导入导出
如何使用tensorflow内置的参数导出和导入方法:基本用法如果你还在纠结如何保存tensorflow训练好的模型参数,用这个方法就对了importtensorflowastf """变量声明,运算声明例:w=tf.get_variable(name="vari_name",shape=[],dtype=tf.float32)初始化op声明""" #创建saverop saver=tf.trai
u012436149
·
2016-10-21 15:00
tensorflow学习
笔记(四):激活函数
tesorflow中的激活函数所有激活函数输入和输出的维度是一样的tf.nn.relu() tf.nn.sigmoid() tf.nn.tanh() tf.nn.elu() tf.nn.bias_add() tf.nn.crelu() tf.nn.relu6() tf.nn.softplus() tf.nn.softsign() tf.nn.dropout() tf.nn.relu_layer(x
u012436149
·
2016-10-20 17:00
tensorflow学习
笔记(三):损失函数
tf.python.ops.nn_ops.sparse_softmax_cross_entropy_with_logits(logits,labels,name=None)defsparse_softmax_cross_entropy_with_logits(logits,labels,name=None): #logits是最后一层的z(输入) #Acommonusecaseistohavelo
u012436149
·
2016-10-20 17:00
tensorflow学习
笔记(二):矩阵操作
矩阵操作#对于2-D #所有的reduce_...,如果不加axis的话,都是对整个矩阵进行运算 tf.reduce_sum(a,1)#对axis1 tf.reduce_mean(a,0)#每列均值第二个参数是axis,如果为0的话,res[i]=∑ja[j,i]即(res[i]=∑a[:,i]),如果是1的话,res[i]=∑ja[i,j]NOTE:返回的都是行向量#关于concat,可以用来进
u012436149
·
2016-10-20 13:00
tensorflow学习
笔记(一):命令行参数
全局环境下编写代码importtensorflowastf flags=tf.flags logging=tf.logging flags.DEFINE_string("para_name","default_val","description") flags.DEFINE_bool("para_name","default_val","description") FLAG=flags.FLAG
u012436149
·
2016-10-20 10:00
Tensorflow学习
笔记(三)——深入MNIST
#loadMNISTdataimportinput_datamnist=input_data.read_data_sets("Mnist_data/",one_hot=True)#starttensorflowinteractiveSessionimporttensorflowastfsess=tf.InteractiveSession()#weightinitializationdefweigh
王圆圆Iris
·
2016-10-19 21:15
Tensorflow
Tensorflow学习
笔记(二)——MNIST机器学习入门
一、mnist手写识别代码运行过程1下载数据库在http://yann.lecun.com/exdb/mnist/下载上面提到的4个gz文件,放到本地目录如/tmp/mnist2下载input_data.py,放在/home/tmp/test目录下https://tensorflow.googlesource.com/tensorflow/+/master/tensorflow/g3doc/tut
王圆圆Iris
·
2016-10-19 20:35
Tensorflow
Tensorflow学习
初探
总说tensorflow最近很火啊,更新也超级快。以前学了matconvnet的,但是后来要做的东西却是torch框架的,当学习torch时,感觉这框架真是令人耳目一新。Lua这是一门挺有趣的语言,反正写着类似C和matlab的结合版本。主要是torch框架预先一层一层定义网络,然后对于自定义的网络层,只需要重载3个函数,主要是初始化函数、前向传播函数以及反向传播函数。代码很简洁。但是最令人头大的
Hungryof
·
2016-10-06 16:56
Deep
Learning
Tensorflow
tensorflow学习
之常用函数总结:tensorflow官方例子中的诸如tf.reduce_mean()这类函数
前言tensorflow官网给的例子用到了很多函数,然后并没有具体说明,还要自己去翻文档,有些函数是很常用的,下面来一一总结。正文一,tensorflow中有一类在tensor的某一维度上求值的函数。如:求最大值tf.reduce_max(input_tensor,reduction_indices=None,keep_dims=False,name=None)求平均值tf.reduce_mean
name_s_Jimmy
·
2016-10-04 20:28
tensorflow
函数
tf.reduce_mean
tensorflow
TensorFlow学习
笔记(四):Tensorflow网络构建和TensorBoard进行训练过程可视化
用了Anaconda安装了一个tensorflow运行环境以后,终于发现各种操作顺手了一些。但发现运行了一系列的Tutorial运行后,如何组织一个Tensorflow的应用却仍然不是很明确。下面就从python小白的方面理解一下mnist_with_summaries.py这个文件。0.相关信息Tensorflow版本:r0.10.0Github地址(forkfromyhlleo/mnist):
蓝蓝的天上白云飘X
·
2016-10-01 23:27
TensorFlow
TensorFlow学习
笔记(一补):使用Anaconda安装TensorFlow
建议参照最新的tensorflow安装步骤(Linux,官方网站经常访问不是很稳定,所以给了一个github的地址):https://github.com/tensorflow/tensorflow/blob/master/tensorflow/docs_src/install/install_linux.md最近,tensorflow网站上给出了新的使用Anaconda配置和安装Tensorfl
蓝蓝的天上白云飘X
·
2016-09-29 20:52
TensorFlow
tensorflow学习
笔记四——实现一个CNN网络
本例子用到了minst数据库,通过训练CNN网络,实现手写数字的预测。首先先把数据集读取到程序中:mnist=input_data.read_data_sets('MNIST_data',one_hot=True)然后开始定义输入数据,利用占位符#defineplaceholderforinputstonetworkxs=tf.placeholder(tf.float32,[None,784])#
Mr丶Caleb
·
2016-09-23 19:58
tensorflow
TensorFlow学习
笔记(6)----TensorBoard_1
以一个曲线拟合的小例子说明要使用TensorBoard,需要对程序添加那些额外的东西。程序:importtensorflowastfimportnumpyasnp#Create100phonyx,ydatapointsinNumPy,y=x*0.1+0.3x_data=np.random.rand(1000,1).astype(np.float32)y_data=tf.sin(x_data)*tf
海上的独木舟
·
2016-09-14 15:31
TensorFlow
tensorflow学习
笔记五:mnist实例--卷积神经网络(CNN)
原文链接:http://www.cnblogs.com/denny402/p/5853538.htmlmnist的卷积神经网络例子和上一篇博文中的神经网络例子大部分是相同的。但是CNN层数要多一些,网络模型需要自己来构建。程序比较复杂,我就分成几个部分来叙述。首先,下载并加载数据:importtensorflowastfimporttensorflow.examples.tutorials.mni
weixin_30578677
·
2016-09-08 16:00
tensorflow学习
笔记二:入门基础
TensorFlow用张量这种数据结构来表示所有的数据。用一阶张量来表示向量,如:v=[1.2,2.3,3.5],如二阶张量表示矩阵,如:m=[[1,2,3],[4,5,6],[7,8,9]],可以看成是方括号嵌套的层数。1、编辑器编写tensorflow代码,实际上就是编写py文件,最好找一个好用的编辑器,如果你用vim或gedit比较顺手,那也可以的啦。我们既然已经安装了anaconda,那么
denny402
·
2016-09-08 10:00
Tensorflow学习
笔记(二)MNIST入门
写在前面现在已经配置好Tensorflow的环境啦,准备开始第一个神经网络的搭建!问题是——我下载好了MNIST的数据集,要怎么使用?默认的Docker镜像只包含启动和运行TensorFlow所需依赖库的一个最小集.去Tensorflow下载了项目——怎么运行呢?1.ImportError:NomodulenamedXXX这是我第一次用python,下载了tensorflow的文件夹之后就不知道怎
施久微
·
2016-09-07 20:55
笔记
深度学习
Tensorflow学习
笔记(一)环境配置
数据集Docker什么是DockerDocker引擎Docker架构Docker运行DockerEngineDockerMachine使用DockerMachine目标:完成tensorflow的环境配置写在前面:第一次构建神经网络,本来想用Tensorflow的……但是Windows上使用Tensorflow需要用Docker,然后在使用过程中挂载磁盘一直报错(mount:permissiond
施久微
·
2016-09-06 00:00
深度学习
TensorFlow学习
笔记(5)----TF生成数据的方法
正常情况下,使用tf.initialize_all_variables()初始化变量,在完全构建好模型并加载之后才运行这个操作。生成数据的主要方法如下1)如果需要利用已经初始化的参数给其他变量赋值TF的变量有个initialized_value()属性,就是初始化的值,使用方法如下:#原始的变量weights=tf.Variable(tf.random_normal([784,200],stdde
海上的独木舟
·
2016-09-05 19:01
TensorFlow
TensorFlow学习
笔记(4)----完整的工程示例:全连接前馈网络识别MNIST
该例子不关心最后的训练精度(只有90%),只是尽可能展示一个完整TF工程。对于一些比较大的工程,单文件方式不是很合适,需要多个文件配合。从逻辑上一般分为:推理(Inference)、损失(Loss)、训练(traning)和评估(evaluation)这些步骤,代码位置:原始代码下载地址(只需要mnist.py和fully_connected_feed.py)其中:mnist.py是构建模型的,另
海上的独木舟
·
2016-09-02 07:27
TensorFlow
TensorFlow学习
笔记(3)----CNN识别MNIST手写数字
卷积神经网络(ConvolutionalNeuralNetworks,CNN)是个常用的神经网络构型,考虑了图像的结构信息,对MNIST的效果更好一些。CNN包含的主要操作:convolution和pooling在TF中都有对应的函数,直接构建网络即可。CNN的具体介绍很多,这里不再赘述。本文主要介绍TF的实现,包括一些主要函数、步骤的说明,先浏览一下程序:fromtensorflow.examp
海上的独木舟
·
2016-09-01 20:21
TensorFlow
TensorFlow学习
笔记(3)----CNN识别MNIST手写数字
卷积神经网络(ConvolutionalNeuralNetworks,CNN)是个常用的神经网络构型,考虑了图像的结构信息,对MNIST的效果更好一些。CNN包含的主要操作:convolution和pooling在TF中都有对应的函数,直接构建网络即可。CNN的具体介绍很多,这里不再赘述。本文主要介绍TF的实现,包括一些主要函数、步骤的说明,先浏览一下程序:一些说明:1)偏置全部为0
PhDat101
·
2016-09-01 20:00
python
tensorflow
TensorFlow学习
笔记(2)----Softmax Regression分类MNIST
1.简要介绍SoftmaxRegression直观地看,每个像素乘个系数加个偏置,最后得到一个属于某个分类的比重,表示“支持图片是数字i的证据有多强烈“上图红色代表负数贡献,蓝色代表正贡献。具体的公式就是:x表示图像,w是系数,b是偏置系数。softmax会把每个分类的证据都求解出来,然后使用指数归一化:这里的x又表示获得的证据evidence数值。简单表示为:softmax在本例分类其中的位置和
海上的独木舟
·
2016-09-01 10:59
TensorFlow
TensorFlow学习
笔记(三):Tutorial第二个例子-深入MNIST-卷积神经网络
1.卷积神经网络结构及与LeNet-5的区别在网上找了一个卷积神经网络的教程,http://blog.csdn.net/zouxy09/article/details/8781543/其实最好学习卷积神经网络的读本是Lecun的论文(http://yann.lecun.com/exdb/publis/pdf/lecun-98.pdf),在这篇论文里面较为详尽的解释了什么是卷积神经网络,并且阐述了为
蓝蓝的天上白云飘X
·
2016-08-05 21:31
TensorFlow
深度学习
DeepLearning
TensorFlow学习
笔记(二):快速理解Tutorial第一个例子-MNIST机器学习入门
TensorFlow教程的第一章“MNIST机器学习入门”很简单,用了一个很简单的网络,实现了MNIST样本训练。教程链接:http://wiki.jikexueyuan.com/project/tensorflow-zh/tutorials/mnist_beginners.html下面这些内容主要是解释这个教程中不是特别明确的地方。1.怎样理解MNISTMNIST的全称是MixedNationa
蓝蓝的天上白云飘X
·
2016-08-02 22:38
TensorFlow
深度学习
DeepLearning
上一页
39
40
41
42
43
44
45
46
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他