E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
TensorFlow-
Tensorflow-
可视化VGG19
#加载VGG19模型并可视化一张图片前向传播的过程中每一层的输出#引入包importtensorflowastfimportnumpyasnpimportmatplotlib.pyplotaspltimportscipy.ioimportscipy.misc#定义一些函数#卷积def_conv_layer(input,weights,bias):conv=tf.nn.conv2d(input,tf
s729193140
·
2020-06-26 06:53
CG
TensorFlow-
优化函数,学习速率,反向传播算法
针对多感知器,梯度下降算法1.预测一个连续值,我们的做法是,不对他激活,直接输出2.预测“是”或“否”的分类问题,则对输出层,做sigmoid运算二分类输出3.多分类softmax运算,输出多个分类在概率上的分别多层感知器的优化是利用了梯度下降算法所谓“学习”便是改进模型参数,以便通过大量训练步骤将损失最小化梯度的输出向量表明了在每个位置损失函数增长最快的方向,可将它视为表示了在函数的每个位置向哪
Alex-panda
·
2020-06-25 13:19
人工智能
tensorflow-
线性回归参数预测实践和web端使用该模型
前言tensorflow是Google的开源的深度学习框架,本次分享下利用该框架计算出一个线性回归参数的预测实践,以及训练后如何将模型转化为web端可以使用的模型。TensorFlow的官方地址:https://www.tensorflow.org/;js版本的官方地址:https://js.tensorflow.org/;转化为web端可以使用的工具地址:https://github.com/t
ihaveahappyfamily
·
2020-06-23 17:58
tensorflow学习
tensorflow.js模型
python
Tensorflow - 语义分割 Deeplab API
Tensorflow-
语义分割DeeplabAPI之DemoTensorflow-语义分割DeeplabAPI之ModelZooTensorflowDeepLab语义分割还提供了在PASCALVOC2012
hhy018
·
2020-06-23 14:24
tensorflow
Tensorflow-
风格迁移
1.概述:原始图像的VGG19的conv5_1作为内容,风格图片的VGG19的某几个层的gram矩阵作为风格。计算风格损失和内容损失,不断迭代噪声+原始图像的像素值,最后得到结果。2.风格损失原理:Gram矩阵:n维欧式空间中任意k个向量之间两两的内积所组成的矩阵,称为这k个向量的格拉姆矩阵(Grammatrix)简单来说就是内积可以反映出两个向量之间的某种关系或联系。Gram矩阵是两两向量的内积
s729193140
·
2020-06-21 07:12
CG
tensorflow-
*-from tensorflow import keras 与 from tensorflow.python import keras
howtousekerasintf在版本tensorflow2.0+中有很多方式引入kerasimporttensorflowastffromtensorflowimportkeras#fromtensorflow_coreimportkeras#fromtensorflow.pythonimportkeras#使用第一种fromtensorflowimportkeras#其余的两个与其还是有区别
Leo蓝色
·
2020-06-19 17:31
Python
深度学习
tensorflow-
梯度下降,有这一篇就足够了
前言最近机器学习越来越火了,前段时间斯丹福大学副教授吴恩达都亲自录制了关于DeepLearningSpecialization的教程,在国内掀起了巨大的学习热潮。本着不被时代抛弃的念头,自己也开始研究有关机器学习的知识。都说机器学习的学习难度非常大,但不亲自尝试一下又怎么会知道其中的奥妙与乐趣呢?只有不断的尝试才能找到最适合自己的道路。请容忍我上述的自我煽情,下面进入主题。这篇文章主要对机器学习中
午后一小憩
·
2020-04-03 20:31
机器学习常用工具
pytorch-深度学习框架,更易用,更适合文本
TensorFlow-
深度学习框架,更强大,更适合图像和分布式xgboost:梯度增强算法库,c++写的,有python接口scikit-learn:MachinelearninginPython
wumingkeqi
·
2020-03-14 23:43
深度学习-
tensorflow-
变量和常量
1.tensorflow申明变量方法:tensorflow.Variable(3)2.tensorflow申明常量方法:tensorflow.constant(3)在初始化时变量会放入cache,常量不会importtensorflowastf#wnotincache,buttf.Variable()incachew=tf.constant(10)x=w+2y=x+5z=y*4j=y+10#cre
老生住长亭
·
2020-03-02 04:17
tensorflow-
符号编程
编程模式通常分为命令式编程(imperativestyleprograms)和符号式编程(symbolicstyleprograms)。命令式编程容易理解和调试,命令语句基本没有优化,按原有逻辑执行。符号式编程涉及较多的嵌入和优化,不容易理解和调试,但运行速度有同比提升。这两种编程模式在实际中都有应用,Torch是典型的命令式风格,caffe、theano、mxnet和Tensorflow都使用了
小知识传送门
·
2020-02-14 09:57
TensorFlow-
机器学习入门(第一课)
从今天开始正式进入机器学习,现在我们将以三行代码未钥匙撬开机器学习的大门。首先看代码,我一行都看不懂并不能阻挡我学习的热情,我们将通过以问题驱动学习的方式来引导,达到快速学习的目的1.第一行代码导入TensorFlow包,如何导入呢?可通过pipinstalltensorflow2.第二行变量定义。在java中类似Stringstr=“hello”详细解释呢在TensorFlow中,数据不是以整数
喝旺仔不喝旺仔
·
2020-02-05 18:48
Tensorflow-
CNN卷积神经网络的MNIST手写数字识别
Tensorflow系列文章Tensorflow-MNIST机器学习入门Tensorflow-CNN卷积神经网络的MNIST手写数字识别
Tensorflow-
循环神经网络(LST
周乘
·
2020-01-06 04:49
利用OpenCV和Python实现查找图片差异
使用OpenCV和Python查找图片差异flyfish方法1均方误差的算法(MeanSquaredError,MSE)下面的一些表达与《
TensorFlow-
协方差矩阵》式子表达式一样的拟合误差平方和
flyfish1986
·
2019-12-19 10:58
Tensorflow-
逻辑斯蒂回归
1.交叉熵逻辑斯蒂回归这个模型采用的是交叉熵,通俗点理解交叉熵推荐一篇文章讲的很清楚:https://www.zhihu.com/question/41252833因此,交叉熵越低,这个策略就越好,最低的交叉熵也就是使用了真实分布所计算出来的信息熵,因为此时,交叉熵=信息熵。这也是为什么在机器学习中的分类算法中,我们总是最小化交叉熵,因为交叉熵越低,就证明由算法所产生的策略最接近最优策略,也间接证
Curry秀
·
2019-12-10 19:00
Tensorflow-
循环神经网络(LSTM)
Tensorflow系列文章Tensorflow-MNIST机器学习入门Tensorflow-CNN卷积神经网络的MNIST手写数字识别
Tensorflow-
循环神经网络(LST
周乘
·
2019-11-03 11:04
Tensorflow-
低级接口说明-LowLevelApis-翻译整理
这篇文章介绍使用Tensorflow'低级api编程的方法,包括:管理你的tensorflow程序(运算图graph)和运行时(会话session),不依赖Estimators使用tf.Session运行tensorflow操作在低级编程中使用高级元素(dataset,layer,featurecolumns)搭建自定义的trainloop训练周期,不依赖于Estimators推荐优先使用高级接口
zhyuzh3d
·
2019-09-21 22:51
Tensorflow-
花分类-图像再训练-part-1-整理翻译
图像识别往往包含数以百万计的参数,从头训练需要大量打好标签的图片,还需要大量的计算力(往往数百小时的GPU时间)。对此,迁移学习是一个捷径,他可以在已经训练好的相似工作模型基础上,继续训练新的模型。这里我们将基于ImageNet训练好的模型,对适当数量(数千张)图像进行训练,这个训练可能需要30分钟左右。准备工作安装tensorflow-hub,这是一个类似于tensorflow模型市场集散地的应
zhyuzh3d
·
2019-09-21 21:51
tensorflow-
网络层-输入层input_layer
tf.feature_column.input_layertensorflow中,如果已经聚集了一大堆特征,如何将特征转换成模型可以直接输入的数据,可以通过tf.feature_column.input_layer将数据输入进神经网络。通常在tensorflow中,训练数据中的单条Example通常表示成FeatureColumn,而在模型的第一层中,面向列的数据通常转换为tensor。tf.fe
看穿数据之美
·
2019-09-16 18:23
深度学习/机器学习
DNN
tensorflow
Window安装
TensorFlow-
GPU环境
简述】关于Window安装TensorFlow-GPU环境的文章我想网站已经有非常多了,但是为什么还要写这篇文章呢,就是被网上的文章给坑了。由于pipinstalltensorflow-gpu的时候会默认安装tensorflow的最新版本(目前为1.8)。但是网上的教程估计都是小与1.7的版本,因此所有文章都写着必须安装DUDA8.0,导致小编安装TensorFlow-GPU入了很多坑,最后还是通
扰扰1994
·
2019-06-10 11:13
资料
Tensorflow-
递归神经网络RNN之LSTM图片分类
深度学习框架Tensorflow学习与应用实战#LSTM主要用于语音、文本序列化的问题,但同样可以用于图片分类importtensorflowastffromtensorflow.examples.tutorials.mnistimportinput_data#载入数据集mnist=input_data.read_data_sets("MNIST_data/",one_hot=True)#输入图片
追枫萨
·
2019-05-30 16:32
Tensorflow
Tensorflow-
非线性回归
importtensorflowastfimportnumpyasnpimportmatplotlib.pyplotasplt#生成(-0.5,0.5)之间均匀的200个点,[]使得为二维数据,200行1列x_data=np.linspace(-0.5,0.5,200)[:,np.newaxis]#生成随机值噪音,维度为和x_data一样noise=np.random.normal(0,0.02,
追枫萨
·
2019-05-22 18:10
Tensorflow
Tensorflow-
简单计算
深度学习框架Tensorflow学习与应用importtensorflowastf#创建一个常量op,一行两列m1=tf.constant([[3,3]])#创建一个常量op,两行一列m2=tf.constant([[2],[3]])#创建一个矩阵乘法op,把m1和m2传入product=tf.matmul(m1,m2)#定义一个会话,启动默认图withtf.Session()assess:#调用
追枫萨
·
2019-05-22 18:44
Tensorflow
Tensorflow
[深度学习笔记]
TensorFlow-
操作
导入tensorflow:importtensorflowastf创建两个常量op:m1=tf.constant([[3,3]])m2=tf.constant([[2],[3]])创建一个矩阵乘法op,把m1和m2传入:product=tf.matmul(m1,m2)print(product)打印product结果如下:Tensor("MatMul:0",shape=(1,1),dtype=in
刘玉刚
·
2019-04-09 21:28
3.深度学习与算法笔记
[深度学习笔记]
TensorFlow-
术语解释
1.TensorFlow特点使用图(graphs)来表示计算任务在被称之为会话(Session)的上下文(context)中执行图使用张量(tensor)表示数据通过变量(Variable)维护状态使用feed和fetch可以为任意的操作赋值或者从其中获取数据2.TensorFlow结构Tensorflow是一个编程系统,Tensorflow结构如下图所示:图中使用图(graphs)来表示计算任务
刘玉刚
·
2019-04-09 21:03
3.深度学习与算法笔记
TensorFlow-
深度学习-13-LSTM递归神经网络
提到LSTM,我们就应该想到RNN,LSTM是RNN的一种改进,是RNN的变种。比如前几篇文章中讲的Mnist数据集分类,都是一张图片一张图片的输入,然后进行分类,这仅仅是对于图像来说,那么,对于语音或一串文字来说怎么做?这个就需要网络具有记忆的功能,RNN和LSTM都有这种功能。如果需要对语音或文字进行处理,就需要把网络看成是一个连续的整体,我们可以对网络加上一个反馈回路,如下图等号左边的图:这
风极_陨
·
2019-04-07 15:09
Tensorflow
TensorFlow-
深度学习-13-LSTM递归神经网络
提到LSTM,我们就应该想到RNN,LSTM是RNN的一种改进,是RNN的变种。比如前几篇文章中讲的Mnist数据集分类,都是一张图片一张图片的输入,然后进行分类,这仅仅是对于图像来说,那么,对于语音或一串文字来说怎么做?这个就需要网络具有记忆的功能,RNN和LSTM都有这种功能。如果需要对语音或文字进行处理,就需要把网络看成是一个连续的整体,我们可以对网络加上一个反馈回路,如下图等号左边的图:这
风极_陨
·
2019-04-07 15:09
Tensorflow
win10环境下编译tensorflow c++接口(cpu版本)
介绍一下编译时使用的环境:python3.5,tensorflow-r1.9,vs2015,cuda9.0,cudnn7.1.4(因为编译的是cpu版本,所以实际上cuda和cudnn这里不需要)3、编译目录
tensorflow
haoshengup
·
2019-03-28 12:10
TensorFlow-
深度学习-12-训练模型保存与使用
有这么一种情况,如果说我训练了一个数据集,效果还不错,但总不能每次都要经过一次训练在拿来用吧,一次训练能达到上万次,对于普通电脑来说根本不可能训练,所以我们要把它保存成一个模型文件(检查点),用到的时候直接拿来用就好了。保存模型文件很简单,只需要用下面2句话就行了:saver=tf.train.Saver()saver.save(sess,save_path="checkpoint_model/"
风极_陨
·
2019-03-24 16:41
Tensorflow
TensorFlow-
深度学习-12-训练模型保存与使用
有这么一种情况,如果说我训练了一个数据集,效果还不错,但总不能每次都要经过一次训练在拿来用吧,一次训练能达到上万次,对于普通电脑来说根本不可能训练,所以我们要把它保存成一个模型文件(检查点),用到的时候直接拿来用就好了。保存模型文件很简单,只需要用下面2句话就行了:saver=tf.train.Saver()saver.save(sess,save_path="checkpoint_model/"
风极_陨
·
2019-03-24 16:41
Tensorflow
TensorFlow-
深度学习-11-卷积神经网络(CNN)
我们在计算机中所看到的图像,在计算机中表示为一个个矩阵,一串串数字。在神经网络中,我们需要将这些数据在输入端reshape成一个1行n列的数组。通常我们使用的图片不会太小,否则特征点很容易丢失,可即便是一张28*28的图像(mnist手写数据集),在输入层也有784个神经元,更何况一个数据集少则几百张图片,多则上万张图片,这对于简单的神经网络来说压力很大,而且计算量复杂,运行速度慢,效率低下。而卷
风极_陨
·
2019-03-24 15:31
Tensorflow
TensorFlow-
深度学习-11-卷积神经网络(CNN)
我们在计算机中所看到的图像,在计算机中表示为一个个矩阵,一串串数字。在神经网络中,我们需要将这些数据在输入端reshape成一个1行n列的数组。通常我们使用的图片不会太小,否则特征点很容易丢失,可即便是一张28*28的图像(mnist手写数据集),在输入层也有784个神经元,更何况一个数据集少则几百张图片,多则上万张图片,这对于简单的神经网络来说压力很大,而且计算量复杂,运行速度慢,效率低下。而卷
风极_陨
·
2019-03-24 15:31
Tensorflow
Tensorflow-
模型的保存、恢复以及fine-tune
最近在做的本科毕设需要对迁移过来的ConvNet进行在线fine-tune,由于之前在学习Tensorflow时对模型的保存恢复学习的不够深入,所以今天花了一个下午看了几篇文章,觉得有的写的很不错,就搬运过来。在最后有自己的总结。参考原文:https://zhuanlan.zhihu.com/p/53814653使用tensorflow的过程中,我们常常会用到训练好的模型。我们可以直接使用训练好的
ZerinHwang03
·
2019-03-22 17:34
Tensorflow
Tensorflow
TensorFlow-
深度学习-10-DropOut与多层神经网络
对于简单的3层人工神经网络,常用的激活函数很容易达到饱和度,比如sigmod,因为它很容易达到一个饱和度,导致整个训练终止。我之前在三层人工神经网络上加了一层,变成4层,然后进行训练,但是发现,训练的结果并没有什么变化,这是因为4层人工神经网络可能已经存在了过拟合的现象。其实经过大量研究人员的研究发现,三层神经网络其实已经能够满足比较大的数据量的训练,再增加其实已经没有什么意义了。所以要增加隐藏层
风极_陨
·
2019-03-22 16:04
Tensorflow
TensorFlow-
深度学习-10-DropOut与多层神经网络
对于简单的3层人工神经网络,常用的激活函数很容易达到饱和度,比如sigmod,因为它很容易达到一个饱和度,导致整个训练终止。我之前在三层人工神经网络上加了一层,变成4层,然后进行训练,但是发现,训练的结果并没有什么变化,这是因为4层人工神经网络可能已经存在了过拟合的现象。其实经过大量研究人员的研究发现,三层神经网络其实已经能够满足比较大的数据量的训练,再增加其实已经没有什么意义了。所以要增加隐藏层
风极_陨
·
2019-03-22 16:04
Tensorflow
TensorFlow-
深度学习-08-人工神经网络(ANN)-多层感知器(MLP)
本文与
TensorFlow-
深度学习-03-梯度下降(反向传播–BP)其实没有什么差别,主要差别在于使用了softmax函数进行梯度下降求解。
风极_陨
·
2019-03-21 20:19
Tensorflow
TensorFlow-
深度学习-08-人工神经网络(ANN)-多层感知器(MLP)
本文与
TensorFlow-
深度学习-03-梯度下降(反向传播–BP)其实没有什么差别,主要差别在于使用了softmax函数进行梯度下降求解。
风极_陨
·
2019-03-21 20:19
Tensorflow
TensorFlow-
深度学习-07-基于逻辑回归预测二元分类
现在我这里有一份数据集,数据量很少,只有不到200行,里面有0和1的标签,很适合做二分类,数据集如下:LOW,AGE,LWT,RACE,SMOKE,PTL,HT,UI,BWT1,28,113,1,1,1,0,1,7091,29,130,0,0,0,0,1,10211,34,187,1,1,0,1,0,11351,25,105,1,0,1,1,0,13301,25,85,1,0,0,0,1,1474
风极_陨
·
2019-03-20 21:39
Tensorflow
TensorFlow-
深度学习-07-基于逻辑回归预测二元分类
现在我这里有一份数据集,数据量很少,只有不到200行,里面有0和1的标签,很适合做二分类,数据集如下:LOW,AGE,LWT,RACE,SMOKE,PTL,HT,UI,BWT1,28,113,1,1,1,0,1,7091,29,130,0,0,0,0,1,10211,34,187,1,1,0,1,0,11351,25,105,1,0,1,1,0,13301,25,85,1,0,0,0,1,1474
风极_陨
·
2019-03-20 21:39
Tensorflow
TensorFlow-
深度学习-09-激活与损失函数
我认为这篇文章写得不错:https://blog.csdn.net/qq_18603599/article/details/80595905一、激活函数1、常见激活函数:【1】图像:上图的这个函数很明显就能看出来很适合做二分类问题,1代表一类,0代表另一类,没什么好解释的。【2】图像:这个函数比较常见,从上图中可以看到,当样本数据被归纳到1和-1以外的区间时,函数梯度开始变得平缓,这时学习率不管怎
风极_陨
·
2019-03-20 20:25
Tensorflow
TensorFlow-
深度学习-09-激活与损失函数
我认为这篇文章写得不错:https://blog.csdn.net/qq_18603599/article/details/80595905一、激活函数1、常见激活函数:【1】图像:上图的这个函数很明显就能看出来很适合做二分类问题,1代表一类,0代表另一类,没什么好解释的。【2】图像:这个函数比较常见,从上图中可以看到,当样本数据被归纳到1和-1以外的区间时,函数梯度开始变得平缓,这时学习率不管怎
风极_陨
·
2019-03-20 20:25
Tensorflow
TensorFlow-
深度学习-06-梯度下降求解简单的逻辑回归
上图是一个mnist手写数据集,如果想要它通过训练被识别出来,需要选定一个模型,用简单的线性模型肯定是走不通的,事实上,现在大部分的数据集都不可能达到一种线性拟合状态,除非是人为自己定义的。所以,这里引出分类的概念,线性模型只有一种情况,当我们有多种结果产生(0,1,2…)时,就需要用到分类了,本节主要记录了使用梯度下降求解逻辑回归的案例。首先谈谈softmax这个函数(激活函数):Softmax
风极_陨
·
2019-03-20 16:42
Tensorflow
tensorflow-
多计算图多session
#!/usr/bin/envpython2#-*-coding:utf-8-*-"""CreatedonThuSep610:16:372018"""importtensorflowastfg1=tf.Graph()g2=tf.Graph()withg1.as_default():withtf.name_scope("Scope_A"):asub=tf.subtract(1,2,name="A_su
AI_LX
·
2019-03-20 11:21
AI
TensorFlow-
深度学习-05-计算图
什么是计算图?基于TensorFlow这个编程系统中的每一个计算都是计算图上的一个节点,而节点与节点之间的连线则代表计算之间的依赖关系。以一个最简化的计算图来说明:上图中,a,b代表一个节点,add也是一个节点,只是它参与了计算的工作。而这个简单的运算,我们需要在一个图中运行,而要想使用这张图,我们就要用到熟悉的sess.run()会话操作来运行。参考:https://www.jianshu.co
风极_陨
·
2019-03-18 21:09
Tensorflow
TensorFlow-
深度学习-05-计算图
什么是计算图?基于TensorFlow这个编程系统中的每一个计算都是计算图上的一个节点,而节点与节点之间的连线则代表计算之间的依赖关系。以一个最简化的计算图来说明:上图中,a,b代表一个节点,add也是一个节点,只是它参与了计算的工作。而这个简单的运算,我们需要在一个图中运行,而要想使用这张图,我们就要用到熟悉的sess.run()会话操作来运行。参考:https://www.jianshu.co
风极_陨
·
2019-03-18 21:09
Tensorflow
TensorFlow-
深度学习-04-梯度下降求解线性回归
线性回归,说白了就是求一条线性方程,能够最大限度的把坐标图上的每个点包括到,或者让这些点能够更加接近这条直线,本节将使用梯度下降的方法求这条解线性方程。有数据集的朋友可以使用pandas读取数据,这里我就不读取数据集了,有关于数据集的读取参考:机器学习——Pandas库1、读取数据集因为我这里没有数据集读取,所以自定义了100组数据(x,y)。'''-----------------造数据----
风极_陨
·
2019-03-18 18:52
Tensorflow
TensorFlow-
深度学习-03-梯度下降(反向传播--BP)
反向传播(BP)算法:稍微明白神经网络是怎么回事的朋友都知道,神经网络分为三大层,输入层(input)、隐藏层(hidden)、输出层(output)。BP反向传播算法也就是多了上图中的红色箭头而已,这是一种简单的人工神经网络,当我们预测的值与真实值之间的差异较大时,我们就把这种差异附加到输入层与隐藏层之间的权重W和偏执项b上,通过每次更新W和b,产生不同的预测值,当预测值与真实值非常接近时,我们
风极_陨
·
2019-03-18 14:04
Tensorflow
TensorFlow-
深度学习-03-梯度下降(反向传播--BP)
反向传播(BP)算法:稍微明白神经网络是怎么回事的朋友都知道,神经网络分为三大层,输入层(input)、隐藏层(hidden)、输出层(output)。BP反向传播算法也就是多了上图中的红色箭头而已,这是一种简单的人工神经网络,当我们预测的值与真实值之间的差异较大时,我们就把这种差异附加到输入层与隐藏层之间的权重W和偏执项b上,通过每次更新W和b,产生不同的预测值,当预测值与真实值非常接近时,我们
风极_陨
·
2019-03-18 14:04
Tensorflow
TensorFlow-
深度学习-02-Feed与Fetch
Feed:feed_dict={x:[[1,2],[3,4]],y:[[5],[6]]}上面的feed_dict的作用是什么?在机器学习中,经常听别人说到要把数据给喂进去。怎么喂进去,这就要使用feed_dict={x:input_x,y:input_y}把数据喂进去,喂进去的数据可以是矩阵,可以是数组,也可以是常数。Fetch:x_result,y_result=sess.run([x,y])F
风极_陨
·
2019-03-17 13:07
Tensorflow
TensorFlow-
深度学习-02-Feed与Fetch
Feed:feed_dict={x:[[1,2],[3,4]],y:[[5],[6]]}上面的feed_dict的作用是什么?在机器学习中,经常听别人说到要把数据给喂进去。怎么喂进去,这就要使用feed_dict={x:input_x,y:input_y}把数据喂进去,喂进去的数据可以是矩阵,可以是数组,也可以是常数。Fetch:x_result,y_result=sess.run([x,y])F
风极_陨
·
2019-03-17 13:07
Feed
Fetch
Tensorflow
Tensorflow
TensorFlow-
深度学习-01-常量,变量,操作数与占位符
关于Tensorflow的安装与具体教程可以参考官方中文网:Tensorflow中文社区关于tensorflow的计算方式,如下图所示:tensorflow计算的图形化表示如下图:上图中右图的Tensor或Varible表示张量或变量,它们通过一个op(operation,操作)进行计算,得出的结果也是一个常量或变量,然后又与一组变量通过一个op进行计算,得到最终结果。右侧的图也是一样,比如W=2
风极_陨
·
2019-03-16 20:50
Tensorflow
上一页
1
2
3
4
5
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他