E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
莫烦tensorflow学习
tensorflow学习
笔记(北京大学) tf3_1.py 完全解析
#coding:utf-8#
tensorflow学习
笔记(北京大学)tf3_1.py完全解析#QQ群:476842922importtensorflowastf#引入模块a=tf.constant([1.0,2.0
weixin_33595571
·
2020-06-28 03:12
代码
Tensorflow学习
-数据读取
Tensorflow数据读取方式主要包括以下三种Preloadeddata:预加载数据Feeding:通过Python代码读取或者产生数据,然后给后端Readingfromfile:通过TensorFlow队列机制,从文件中直接读取数据前两种方法比较基础而且容易理解,在Tensorflow入门教程、书本中经常可以见到,这里不再进行介绍。在介绍Tensorflow第三种读取数据方法之前,介绍以下有关
weixin_30502157
·
2020-06-27 20:23
tensorflow学习
之Saver保存读取
目前不是很懂。。但主要意思是tf可以把一开始定义的参数,包括Weights和Biases保存到本地,然后再定义一个变量框架去加载(restore)这个参数,作为变量本身的参数进行后续的训练,具体如下:importnumpyasnp#SavetofileW=tf.Variable([[1,2,3],[3,4,5]],dtype=tf.float32,name='weights')b=tf.Varia
weixin_30446197
·
2020-06-27 19:15
tf.Variable、tf.get_variable、tf.variable_scope、tf.name_scope、random、initializer
转自:
tensorflow学习
笔记(二十三):variable与get_variableTF.VARIABLE、TF.GET_VARIABLE、TF.VARIABLE_SCOPE以及TF.NAME_SCOPE
weixin_30429201
·
2020-06-27 19:09
Tensorflow学习
:(一)tensorflow框架基本概念
一、Tensorflow基本概念1、使用图(graphs)来表示计算任务,用于搭建神经网络的计算过程,但其只搭建网络,不计算2、在被称之为会话(Session)的上下文(context)中执行图3、使用张量(tensor)表示数据,用“阶”表示张量的维度。关于这一点需要展开一下0阶张量称为标量,表示单独的一个数1阶张量称为向量,表示一个一维数组2阶张量称为矩阵,表示一个二维数组……张量是几阶的可以
weixin_30344131
·
2020-06-27 18:43
tensorflow学习
笔记——使用TensorFlow操作MNIST数据(1)
续集请点击我:
tensorflow学习
笔记——使用TensorFlow操作MNIST数据(2)本节开始学习使用tensorflow教程,当然从最简单的MNIST开始。
叛逆的鲁鲁修love CC
·
2020-06-27 15:47
Tensorflow学习
系列(二): tensorflow基础
如需转载,请注明出处,欢迎加入深度学习群255568483Graphbasics由nodes(结点)和Edges(边缘)组成。用一个简单的例子来讲解:数据从左到右,请参见箭头的方向1.在开始的时候,有两个值5和3,他们可能来自其它的Graph或者从文件中或者是用户直接输入的。2.这两个初始化的值被传到input结点,在graph中被标记为a和b,a被传给了结点c和d,b也执行相同的操作。3.结点c
vs412237401
·
2020-06-27 11:01
深度学习
Tensorflow学习
系列(一): tensorflow解决问题的思路
如需转载,请注明出处,欢迎加入深度学习群255568483Tensorflow的介绍请各位自行google,就不做多的介绍了。Tensorflow是一个深度学习框架,他和机器学习一样,有其固定的解决问题的方式。其训练过程有固定的模式,一般如下:1.初始化模型参数2.输入训练数据3.在训练数据上验证模型4.计算损失5.调整模型参数重复第2步操作。解释:1.在第一次运行的时候,初始化模型参数。通常我们
vs412237401
·
2020-06-27 11:01
深度学习
Tensorflow学习
系列(三): tensorflow mnist数据集如何跑出99+的准确率
如需转载,请注明出处,欢迎加入深度学习群255568483mnist数据集基本上可以算做是数据科学里的helloworld程序。tensorflow官方文档有一个例子可以对mnist数据集做分析,对于刚入门者,可以通过简单的模型达到92%的准确率。以下代码分析是对应所做的分析,请看对应的中文注释#!/usr/bin/envpython#encoding:utf-8#文件说明:#原始参考URL:#功
vs412237401
·
2020-06-27 11:01
深度学习
PyTorch笔记5-save和load神经网络
本系列笔记为
莫烦
PyTorch视频教程笔记github源码概要用PyTorch训练好神经网络(NN)后,如何保存以便下次要用的时候直接提取使用即可,下面举栗importtorchfromtorch.autogradimportVariableimporttorch.nn.functionalasF
YJH-666
·
2020-06-27 09:13
深度学习
PyTorch
TensorFlow学习
笔记之——常用函数(概览)
本文章内容比较繁杂,主要是一些比较常用的函数的用法,结合了网上的资料和源码,还有我自己写的示例代码。建议照着目录来看。1.矩阵操作1.1矩阵生成这部分主要将如何生成矩阵,包括全0矩阵,全1矩阵,随机数矩阵,常数矩阵等tf.ones|tf.zerostf.ones(shape,type=tf.float32,name=None)tf.zeros([2,3],int32)用法类似,都是产生尺寸为sha
-麦_子-
·
2020-06-27 08:54
TensorFlow
TensorFlow学习
一:源码安装
获取源码在安装目录下运行:gitclone--recurse-submoduleshttps://github.com/tensorflow/tensorflow其中–recurse-submodules参数是必须的,用于获取TesorFlow依赖的protobuf库.安装Bazel首先依照教程安装Bazel的依赖.sudoapt-getinstallpkg-configzipg++zlib1g-
持久决心
·
2020-06-27 07:07
TensorFlow
TensorFlow学习
:卷积层conv2d参数
卷积层参数解释tf.nn.conv2d(input,filter,strides,padding,use_cudnn_on_gpu=bool,data_format,name=None)input:指定需要做卷积的输入图像,输入要求为一个4维的Tensor,要求输入类型为float32或者float64。输入的shape为[batch,in_height,in_width,in_channels]
wyw66
·
2020-06-27 07:43
深度学习
tensorflow学习
之dynamic_rnn使用详解
tf.nn.dynamic_rnn使用指定的RNNCell单元创建一个循环神经网络,对输入执行完全动态展开。tf.nn.dynamic_rnn( cell, inputs, sequence_length=None, initial_state=None, dtype=None, parallel_iterations=None, swap_memory=False,
大雄没有叮当猫
·
2020-06-27 06:06
tensorflow
深度学习
tensorflow学习
之softmax使用详解
1.什么是SoftmaxSoftmax在机器学习和深度学习中有着非常广泛的应用。尤其在处理多分类(C>2)问题,分类器最后的输出单元需要Softmax函数进行数值处理。关于Softmax函数的定义如下所示:其中,Vi是分类器类别的输出。i表示类别索引,总的类别个数为C。Si表示的是当前元素的指数与所有元素指数和的比值。Softmax将多分类的输出数值转化为相对概率,更容易理解和比较。我们来看下面这
大雄没有叮当猫
·
2020-06-27 06:06
深度学习
机器学习
tensorflow
tensorflow学习
笔记--深度学习中的epochs,batch_size,iterations详解
深度学习框架中涉及很多参数,如果一些基本的参数如果不了解,那么你去看任何一个深度学习框架是都会觉得很困难,下面介绍几个新手常问的几个参数。batch深度学习的优化算法,说白了就是梯度下降。每次的参数更新有两种方式。第一种,遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。这种方法每更新一次参数都要把数据集里的所有样本都看一遍,计算量开销大,计算速度慢,不支持在线学习,这称为Bat
STHSF
·
2020-06-27 05:31
深度学习
Tensorflow修炼手册
pytorch笔记-batch
在学习
莫烦
大神的pytorch视频的batch部分,由于pytorch版本更新,产生了一些不兼容的情况。
1234567890g
·
2020-06-27 05:58
tensorflow学习
笔记(三十六):learning rate decay
learningratedecay在训练神经网络的时候,通常在训练刚开始的时候使用较大的learningrate,随着训练的进行,我们会慢慢的减小learningrate。对于这种常用的训练策略,tensorflow也提供了相应的API让我们可以更简单的将这个方法应用到我们训练网络的过程中。接口tf.train.exponential_decay(learning_rate,global_step
ke1th
·
2020-06-27 03:11
tensorflow
tensorflow学习笔记
tensorflow学习
笔记(四十五):sess.run(tf.global_variables_initializer()) 做了什么?
当我们训练自己的神经网络的时候,无一例外的就是都会加上一句sess.run(tf.global_variables_initializer()),这行代码的官方解释是初始化模型的参数。那么,它到底做了些什么?一步步看源代码:(代码在后面)global_variables_initializer返回一个用来初始化计算图中所有globalvariable的op。这个op到底是啥,还不清楚。函数中调用了
ke1th
·
2020-06-27 03:11
tensorflow
tensorflow学习笔记
tensorflow学习
笔记(三十五):control flow
tf.cond(pred,fn1,fn2,name=None)等价于:res=fn1()ifpredelsefn2()注意:pred不能是pythonbool,pred是个标量Tensori.e.tf.placeholder(dtype=tf.bool,shape=[])官网例子z=tf.mul(a,b)result=tf.cond(x
ke1th
·
2020-06-27 03:11
tensorflow
tensorflow学习笔记
tensorflow学习
笔记(三十九) : 双向rnn (BiRNN)
双向RNN实际上仅仅是两个独立的RNN放在一起,本博文将介绍如何在tensorflow中实现双向rnn单层双向rnn单层双向rnn(cs224d)tensorflow中已经提供了双向rnn的接口,它就是tf.nn.bidirectional_dynamic_rnn().我们先来看一下这个接口怎么用.bidirectional_dynamic_rnn(cell_fw,#前向rnncellcell_b
ke1th
·
2020-06-27 03:11
tensorflow
tensorflow学习笔记
tensorflow学习
笔记(六):LSTM 与 GRU
[10.26.2016更新][新增内容:今天写代码的时候,如果使用state_is_tuple=True,那么initial_state=lstm_cell.zero_state(batch_size,dtype=tf.float32)...withtf.Session()assess:tf.initialize_all_variables().run()state=initial_state.e
ke1th
·
2020-06-27 03:10
tensorflow
tensorflow学习笔记
tensorflow学习
笔记(二十八):collection
tensorflowcollectiontensorflow的collection提供一个全局的存储机制,不会受到变量名生存空间的影响。一处保存,到处可取。接口介绍#向collection中存数据tf.Graph.add_to_collection(name,value)#Storesvalueinthecollectionwiththegivenname.#Notethatcollections
ke1th
·
2020-06-27 03:40
tensorflow
tensorflow学习笔记
tensorflow学习
笔记(二十五):ConfigProto&GPU
tensorflowConfigPrototf.ConfigProto一般用在创建session的时候。用来对session进行参数配置withtf.Session(config=tf.ConfigProto(...),...)#tf.ConfigProto()的参数log_device_placement=True:是否打印设备分配日志allow_soft_placement=True:如果你指
ke1th
·
2020-06-27 03:39
tensorflow
tensorflow学习笔记
tensorflow学习
笔记(二):tensor 变换
矩阵操作#对于2-D#所有的reduce_...,如果不加axis的话,都是对整个矩阵进行运算tf.reduce_sum(a,1)#对axis1tf.reduce_mean(a,0)#每列均值第二个参数是axis,如果为0的话,res[i]=∑ja[j,i]res[i]=∑ja[j,i]即(res[i]=∑a[:,i]res[i]=∑a[:,i]),如果是1的话,res[i]=∑ja[i,j]re
ke1th
·
2020-06-27 03:39
tensorflow
tensorflow学习笔记
tensorflow学习
笔记(二十):分布式注意事项
版本tensorflow0.11.0适用于between-graph&synchronous(1)一定要指定chieftask(2)chieftask要增加两个op:init_token_op=opt.get_init_tokens_op()chief_queue_runner=opt.get_chief_queue_runner()(3)chieftask要执行上面两个op:sv.start_q
ke1th
·
2020-06-27 03:39
tensorflow
分布式
tensorflow学习笔记
tensorflow学习
笔记(四):激活函数
tesorflow中的激活函数所有激活函数输入和输出的维度是一样的tf.nn.relu()tf.nn.sigmoid()tf.nn.tanh()tf.nn.elu()tf.nn.bias_add()tf.nn.crelu()tf.nn.relu6()tf.nn.softplus()tf.nn.softsign()tf.nn.dropout()tf.nn.relu_layer(x,weights,b
ke1th
·
2020-06-27 03:39
tensorflow
tensorflow学习笔记
tensorflow学习
笔记(十):sess.run()
session.run([fetch1,fetch2])关于session.run([fetch1,fetch2]),请看http://stackoverflow.com/questions/42407611/how-tensorflow-handle-the-computional-graph-when-executing-sess-run/42408368?noredirect=1#comme
ke1th
·
2020-06-27 03:39
tensorflow
tensorflow学习笔记
tensorflow学习
笔记(二十三):variable与get_variable
Variabletensorflow中有两个关于variable的op,tf.Variable()与tf.get_variable()下面介绍这两个的区别tf.Variable与tf.get_variable()tf.Variable(initial_value=None,trainable=True,collections=None,validate_shape=True,caching_dev
ke1th
·
2020-06-27 03:39
tensorflow
tensorflow学习笔记
【
tensorflow学习
】最简单的GAN 实现
1.GAN基本思想生成式对抗网络GAN(Generativeadversarialnetworks)是Goodfellow等在2014年提出的一种生成式模型。GAN的核心思想来源于博弈论的纳什均衡。它设定参与游戏双方分别为一个生成器(Generator)和一个判别器(Discriminator),生成器捕捉真实数据样本的潜在分布,并生成新的数据样本;判别器是一个二分类器,判别输入是真实数据还是生成
adrianna_xy
·
2020-06-27 03:20
tensorflow学习
机器学习
tensorflow学习
gan
tensorflow
tensorflow学习
笔记
tensorflow安装可以直接通过命令行或者源码安装,在此介绍tensorflow8命令行安装如下:安装tensorflow:sudopipinstall--upgradehttps://storage.googleapis.com/tensorflow/linux/gpu/tensorflow-0.8.0-cp27-none-linux_x86_64.whl另外,卸载tensorflow命令为
imperfect00
·
2020-06-27 02:21
tensorflow学习笔记
莫烦
Python 基础 Set&正则表达
我的视频学习笔记Setchar_list=['a','b','c','c','d','d','d']#通过set可以去除掉不同的东西sentence='WelcomeBacktoThisTutorial'print(set(char_list))#{'b','d','c','a'}print(type(set(char_list)))#print(type({1:2}))#print(set(se
为伊消得77
·
2020-06-27 01:40
代码小笔记
python
TensorFlow 实现多层 LSTM 的 MNIST 分类 + 可视化
LongShort-TermMemory,LSTM)能够很好地对时序数据进行建模,其的相关基础不进行介绍,需要了解可以参考以下文章:UnderstandingLSTMNetworksRNN快速入门YJango的循环神经网络——实现LSTM
莫烦
懒惰的gler
·
2020-06-26 23:21
TensorFlow学习
深度强化学习系列tensorflow2.0自定义loss函数实现policy gradient策略梯度
tensorflow2.0自定义loss函数实现policygradient策略梯度,自定义loss=-log(prob)*Vt现在训练最高分能到193分,但是还是不稳定,在修改中,欢迎一起探讨文章代码也有参考
莫烦
大佬的代码
tqtaylor
·
2020-06-26 20:27
Python中解决pip下载速度慢的正确姿势合集
参考过的博文:感谢博主@工控男感谢
莫烦
教程中关于matplotlib的安装教程正确姿势11:在下载包名前加上一些国内较大的镜像,抱住大腿加速这里module代表包的名字pipinstall-ihttps
topia_csdn
·
2020-06-26 20:47
python
镜像配置
tensorflow学习
-1
TensorFlow的基本概念1、使用图(graphs)来表示计算任务2、在被称之为会话(Session)的上下文(context)中执行图3、使用tensor表示数据4、通过变量(Variable)维护状态5、使用feed和fecth可以为任意的操作赋值或者从中获取数据6、Tensorflow是一个编程系统,使用图(graphs)来表示计算任务,图(graphs)中的节点称之为op(operat
Glücklichste
·
2020-06-26 15:02
Tensorflow学习
笔记(三)——用Tensorflow实现线性回归和逻辑回归
课程名称:CS20:TensorflowforDeepLearningResearch视频地址:https://www.bilibili.com/video/av15898988/index_4.html#page=3课程资源:http://web.stanford.edu/class/cs20si/index.html参考资料:https://zhuanlan.zhihu.com/p/28924
StarCoo
·
2020-06-26 14:53
Tensorflow
机器学习的训练算法(优化方法)汇总——梯度下降法及其改进算法
例如:1、侧重于语言编程和应用的廖雪峰https://www.liaoxuefeng.com/2、侧重于高大上算法和开源库介绍的
莫烦
https://morvanzhou.github.io/第二,加深对机器学习算法的理解
sqiu_11
·
2020-06-26 14:39
机器学习——优化算法
图像识别(一)
首先我们下载了关于keras的一些资料,并且找到了一篇
tensorflow学习
笔记,那么正好复习一下关于tensorflow的有关知识。
snailbuster
·
2020-06-26 13:27
tensorflow
莫烦
教我学tensorflow
1.TensorFlow是采用数据流图(dataflowgraphs)来计算,所以首先我们得创建一个数据流流图,然后再将我们的数据(数据以张量(tensor)的形式存在)放在数据流图中计算.节点(Nodes)在图中表示数学操作,图中的线(edges)则表示在节点间相互联系的多维数据数组,即张量(tensor).训练模型时tensor会不断的从数据流图中的一个节点flow到另一节点,这就是Tenso
小白一只an
·
2020-06-26 12:42
TensorFlow学习
之LSTM+CNN用于NLP文本分类(附源码及数据集)
一直想做一个多个网络融合的模型,最近学习了一个使用LSTM联合CNN用于单标签文本分类的项目,在这里做个笔记。侵删。原项目GitHub地址:https://github.com/NLPxiaoxu/Easy_Lstm_Cnn训练所用数据集:https://pan.baidu.com/s/1daGvDO4UBE5NVrcLaCGeqA提取码:9x3i数据集本项目的主题是单标签文本分类,具体来说是一个
鹿鸣Llane
·
2020-06-26 11:00
TensorFlow学习
之LSTM用于股票价格预测
LSTM用于股票价格预测笔记,侵删。原地址:https://blog.csdn.net/mylove0414/article/details/55805974GitHub地址:https://github.com/LouisScorpio/datamining/tree/master/tensorflow-program/rnn/stock_predict1.np.newaxisnp.newaxi
鹿鸣Llane
·
2020-06-26 11:00
LSTM
【深度学习】
Tensorflow学习
记录(一) softmax regression mnist训练
之前学了2个月的caffe,最近打算开始学TensorFlow,这里记录相关的学习、实践测试笔记。TensorFlow安装教程(局部安装conda方法):http://blog.csdn.net/bitcarmanlee/article/details/52749488入门笔记TensorFlow是由Google开发第二代(基于DistBelief)分布式的机器学习算法实现框架和部署系统,前端支持
修行的猫_zq
·
2020-06-26 10:00
深度学习
TensorFlow学习
日记40
1.tf.summary.scalar解析:一般在画loss、accuary时会用到这个函数。2.tf.summary.histogram解析:tf.summary.histogram(tags,values,collections=None,name=None),一般用来显示训练过程中变量的分布情况。3.tf.summary.distribution解析:一般用于显示weights分布。4.tf
1000sprites
·
2020-06-26 09:59
深度学习
TensorFlow学习
日记21
1.RecurrentNeuralNetwork(LSTM)解析:#-*-coding:utf-8-*-"""SimpleexampleusingLSTMrecurrentneuralnetworktoclassifyIMDBsentimentdataset."""from__future__importdivision,print_function,absolute_importimporttf
1000sprites
·
2020-06-26 09:59
深度学习
TensorFlow学习
日记39
1.global_step=tf.Variable(0,trainable=False)解析:tf.train.get_global_step()方法返回的是的global_step作为name的tensor。它表全局步数,比如在多少步该进行什么操作,现在神经网络训练到多少轮等,常用于滑动平均、优化器、指数衰减学习率等方面。说明:损失函数优化器的minimize()中global_step=glo
1000sprites
·
2020-06-26 09:59
深度学习
TensorFlow学习
日记38
1.启动tensorboard解析:tensorboard--logdir./data/autograph/2.Tensorflow自动微分机制解析:Tensorflow一般使用梯度磁带tf.GradientTape来记录正向运算过程,然后反播磁带自动得到梯度值。这种利用tf.GradientTape求微分的方法叫做Tensorflow的自动微分机制。3.tf.GradientTape()求二阶导
1000sprites
·
2020-06-26 09:27
深度学习
jupyter不能显示Matplotlib 动画
看
莫烦
老师的matplotlib教程中,有一段sinx函数动画,用Jupyter跑却不能显示动画效果。
sanra123
·
2020-06-26 07:43
Python
【
TensorFlow学习
笔记(三)】常用函数:卷积
卷积函数tf.nn.convolution用于计算N维卷积的和tf.nn.convolution(input,filter,padding,strides=None,dilation_rate=None,name=None,data_format=None)tf.nn.conv2d对四维的输入数据input和四维卷积核filter进行操作,然后对输入数据进行一个二维的卷积操作,最后得到卷积之后的结
roguesir
·
2020-06-26 06:55
Deep
Learning
【
TensorFlow学习
笔记(四)】常用函数:池化
更新时间:2019-07-09池化函数用于降维、提取有效特征,定义在:tensorflow/python/layers/pooling.py中,本篇博客整理了以下三个池化函数。tf.layers.max_pooling1d1D输入的最大池化层tf.layers.max_pooling1d(inputs,pool_size,strides,padding='valid',data_format='c
roguesir
·
2020-06-26 06:55
Deep
Learning
上一页
19
20
21
22
23
24
25
26
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他