E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
tensorflow学习笔记
LSTM中tf.nn.dynamic_rnn处理过程详解
在唐宇迪之
tensorflow学习笔记
项目实战(LSTM情感分析)一文中,链接地址如下https://blog.csdn.net/liushao123456789/article/details/78991581
酸辣螺丝粉
·
2020-06-30 17:11
自然语言处理
阅读QA论文中遇到的一些问题
批梯度下降算法...4二.随机梯度下降算法...62.Dropout详解:...73.交叉熵:::::...114.EM算法和LMS算法...17LMS算法:...17EM算法:...185.正则化:...39
tensorflow
zhaodongh
·
2020-06-30 14:09
Tensorflow学习笔记
(二):常量(tf.constant)与变量(tf.Varialbe)
1.生成tensor的一些方法1.1生成constant(常量)生成全0数组#语法:tf.zeros(shape,dtype,name)#样例:tf.zeros([2,3],int32)#==>[[0,0,0],[0,0,0]]生成一个与给定tensor类型、形状一致的常量,其所有元素为0#语法:tf.zeros_like(tensor,dtype,name)#样例a=tf.constant([[
Locutus
·
2020-06-30 08:24
Tensorflow
tensorflow学习笔记
十七:tensorflow官方文档学习 Vector Representations of Words
在本教程我们来看一下Mikolovetal中提到的word2vec模型。该模型是用于学习文字的向量表示,称之为“wordembedding”。亮点本教程意在展现出在TensorfLow中构建word2vec模型有趣、本质的部分。我们从我们为何需要使用向量表示文字开始。我们通过直观地例子观察模型背后的本质,以及它是如何训练的(通过一些数学方法评估)。同时我们也展示了TensorFlow对该模型的简单
xiaopihaierletian
·
2020-06-30 00:26
tensorflow
tensorflow学习笔记
tensorflow-计算图tensorflow-张量tensorflow-会话session()变量初始化tf提供了一种初始化所有变量的方法:`init_op=tf.global_variables_initializer()sess.run(init_op)tensorflow样例placeholder机制用于提供输入数据importtensorflowastfw1=tf.Variable(t
curryche
·
2020-06-29 18:49
深度学习笔记
TensorFlow
tensorflow学习笔记
(北京大学) tf4_7.py 完全解析 正则化
#coding:utf-8#0导入模块,生成模拟数据集#
tensorflow学习笔记
(北京大学)tf4_7.py完全解析正则化#QQ群:476842922(欢迎加群讨论学习)#如有错误还望留言指正,谢谢
weixin_33595571
·
2020-06-28 03:44
代码
tensorflow学习笔记
(北京大学) tf4_1.py 完全解析
#coding:utf-8#
tensorflow学习笔记
(北京大学)tf4_1.py完全解析#QQ群:476842922(欢迎加群讨论学习)#预测多或预测少的影响一样#0导入模块,生成数据集importtensorflowastfimportnumpyasnpBATCH_SIZE
weixin_33595571
·
2020-06-28 03:14
代码
tensorflow学习笔记
(北京大学) tf5_1minst_forward.py 完全解析 mnist数据集
#coding:utf-8#
tensorflow学习笔记
(北京大学)tf5_1minst_forward.py完全解析mnist数据集#QQ群:476842922(欢迎加群讨论学习importtensorflowastf
weixin_33595571
·
2020-06-28 03:14
代码
tensorflow学习笔记
(北京大学) tf4_4.py 完全解析
#coding:utf-8#
tensorflow学习笔记
(北京大学)tf4_4.py完全解析#QQ群:476842922(欢迎加群讨论学习)#设损失函数loss=(w+1)^2,令w初值是常数5。
weixin_33595571
·
2020-06-28 03:14
代码
tensorflow学习笔记
(北京大学) tf4_2.py 完全解析
#coding:utf-8#
tensorflow学习笔记
(北京大学)tf4_2.py完全解析#QQ群:476842922(欢迎加群讨论学习)#酸奶成本1元,酸奶利润9元#预测少了损失大,故不要预测少,故生成的模型会多预测一些
weixin_33595571
·
2020-06-28 03:14
代码
tf4_2.py
完全解析
tensorflow学习笔记
(北京大学) tf5_2minst_backward.py 完全解析 mnist数据集
#coding:utf-8#2反向传播过程#
tensorflow学习笔记
(北京大学)tf5_2minst_backward.py完全解析mnist数据集#QQ群:476842922(欢迎加群讨论学习#引入
weixin_33595571
·
2020-06-28 03:14
代码
tensorflow学习笔记
(北京大学) tf4_8_backward.py 完全解析
#coding:utf-8#
tensorflow学习笔记
(北京大学)tf4_8_backward.py完全解析#QQ群:476842922(欢迎加群讨论学习)#如有错误还望留言指正,谢谢#0导入模块,生成模拟数据集
weixin_33595571
·
2020-06-28 03:13
代码
tensorflow学习笔记
(北京大学) tf4_8_forward.py 完全解析
#coding:utf-8#
tensorflow学习笔记
(北京大学)tf4_8_forward.py完全解析#QQ群:476842922(欢迎加群讨论学习)#如有错误还望留言指正,谢谢#前向传播就是搭建网络
weixin_33595571
·
2020-06-28 03:13
代码
tensorflow学习笔记
(北京大学) tf4_5.py 完全解析 设损失函数 loss=(w+1)^2
#coding:utf-8#
tensorflow学习笔记
(北京大学)tf4_5.py完全解析神经网络搭建学习#QQ群:476842922(欢迎加群讨论学习)#设损失函数loss=(w+1)^2,令w初值是常数
weixin_33595571
·
2020-06-28 03:13
代码
tensorflow学习笔记
(北京大学) tf3_2.py 完全解析
#
tensorflow学习笔记
(北京大学)tf3_2.py完全解析#QQ群:476842922importtensorflowastf#引入模块x=tf.constant([[1.0,2.0]])#定义一个
weixin_33595571
·
2020-06-28 03:13
代码
tensorflow学习笔记
(北京大学) tf4_8_generateds.py 完全解析
#coding:utf-8#0导入模块,生成模拟数据集#
tensorflow学习笔记
(北京大学)tf4_8_generateds.py完全解析#QQ群:476842922(欢迎加群讨论学习)#如有错误还望留言指正
weixin_33595571
·
2020-06-28 03:13
代码
tensorflow学习笔记
(北京大学) tf4_6.py 完全解析 滑动平均
#coding:utf-8#
tensorflow学习笔记
(北京大学)tf4_6.py完全解析滑动平均#QQ群:476842922(欢迎加群讨论学习)#如有错误还望留言指正,谢谢?
weixin_33595571
·
2020-06-28 03:13
代码
#
tensorflow学习笔记
(北京大学) tf3_6.py 完全解析神经网络搭建学习(经典)
#
tensorflow学习笔记
(北京大学)tf3_6.py完全解析神经网络搭建学习#QQ群:476842922(欢迎加群讨论学习importtensorflowastfimportnumpyasnpBATCH_SIZE
weixin_33595571
·
2020-06-28 03:13
代码
tensorflow学习笔记
(北京大学) tf3_3.py 完全解析
#coding:utf-8#两层简单神经网络(全连接)#
tensorflow学习笔记
(北京大学)tf3_3.py完全解析#QQ群:476842922(欢迎加群讨论学习)importtensorflowastf
weixin_33595571
·
2020-06-28 03:13
代码
tensorflow学习笔记
(北京大学) tf3_1.py 完全解析
#coding:utf-8#
tensorflow学习笔记
(北京大学)tf3_1.py完全解析#QQ群:476842922importtensorflowastf#引入模块a=tf.constant([1.0,2.0
weixin_33595571
·
2020-06-28 03:12
代码
tf.Variable、tf.get_variable、tf.variable_scope、tf.name_scope、random、initializer
转自:
tensorflow学习笔记
(二十三):variable与get_variableTF.VARIABLE、TF.GET_VARIABLE、TF.VARIABLE_SCOPE以及TF.NAME_SCOPE
weixin_30429201
·
2020-06-27 19:09
tensorflow学习笔记
——使用TensorFlow操作MNIST数据(1)
续集请点击我:
tensorflow学习笔记
——使用TensorFlow操作MNIST数据(2)本节开始学习使用tensorflow教程,当然从最简单的MNIST开始。
叛逆的鲁鲁修love CC
·
2020-06-27 15:47
TensorFlow学习笔记
之——常用函数(概览)
本文章内容比较繁杂,主要是一些比较常用的函数的用法,结合了网上的资料和源码,还有我自己写的示例代码。建议照着目录来看。1.矩阵操作1.1矩阵生成这部分主要将如何生成矩阵,包括全0矩阵,全1矩阵,随机数矩阵,常数矩阵等tf.ones|tf.zerostf.ones(shape,type=tf.float32,name=None)tf.zeros([2,3],int32)用法类似,都是产生尺寸为sha
-麦_子-
·
2020-06-27 08:54
TensorFlow
tensorflow学习笔记
--深度学习中的epochs,batch_size,iterations详解
深度学习框架中涉及很多参数,如果一些基本的参数如果不了解,那么你去看任何一个深度学习框架是都会觉得很困难,下面介绍几个新手常问的几个参数。batch深度学习的优化算法,说白了就是梯度下降。每次的参数更新有两种方式。第一种,遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。这种方法每更新一次参数都要把数据集里的所有样本都看一遍,计算量开销大,计算速度慢,不支持在线学习,这称为Bat
STHSF
·
2020-06-27 05:31
深度学习
Tensorflow修炼手册
tensorflow学习笔记
(三十六):learning rate decay
learningratedecay在训练神经网络的时候,通常在训练刚开始的时候使用较大的learningrate,随着训练的进行,我们会慢慢的减小learningrate。对于这种常用的训练策略,tensorflow也提供了相应的API让我们可以更简单的将这个方法应用到我们训练网络的过程中。接口tf.train.exponential_decay(learning_rate,global_step
ke1th
·
2020-06-27 03:11
tensorflow
tensorflow学习笔记
tensorflow学习笔记
(四十五):sess.run(tf.global_variables_initializer()) 做了什么?
当我们训练自己的神经网络的时候,无一例外的就是都会加上一句sess.run(tf.global_variables_initializer()),这行代码的官方解释是初始化模型的参数。那么,它到底做了些什么?一步步看源代码:(代码在后面)global_variables_initializer返回一个用来初始化计算图中所有globalvariable的op。这个op到底是啥,还不清楚。函数中调用了
ke1th
·
2020-06-27 03:11
tensorflow
tensorflow学习笔记
tensorflow学习笔记
(三十五):control flow
tf.cond(pred,fn1,fn2,name=None)等价于:res=fn1()ifpredelsefn2()注意:pred不能是pythonbool,pred是个标量Tensori.e.tf.placeholder(dtype=tf.bool,shape=[])官网例子z=tf.mul(a,b)result=tf.cond(x
ke1th
·
2020-06-27 03:11
tensorflow
tensorflow学习笔记
tensorflow学习笔记
(三十九) : 双向rnn (BiRNN)
双向RNN实际上仅仅是两个独立的RNN放在一起,本博文将介绍如何在tensorflow中实现双向rnn单层双向rnn单层双向rnn(cs224d)tensorflow中已经提供了双向rnn的接口,它就是tf.nn.bidirectional_dynamic_rnn().我们先来看一下这个接口怎么用.bidirectional_dynamic_rnn(cell_fw,#前向rnncellcell_b
ke1th
·
2020-06-27 03:11
tensorflow
tensorflow学习笔记
tensorflow学习笔记
(六):LSTM 与 GRU
[10.26.2016更新][新增内容:今天写代码的时候,如果使用state_is_tuple=True,那么initial_state=lstm_cell.zero_state(batch_size,dtype=tf.float32)...withtf.Session()assess:tf.initialize_all_variables().run()state=initial_state.e
ke1th
·
2020-06-27 03:10
tensorflow
tensorflow学习笔记
tensorflow学习笔记
(二十八):collection
tensorflowcollectiontensorflow的collection提供一个全局的存储机制,不会受到变量名生存空间的影响。一处保存,到处可取。接口介绍#向collection中存数据tf.Graph.add_to_collection(name,value)#Storesvalueinthecollectionwiththegivenname.#Notethatcollections
ke1th
·
2020-06-27 03:40
tensorflow
tensorflow学习笔记
tensorflow学习笔记
(二十五):ConfigProto&GPU
tensorflowConfigPrototf.ConfigProto一般用在创建session的时候。用来对session进行参数配置withtf.Session(config=tf.ConfigProto(...),...)#tf.ConfigProto()的参数log_device_placement=True:是否打印设备分配日志allow_soft_placement=True:如果你指
ke1th
·
2020-06-27 03:39
tensorflow
tensorflow学习笔记
tensorflow学习笔记
(二):tensor 变换
矩阵操作#对于2-D#所有的reduce_...,如果不加axis的话,都是对整个矩阵进行运算tf.reduce_sum(a,1)#对axis1tf.reduce_mean(a,0)#每列均值第二个参数是axis,如果为0的话,res[i]=∑ja[j,i]res[i]=∑ja[j,i]即(res[i]=∑a[:,i]res[i]=∑a[:,i]),如果是1的话,res[i]=∑ja[i,j]re
ke1th
·
2020-06-27 03:39
tensorflow
tensorflow学习笔记
tensorflow学习笔记
(二十):分布式注意事项
版本tensorflow0.11.0适用于between-graph&synchronous(1)一定要指定chieftask(2)chieftask要增加两个op:init_token_op=opt.get_init_tokens_op()chief_queue_runner=opt.get_chief_queue_runner()(3)chieftask要执行上面两个op:sv.start_q
ke1th
·
2020-06-27 03:39
tensorflow
分布式
tensorflow学习笔记
tensorflow学习笔记
(四):激活函数
tesorflow中的激活函数所有激活函数输入和输出的维度是一样的tf.nn.relu()tf.nn.sigmoid()tf.nn.tanh()tf.nn.elu()tf.nn.bias_add()tf.nn.crelu()tf.nn.relu6()tf.nn.softplus()tf.nn.softsign()tf.nn.dropout()tf.nn.relu_layer(x,weights,b
ke1th
·
2020-06-27 03:39
tensorflow
tensorflow学习笔记
tensorflow学习笔记
(十):sess.run()
session.run([fetch1,fetch2])关于session.run([fetch1,fetch2]),请看http://stackoverflow.com/questions/42407611/how-tensorflow-handle-the-computional-graph-when-executing-sess-run/42408368?noredirect=1#comme
ke1th
·
2020-06-27 03:39
tensorflow
tensorflow学习笔记
tensorflow学习笔记
(二十三):variable与get_variable
Variabletensorflow中有两个关于variable的op,tf.Variable()与tf.get_variable()下面介绍这两个的区别tf.Variable与tf.get_variable()tf.Variable(initial_value=None,trainable=True,collections=None,validate_shape=True,caching_dev
ke1th
·
2020-06-27 03:39
tensorflow
tensorflow学习笔记
tensorflow学习笔记
tensorflow安装可以直接通过命令行或者源码安装,在此介绍tensorflow8命令行安装如下:安装tensorflow:sudopipinstall--upgradehttps://storage.googleapis.com/tensorflow/linux/gpu/tensorflow-0.8.0-cp27-none-linux_x86_64.whl另外,卸载tensorflow命令为
imperfect00
·
2020-06-27 02:21
tensorflow学习笔记
Tensorflow学习笔记
(三)——用Tensorflow实现线性回归和逻辑回归
课程名称:CS20:TensorflowforDeepLearningResearch视频地址:https://www.bilibili.com/video/av15898988/index_4.html#page=3课程资源:http://web.stanford.edu/class/cs20si/index.html参考资料:https://zhuanlan.zhihu.com/p/28924
StarCoo
·
2020-06-26 14:53
Tensorflow
图像识别(一)
首先我们下载了关于keras的一些资料,并且找到了一篇
tensorflow学习笔记
,那么正好复习一下关于tensorflow的有关知识。
snailbuster
·
2020-06-26 13:27
tensorflow
【
TensorFlow学习笔记
(三)】常用函数:卷积
卷积函数tf.nn.convolution用于计算N维卷积的和tf.nn.convolution(input,filter,padding,strides=None,dilation_rate=None,name=None,data_format=None)tf.nn.conv2d对四维的输入数据input和四维卷积核filter进行操作,然后对输入数据进行一个二维的卷积操作,最后得到卷积之后的结
roguesir
·
2020-06-26 06:55
Deep
Learning
【
TensorFlow学习笔记
(四)】常用函数:池化
更新时间:2019-07-09池化函数用于降维、提取有效特征,定义在:tensorflow/python/layers/pooling.py中,本篇博客整理了以下三个池化函数。tf.layers.max_pooling1d1D输入的最大池化层tf.layers.max_pooling1d(inputs,pool_size,strides,padding='valid',data_format='c
roguesir
·
2020-06-26 06:55
Deep
Learning
TensorFlow学习笔记
——LeNet-5(训练自己的数据集)
在之前的
TensorFlow学习笔记
——图像识别与卷积神经网络(链接:请点击我)中了解了一下经典的卷积神经网络模型LeNet模型。
小帅比就是我
·
2020-06-26 01:36
图解神经网络发展——
TensorFlow学习笔记
三
神经网络发展神经网络的发展历史(三起两落)机器学习的典型应用小结;神经网络的发展历史(三起两落)第一次兴起:1958年,人们把两层神经元首尾相接,组成单层神经网络,称做感知机。感知机成了首个可以学习的人工神经网络。引发了神经网络研究的第一次兴起。第一次寒冬:1969年,这个领域的权威学者Minsky用数学公式证明了只有单层神经网络的感知机无法对异或逻辑进行分类,Minsky还指出要想解决异或可分问
路拾遗37
·
2020-06-25 22:33
Tensorflow学习笔记
大学经验分享等
TensorFlow学习笔记
-feed与fetch
今天学习Feed与Feach。他要配合着占位符来使用!!!会话运行完成之后,如果我们想查看会话运行的结果,就需要使用fetch来实现,feed,fetch同样可以fetch单个或者多个值。TensorFlow中数据的feed与fetch一:占位符(placeholder)与feed当我们构建一个模型的时候,有时候我们需要在运行时候输入一些初始数据,这个时候定义模型数据输入在tensorflow中就
快乐成长吧
·
2020-06-25 13:13
Tensorflow
TensorFlow 学习笔记01 Anaconda TensorFlow 环境搭建
TensorFlow学习笔记
01AnacondaTensorFlow环境搭建1Anaconda创建环境1.1打开AnacondaPrompt1.2输入命令2Anaconda激活环境2.1MacOX/Linux2.2Windows3Anaconda
深色风信子
·
2020-06-25 08:00
人工智能
tensorflow学习笔记
:tf.control_dependencies,tf.GraphKeys.UPDATE_OPS,tf.get_collection
tf.control_dependencies(control_inputs):control_dependencies(control_inputs)ARGS:control_inputs:在运行上下文中定义的操作之前必须执行或计算的Operation列表或Tensor对象.也可以是不清除控件依赖项.返回:指定上下文中构建的所有操作的控制依赖关系的上下文管理器.这个上下文就是with里边的内容U
Rookiekk
·
2020-06-25 00:47
深度学习
tensorflow学习笔记
:tf.data.Dataset,from_tensor_slices(),shuffle(),batch()的用法
tf.data.Dataset.from_tensor_slices:它的作用是切分传入Tensor的第一个维度,生成相应的dataset。例1:dataset=tf.data.Dataset.from_tensor_slices(np.random.uniform(size=(5,2)))传入的数值是一个矩阵,它的形状为(5,2),tf.data.Dataset.from_tensor_slic
Rookiekk
·
2020-06-25 00:46
TensorFlow
keras
tensorflow之迁移学习利用自带keras训练MobileNetV2分类模型
文章目录欢迎关注WX公众号:【程序员管小亮】专栏——
TensorFlow学习笔记
一、数据处理1.1_下载数据集1.2_数据预处理1.3_数据增强1.4_数据可视化二、构建模型2.1_可视化模型2.2_设置训练参数
lien0906
·
2020-06-24 04:07
Tensorflow学习笔记
(3)
1、tf.ones(shape,type=tf.float32,name=None)tf.ones([2,3],int32)==>[[1,1,1],[1,1,1]]2、tf.zeros(shape,type=tf.float32,name=None)tf.zeros([2,3],int32)==>[[0,0,0],[0,0,0]]3、tf.ones_like(tensor,dype=None,na
lhanchao
·
2020-06-24 04:44
tensorflow学习笔记
(5)--- 神经网络参数与tensorflow变量
在tensorflow中,变量(tf.Variable)的作用是保存和更新神经网络中的参数。可在tensorflow中声明一个2*3,元素均值为0且标准差为2的矩阵变量(可通过mean参数指定平均值):weights=tf.Variable(tf.random_normal[2,3],stddev=2)在tensorflow中变量的初始值可以设置成随机数、常数或者是通过其他变量计算得到。在神经网络
labPqsdr
·
2020-06-24 02:39
机器学习
上一页
4
5
6
7
8
9
10
11
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他