E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Tensorflow学习
TensorFlow学习
笔记(五):tf.reshape用法
tf.reshape(tensor,shape,name=None)函数的作用是将tensor变换为参数shape的形式。其中shape为一个列表形式,特殊的一点是列表中可以存在-1。-1代表的含义是不用我们自己指定这一维的大小,函数会自动计算,但列表中只能存在一个-1。(当然如果存在多个-1,就是一个存在多解的方程了)好了我想说的重点还有一个就是根据shape如何变换矩阵。其实简单的想就是,re
沫尘雪痕
·
2020-07-15 12:08
TensorFlow
Conda 配置 TensorFlow-GPU 深度学习环境(10分钟)
而作为一个
TensorFlow学习
者,首当其冲的便是配置TensorFlow深度学习环境。
黑暗星球
·
2020-07-15 01:07
TensorFlow教程
TensorFlow学习
笔记(一)——Win10下安装与配置CPU运行的TensorFlow
由于课题需要,在下之后一阶段工作主要是使用深度网络来解决问题,拟使用TensorFlow来进行实验。由于在下对于TensorFlow完全只有小白级别的认识,因此决定一边学习一边记录,一方面便于分享共同进步,一方面请各位大牛帮忙指出在下认识上的错误。由于实验室分给在下的机器并没有很好地GPU,因此目前只安装了CPU版本的TensorFlow。1,安装Anaconda3(内含python3.5.2环境
赫萝的尾巴
·
2020-07-15 00:40
TensorFlow
TensorFlow学习
笔记2-Anaconda下安装matplotlib的方法
文章在下述博文的基础上删减:http://blog.csdn.net/abvedu/article/details/54731713安装好Anaconda后,在AnacondaPrompt下执行conda命令安装matplotlib包。执行命令是:condainstallmatplotlib安装完成之后,就可以在命令窗口或者AnacondaSpyder编程环境使用Matplotlib绘制数学图形。
你行你上天
·
2020-07-14 11:07
python
tensorflow
TensorFlow学习
Day3读取csv文件,动手写个logistic,softmax分类模型
上一篇讲到了logistic模型,今天用kaggle竞赛的数据集Titanic做一个小小的训练示范。数据集可以从官网下载:https://www.kaggle.com/c/titanic/data首先我们写一个读取文件的函数#读取文件defread_csv(batch_size,file_name,record_defaults):filename_queue=tf.train.string_in
SummerStoneS
·
2020-07-14 06:30
深度学习
机器学习
在ubuntu16.04下安装Anaconda配置TensorFlow-GPU+MNIST: Resource exhausted: OOM的问题解决
正好手上有台闲置的ubuntu机器和很贵的K40显卡,于是打算开始尝试ubuntu下用
tensorflow学习
神经网络的历程。
JohnieLi
·
2020-07-14 04:08
配置环境
pycharm
python
Tensorflow
简单记录Tensorflow中Graph和Session的关系
本篇博客转自以下博客:
Tensorflow学习
笔记2:AboutSession,Graph,OperationandTensorcs20si:tensorflowforresearch学习笔记1以下是正文
时光杂货店
·
2020-07-13 22:56
tensorflow
TensorFlow学习
记录:用简单卷积神经网络实现Cifar10数据集分类
使用TensorFlow搭建一个简单的卷积神经网络实现Cifar10数据集分类,这个神经网络模型包括两个卷积层,两个池化层,卷积操作后在后面加三个全连层,最后一个全连层用于输出分类。整个神经网络架构图如下:名词解释名字说明输入层输入层是整个神经网络的输入。在用于图像分类的卷积神经网络中,它一般代表的是一张图片的像素矩阵。根据通道数的不同,图片像素的矩阵也有着不同的深度数值,比如黑白图片只有一个通道
Barcelooooooooona
·
2020-07-13 19:52
深度学习
TensorFlow
tensorflow学习
笔记(三十八):损失函数加上正则项
tensorflowRegularizers在损失函数上加上正则项是防止过拟合的一个重要方法,下面介绍如何在TensorFlow中使用正则项.tensorflow中对参数使用正则项分为两步:1.创建一个正则方法(函数/对象)2.将这个正则方法(函数/对象),应用到参数上如何创建一个正则方法函数tf.contrib.layers.l1_regularizer(scale,scope=None)返回一
ke1th
·
2020-07-13 15:44
tensorflow
tensorflow学习笔记
TensorFlow_4正则化
TensorFlow学习
系列:TensorFlow_1参数初始化方法TensorFlow_2学习率TensorFlow_3激活函数TensorFlow_4正则化TensorFlow_5dropoutTensorFlow
业余狙击手19
·
2020-07-13 14:06
#
TensorFlow系列笔记
TensorFlow学习
笔记(二)ReLU、Softmax、Cross Entropy
ReLU是常用在隐藏层的激活函数,Softmax是常用在输出层的激活函数,CrossEntropyReLU数学公式:f(x)=max(x,0)当x小于0时,y=0,当x>=0时,y=x。Softmax数学公式:Softmax示例将任意一组输入,压缩为一组和为1的数。TensorFlow实现:x=tf.nn.softmax([1.2,0.9,0.4])CrossEnropyCrossentropyl
雪球行动唐晓阳
·
2020-07-13 07:33
TensorFlow学习
笔记(十)—— 实践项目总结
导语:本文是TensorFlow实现流行机器学习算法的教程汇集,目标是让读者可以轻松通过清晰简明的案例深入了解TensorFlow。这些案例适合那些想要实现一些TensorFlow案例的初学者。本教程包含还包含笔记和带有注解的代码。第一步:给TF新手的教程指南1:tf初学者需要明白的入门准备机器学习入门笔记:https://github.com/aymericdamien/TensorFlow-E
tiankong19999
·
2020-07-13 05:16
TensorFlow
TensorFlow
TensorFlow学习
笔记(8)----CNN分类CIFAR-10数据集
该文章是对TF中文手册的卷积神经网络和英文手册ConvolutionalNeuralNetworks部分所包含程序的解读,旨在展示CNN处理规模比较大的彩色图片数据集(分类问题)的完整程序模型,训练中使用交叉熵损失的同时也使用了L2范式的稀疏化约束,例子修改后就可以训练自己的数据。这篇博客按照程序工作的顺序,从cifar10_train.py开始,依次解读途径的每个重要函数,具体细节还需要自己阅读
海上的独木舟
·
2020-07-13 01:16
TensorFlow
TensorFlow学习
笔记2:构建CNN模型
深度学习模型TensorFlow很适合用来进行大规模的数值计算,其中也包括实现和训练深度神经网络模型。下面将介绍TensorFlow中模型的基本组成部分,同时将构建一个CNN模型来对MNIST数据集中的数字手写体进行识别。基本设置在我们构建模型之前,我们首先加载MNIST数据集,然后开启一个TensorFlow会话(session)。加载MNIST数据集TensorFlow中已经有相关脚本,来自动
zyh88的救赎
·
2020-07-12 21:59
深度学习
TensorFlow学习
系列之九:如何利用可视化数据流图TensorBoard?
一、背景人们在训练庞大而复杂的深度神经网络时,经常会出现难以理解的运算。而人类是有“视觉青睐”的,也就是说,人们通常对图片带来的信息更善于理解。为了迎合这一特性,也为了更方便理解、调试与优化程序,TensorFlow提供一个非常好用的可视化工具——TensorBoard,它能够可视化机器学习的流程,绘制图像生成的定量指标图以及附加数据。下面我们就以范例【11-1】这个简单的程序,来说明如何利用Te
玉来愈宏
·
2020-07-12 18:26
深度学习
TensorFlow
TensorFlow学习笔记
tensorflow学习
4:使用tensorboard可视化网络
采用tensorboard可视化我们的网络,主要就是利用withtf.name_scope("inputs"):进行命名,在每句要进行可视化的句子上加上这一句话,并在括号中写上对应的名字。在session中执行writer=tf.summary.FileWriter("D:/资料/code/tensorflow/log/",sess.graph)把图像进行写入。我们根据上一节搭建自己的神经网络来进
xiexu911
·
2020-07-12 17:31
TensorFlow
tensorflow学习
6:使用tensorflow mnist分类搭建卷积神经网络CNN
本次博客主要是是搭建自己的卷积神经网络,采用的数据集为常用的mnist手写数字数据集。第一步准备数据我们导入mnist数据集,因为在tf中已经准备好了这个数据集,我们只需要在import的时候插入一下就可以。如果在在对应的文件夹下有这个数据集就不会下载,如果没有那么就会默认下载这个文件夹。其中batchsize为每一次送入网络样本的个数。lr为训练的步长。importtensorflowastff
xiexu911
·
2020-07-12 17:00
TensorFlow
tensorflow学习
3:搭建自己的神经网络
这一节讲的主要是构造一个自己的神经网络。第一步我们要准备好对应的训练数据,np类型就可以。importtensorflowastfimportnumpyasnp#构造数据x_data=np.linspace(-1,1,300,dtype=np.float32)[:,np.newaxis]#在-1到1之间生成300个数据,noise=np.random.normal(0,0.05,x_data.sh
xiexu911
·
2020-07-12 17:00
TensorFlow
Tensorflow学习
笔记——建立全连接层
有两种较为方便的方法建立全连接层tf.layers.dense()tf.contrib.layers.fully_connected()Reference:https://blog.csdn.net/LiQingBB/article/details/83449842https://stackoverflow.com/questions/44912297/are-tf-layers-dense-an
Vic_Hao
·
2020-07-12 11:27
Tensorflow
TensorFlow学习
笔记(二)——最简单的前后传播算法
前言:不同的神经网络结构前向传播的方式也不一样,本章将介绍最简单的全连接网络结构的前向传播算法,并且将展示如何通过TensorFlow实现这个算法。一、前后传播算法简介为了介绍神经网络的前向传播算法,需要先了解神经元的结构。神经元是构成一个神经网络的最小单元,下图显示了一个最简单的神经元结构。从图中可以看出,一个神经元有多个输入和一个输出。每个神经元的输入既可以是其他神经元的输出,也可以是整个神经
行歌er
·
2020-07-12 11:57
tensorflow
tensorflow学习
笔记1:tf.Variable、tf.get_variable与tf.get_variable、tf.variable_scope对比总结
**0.浅谈tensorflow变量机制**tensorflow提供了通过变量名称来创建或者获取一个变量的机制。通过这个机制,在不同的函数中可以直接通过变量的名字来使用变量,而不需要将变量通过参数的形式到处传递,实现了变量共享。**1.对比tf.Variable与tf.get_variable**tf.Variable(initial_value=None,trainable=True,colle
码源
·
2020-07-12 11:46
机器学习
Tensorflow学习
笔记1-利用神经网络对Fashion MNIST数据集分类
这里写自定义目录标题引言1.颜色图像的数组表示2.将数组显示为图像3.FashionMNIST数据集4.模型训练、评估及预测5.完整代码引言最近尝试学习tensorflow框架,计划按照教程进行操作,理解机制及使用的重要函数。任务1是:训练首个神经网络:基本分类。这一部分是训练神经网络来对fashionminst的服饰图像进行分类,可以借此案例熟悉计算机图像处理的输入输出。1.颜色图像的数组表示为
cahndengbin
·
2020-07-12 10:32
Tensorflow学习
教程------代价函数
二次代价函数(quadraticcost):其中,C表示代价函数,x表示样本,y表示实际值,a表示输出值,n表示样本的总数。为简单起见,使用一个样本为例进行说明,此时二次代价函数为:假如我们使用梯度下降法(Gradientdescent)来调整权值参数的大小,权值w和偏置b的梯度推导如下:其中,z表示神经元的输入,σ表示激活函数。w和b的梯度跟激活函数的梯度成正比,激活函数的梯度越大,w和b的大小
weixin_30600503
·
2020-07-12 06:22
tensorflow学习
(2)关于fetch和feed
fetch:可以取多个操作节点的值importtensorflowastfinput1=tf.constant(7.0)input2=tf.constant(2.0)add=tf.add(input1,input2)mul=tf.multiply(add,input1)withtf.Session()assess:result=sess.run([add,mul])print(result)fee
wei_feng_tangtang
·
2020-07-12 05:19
tensorflow
TensorFlow学习
笔记
@tf.name_scope(name,default_name=None,values=None)定义命名空间(或定义域),可以嵌套使用,用于管理该命名空间下的东西,并用于sessiongraph的可视化@Tensorflow中的op:Opsaresaythecoreoftensorflow.TensorFlowisaprogrammingsysteminwhichyourepresentcom
himon980
·
2020-07-12 03:32
人工智能
TensorFlow
知识点梳理
TensorFlow
tensorflow学习
笔记——常用的代价函数
二次代价函数其中,C表示代价函数,x表示样本,y表示实际值,a表示对应的输出值,n代表样本总数。是激活函数这时,每一个样本的损失函数为:假如我们使用梯度下降法来调整权值参数的大小,权值w和偏置值b的梯度如下:可以看出,w和b的梯度根激活函数的梯度成正比,激活函数梯度越大,w和b的大小调整得越快,训练收敛得就越快。#二次代价函数loss=tf.reduce_mean(tf.square(y_data
红鱼鱼
·
2020-07-11 19:21
tensorflow
tensorflow学习
笔记9——从repeat到epoch再到Epoch, Batch, Iteration的关系
1、Epoch,Batch,Iteration的关系cifar10数据集有60000张图片作为训练数据,10000张图片作为测试数据。假设现在选择BatchSize=100对模型进行训练。那么:每个Epoch要训练的图片数量:60000(训练集上的所有图像)训练集具有的Batch个数:60000/100=600每个Epoch需要完成的Batch个数:600每个Epoch具有的Iteration个数
qq_40549606
·
2020-07-11 19:57
tensorflow
tensorflow学习
笔记 inferenceInterface.feed()
举例1:inferenceInterface.feed(inputName,floatValues,1,inputSize,inputSize,3);第一个参数是输入节点的名称,第二个参数floatValues是输入节点的值,定义的时候是一维float数组;inputSize,inputSize,3是输入节点的shape,floatValues数组的大小是inputSize*inputSize*3
qq_28808697
·
2020-07-11 16:42
tensorflow
【干货】史上最全的
Tensorflow学习
资源汇总
转自|磐创AI作者|AI小昕本篇文章将为大家总结Tensorflow纯干货学习资源,非常适合新手学习,建议大家收藏。一、Tensorflow教程资源:1)适合初学者的Tensorflow教程和代码示例:(https://github.com/aymericdamien/TensorFlow-Examples)该教程不光提供了一些经典的数据集,更是从实现最简单的“HelloWorld”开始,到机器学
数智物语
·
2020-07-11 16:36
TensorFlow 学习笔记 - 几种 LSTM 对比
TensorFlow学习
笔记-几种LSTM对比tf.nn.rnn_cell.BasicLSTMCelltf.nn.static_rnntf.nn.static_rnntf.nn.dynamic_rnntf.contrib.cudnn_rnntf.contrib.rnn.LSTMBlockCelltf.contrib.rnn.LSTMBlockFusedCelltf.contrib.rnn.Basi
David_Hernandez
·
2020-07-11 13:54
TensorFlow
学习笔记
TensorFlow
学习笔记
TensorFlow学习
笔记1.7:tf.zeros()
Createsatensorwithallelementssettozero.创建一个张量,所有元素都设为零。Thisoperationreturnsatensoroftypedtypewithshapeshapeandallelementssettozero.这个操作返回一个具有shape形状的dtype类型的张量,所有元素都设置为零。Forexample:tf.zeros([3,4],tf.i
HBU_DAVID
·
2020-07-11 13:26
Tensorflow学习
以及问题解决
问题:”’tensorboard’不是内部或外部命令,也不是可运行的程序或批处理文件”解决方法解决:tensorflow相对应版本要激活,不然python版本会默认原先Anaconda自带版本问题:AttributeError:‘module’objecthasnoattribute‘SummaryWriter’解决:tf.train.SummaryWriter改为:tf.summary.File
ll_sunsmile
·
2020-07-11 11:31
物体目标检测
TensorFlow学习
笔记7----Large-scale Linear Models with TensorFlow
原文教程:tensorflow官方教程记录关键内容与学习感受。未完待续。。Large-scaleLinearModelswithTensorFlow——tensorflow中,tf.learnAPI提供了大量可供线性模型工作的工具。这篇文档提供了关于这些工具的综述,它解释了:什么是线性模型为什么使用线性模型tf.learn如何帮助构建线性模型如何结合tf.learn和深度学习的线性模型的使用,以获
夏洛的网
·
2020-07-11 11:19
机器学习
tensorflow
深度学习
福利第二弹 | 寻找全中国使用TensorFlow的开发者和公司
几天前,我们推送了福利“Google赞助的
TensorFlow学习
班”,今天关于TensoFlow的福利又来了!使用TensorFlow技术进行开发的应用案例征集报名现在开始了!
谷歌开发者_
·
2020-07-11 09:20
TensorFlow学习
笔记1-Windows下通过Anaconda安装TensorFlow及Spyder编译器
此文是本人在windows安装tensorflow看到最准确最全的资料,贴在这里留存。同时,安装过程中还参考了这个博文:http://blog.csdn.net/ztf312/article/details/56018891另外,按照作者的方法安装后,需要在tensorflow环境下安装spyder插件,才可在spyder下使用tensorflow。打开anacondanavigator,在env
你行你上天
·
2020-07-11 07:12
python
TensorFlow学习
4:深度学习的知识点
神经网络基础1,神经元(Neuron)2,权重(Weights)3,偏差(Bias)4,激活函数(ActivationFunction)常用激活函数:Sigmoid,ReLU(整流线性单位),Softmax5,神经网络6,输入、输出、隐藏层7,MLP(多层感知器)8,正向传播(ForwordPropagation)9,成本函数(CostFunction)10,梯度下降(GradientDescen
崔业康
·
2020-07-11 07:09
tensorflow学习
-- 使用卷积神经网络进行对fashion-mnist数据集进行分类
#引入相关的包importtensorflowastfimportnumpyasnpfromtensorflowimportkeras#自定义one_hot编码defto_onehot(y,num):lables=np.zeros([num,len(y)])foriinrange(len(y)):lables[int(y[i]),i]=1returnlables.T#数据预处理mnist=kera
smart_hang
·
2020-07-11 07:59
人工智能
tensorflow
python
tensorflow
学习
TensorFlow学习
笔记[1]: TensorFlow安装及在Jupyter notebook中用Pythond代码并生成散列点图
TensorFlow学习
笔记[1]:TensorFlow安装及在Jupyternotebook中用Pythond代码并生成散列点图作者:雨水/家辉,日期:2016-10-15,CSDN博客:http:/
gobitan
·
2020-07-11 06:55
10.人工智能
(六)
TensorFlow学习
之旅——深入理解AlexNet
前言前面看了一些Tensorflow的文档和一些比较有意思的项目,发现这里面水很深的,需要多花时间好好从头了解下,尤其是cv这块的东西,特别感兴趣,接下来一段时间会开始深入了解ImageNet比赛中中获得好成绩的那些模型:AlexNet、GoogLeNet、VGG(对就是之前在nerualnetwork用的pretrained的model)、deepresidualnetworks。ImageNe
btbujhj
·
2020-07-11 03:24
Tensorflow
TensorFlow学习
笔记--第三节张量(tensor)及其定义方法
目录在TensorFlow中,所有的数据通过张量的形式来表示1张量及属性:1.1维数(阶)1.2形状1.3数据类型TensorFlow支持以下三种类型的张量:**1.常量****2.变量****3.占位符**:张量定义方法举例**张量阶次及对应形状(shape)**操作实例1:输出1-10操作实例2:计算1-100累计和传送门:在TensorFlow中,所有的数据通过张量的形式来表示1张量及属性:
TI__boyue
·
2020-07-11 00:13
TensorFlow
Tensorflow学习
:简单实现卷积神经网络(CNN)
#-*-coding:utf-8-*-"""CreatedonThuAug1716:24:552017Project:ConvolutionNeuralNetwork(withtwoconvolutionlayers,onefullconectionlayerandonesoftmaxlayer)E-mail:
[email protected]
:《Tensorflow
Eric2016_Lv
·
2020-07-10 21:47
Tensorflow
机器学习
算法
数据挖掘
TensorFlow学习
笔记(二)
文章目录激活函数损失函数学习率滑动平均正则化例题激活函数常用的激活函数有:relu、sigmoid、tanh等。损失函数常用的损失函数有均方误差、自定义、交叉熵等。学习率滑动平均正则化例题importtensorflowastfimportnumpyasnpimportmatplotlib.pyplotasplt%matplotlibinlineBATCH_SIZE=30seed=2rdm=np.
虐猫人薛定谔
·
2020-07-10 21:31
TensorFlow
Tensorflow学习
之手写数字识别
前言:很久没有更新了,主要是最近也有很多事情,一个人学习新知识总是有点坚持不下来,前面的知识也没能很好的理解,存在的问题比较多。调试比较难调,在虚拟机里面总是报“memoryerror”或者“已杀死”,但是重开一遍又没有了,在运行途中也总会出现这样的问题,让我很烦恼,只有自己一个人慢慢调。这几天也坚定了学习代码的心,后面的更新应该会更规律更频繁。本节内容其实是一小节,我觉得也很有必要整理一下,就单
一只呱呱呱啊
·
2020-07-10 21:17
tensorflow学习
笔记(三十四):Saver(保存与加载模型)
Savertensorflow中的Saver对象是用于参数保存和恢复的。如何使用呢?这里介绍了一些基本的用法。官网中给出了这么一个例子:v1=tf.Variable(...,name='v1')v2=tf.Variable(...,name='v2')#Passthevariablesasadict:saver=tf.train.Saver({'v1':v1,'v2':v2})#Orpassthe
ke1th
·
2020-07-10 04:38
tensorflow
tensorflow学习笔记
Tensorflow学习
(3)参数初始化
CNN中最重要的就是参数了,包括W,b。我们训练CNN的最终目的就是得到最好的参数,使得目标函数取得最小值。参数的初始化也同样重要,因此微调受到很多人的重视,那么tf提供了哪些初始化参数的方法呢,我们能不能自己进行初始化呢?所有的初始化方法都定义在tensorflow/python/ops/init_ops.py1、tf.constant_initializer()也可以简写为tf.Constan
beachboy1992
·
2020-07-10 04:48
Python
Tensorflow学习
(2)
1.0版本中的卷积函数:tf.layers.conv2dconv2d(inputs,filters,kernel_size,strides=(1,1),padding='valid',data_format='channels_last',dilation_rate=(1,1),activation=None,use_bias=True,kernel_initializer=None,bias_i
beachboy1992
·
2020-07-10 04:47
Python
【深度学习】线性回归基础实例
我在b站上看到深度学习框架
Tensorflow学习
与应用(8),是一个深度学习线性回归的例子。算是学深度学习的第一个例子,在此记录。
废柴Panda_M
·
2020-07-09 23:52
DL
TensorFlow学习
关于sess.run()的理解
TensorFlow学习
关于sess.run()的理解1.函数原型tf.Session.run(fetches,feed_dict=None)2.函数功能Runstheoperationsandevaluatesthetensorsinfetches
多喝核桃
·
2020-07-09 23:41
TensorFlow学习
TensorFlow学习
实践(五):基于vgg-16、inception_v3、resnet_v1_50模型进行fine-tune全过程
本文基于vgg-16、inception_v3、resnet_v1_50模型进行fine-tune,完成一个二分类模型的训练。目录一、环境准备二、准备数据三、数据解析及图片预处理四、模型定义五、模型训练六、模型预测最后:完整代码一、环境准备我使用了TensorFlow的model库中的slim模块,路径:https://github.com/tensorflow/models/tree/maste
qiumokucao
·
2020-07-09 21:53
TensorFlow
tensorflow 学习笔记(八)- 池化层(pooling)和全连接层(dense)
tensorflow学习
笔记(八)-池化层(pooling)和全连接层(dense)一、池化层(pooling)池化层定义在tensorflow/python/layers/pooling.py.有最大值池化和均值池化
pandsu
·
2020-07-09 20:51
深度学习
上一页
8
9
10
11
12
13
14
15
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他