TensorFlow相关文章

CNN中的padding

一个例子

比如输入图片是28*28的单通道图片,其输入shape为[batch_size, 28, 28, 1];

第一层卷积为32个5*5卷积核,其shape为[5,5,1,32],其步长strides为[1,1,1,1],紧接着是第一层的2*2的max_pooling,其形状为[1,2,2,1],其步长strides为[1,2,2,1];

第二层卷积为64个5*5卷积核,其shape为[5,5,32,64],其步长strides为[1,1,1,1],紧接着是第一层的2*2的max_pooling,其形状为[1,2,2,1],其步长strides为[1,2,2,1];

padding全部使用SAME;

那么图像的尺寸经过以上两次卷积,两次池化后的变化如下:

[batch_size, 28, 28, 1]

↓ (第一层卷积)

[batch_size, 28, 28, 32]

↓ (第一层池化)

[batch_size, 14, 14, 32]

↓ (第二层卷积)

[batch_size, 14, 14, 64]

↓ (第二层池化)

[batch_size, 7, 7, 64]

如果上述所有的卷积核,池化核以及步长都保持不变,但是全部使用VALID模式,那么尺寸变化如下:

[batch_size, 28, 28, 1]

↓ (第一层卷积)

[batch_size, 24, 24, 32]

↓ (第一层池化)

[batch_size, 12, 12, 32]

↓ (第二层卷积)

[batch_size, 8, 8, 64]

↓ (第二层池化)

[batch_size, 4, 4, 64]

从神经网络到卷积神经网络(CNN)

tensorFlow笔记:常用函数


CNN模型保存

Tensorflow系列——Saver的用法

如何保存训练好的神经网络直接进行测试-TensorFlow模型持久化

Tensorflow加载预训练模型和保存模型

tensorflow 1.0 学习:模型的保存与恢复(Saver)


denny的学习专栏

tensorflow学习笔记四:mnist实例--用简单的神经网络来训练和测试

tensorflow学习笔记五:mnist实例--卷积神经网络(CNN)


北方大冬瓜的博客

TensorFlow教程03:针对机器学习初学者的MNIST实验——回归的实现、训练和模型评估 解释的清楚

TensorFlow教程05:MNIST深度学习初探    CNN


汐月教育之理解TensorFlow(三.1)构建简单的BP神经网络+softmax多分类进行MNIST识别 

Tensorflow之基于MNIST手写识别的入门介绍

我的机器学习梦想之旅(4)-mnist模型训练与识别自己书写数字的实战


TensorFlow学习系列

TensorFlow学习系列之三:Anaconda的安装

安装完会推荐安装visualstudio

安装完成后关闭Terminal, 再重新打开后,使用conda --version可以看到结果,否则先显示未知命令

TensorFlow 学习系列之四:配置TensorFlow环境 

更正:两处少空格

1,conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/

2,conda info --envs

TensorFlow学习系列之七:TensorFlow的源码编译

sudo apt-get update;  sudo apt-get install oracle-java8-installer

sudo apt-get update;  sudo apt-get install bazel

下面这行没做

bazel build -c opt --jobs 1 --local_resources 2048,0.5,1.0 --verbose_failures //tensorflow/tools/pip_package:build_pip_package


Why You Should Use Cross-Entropy Error Instead Of Classification Error Or Mean Squared Error For Neural Network Classifier Training

一文搞懂交叉熵在机器学习中的使用,透彻理解交叉熵背后的直觉

这里的单类别是指,每一张图像样本只能有一个类别,比如只能是狗或只能是猫。

这里的多类别是指,每一张图像样本可以有多个类别,比如同时包含一只猫和一只狗 

损失函数(Loss function)和代价函数(成本函数)(Cost function)的区别与联系

1.损失函数(Loss function)是定义在单个训练样本上的,也就是就算一个样本的误差,比如我们想要分类,就是预测的类别和实际类别的区别,是一个样本的哦,用L表示

2.代价函数(Cost function)是定义在整个训练集上面的,也就是所有样本的误差的总和的平均,也就是损失函数的总和的平均,有没有这个平均其实不会影响最后的参数的求解结果。


简单的Tensorflow(1-7)

简单的Tensoflow(1):创建两个向量并进行矩阵相乘

简单的Tensoflow(2):实现简单的循环计数

简单的Tensorflow(3):使用feed_dict字典填充



令人困惑的TensorFlow!

原文: Tensorflow: The Confusing Parts (1)

常见的损失函数

机器学习总结(一):常见的损失函数

学习率Learning rate

tf.train中的Optimizer相关的函数与功能介绍

一文学会用 Tensorflow 搭建神经网络


Machine Learning Crash Course



http://colah.github.io/

Visualizing MNIST: An Exploration of Dimensionality Reduction




你可能感兴趣的:(TensorFlow相关文章)