CNN中的padding
一个例子
比如输入图片是28*28的单通道图片,其输入shape为[batch_size, 28, 28, 1];
第一层卷积为32个5*5卷积核,其shape为[5,5,1,32],其步长strides为[1,1,1,1],紧接着是第一层的2*2的max_pooling,其形状为[1,2,2,1],其步长strides为[1,2,2,1];
第二层卷积为64个5*5卷积核,其shape为[5,5,32,64],其步长strides为[1,1,1,1],紧接着是第一层的2*2的max_pooling,其形状为[1,2,2,1],其步长strides为[1,2,2,1];
padding全部使用SAME;
那么图像的尺寸经过以上两次卷积,两次池化后的变化如下:
[batch_size, 28, 28, 1]
↓ (第一层卷积)
[batch_size, 28, 28, 32]
↓ (第一层池化)
[batch_size, 14, 14, 32]
↓ (第二层卷积)
[batch_size, 14, 14, 64]
↓ (第二层池化)
[batch_size, 7, 7, 64]
如果上述所有的卷积核,池化核以及步长都保持不变,但是全部使用VALID模式,那么尺寸变化如下:
[batch_size, 28, 28, 1]
↓ (第一层卷积)
[batch_size, 24, 24, 32]
↓ (第一层池化)
[batch_size, 12, 12, 32]
↓ (第二层卷积)
[batch_size, 8, 8, 64]
↓ (第二层池化)
[batch_size, 4, 4, 64]
从神经网络到卷积神经网络(CNN)
tensorFlow笔记:常用函数
CNN模型保存
Tensorflow系列——Saver的用法
如何保存训练好的神经网络直接进行测试-TensorFlow模型持久化
Tensorflow加载预训练模型和保存模型
tensorflow 1.0 学习:模型的保存与恢复(Saver)
denny的学习专栏
tensorflow学习笔记四:mnist实例--用简单的神经网络来训练和测试
tensorflow学习笔记五:mnist实例--卷积神经网络(CNN)
北方大冬瓜的博客
TensorFlow教程03:针对机器学习初学者的MNIST实验——回归的实现、训练和模型评估 解释的清楚
TensorFlow教程05:MNIST深度学习初探 CNN
汐月教育之理解TensorFlow(三.1)构建简单的BP神经网络+softmax多分类进行MNIST识别
Tensorflow之基于MNIST手写识别的入门介绍
我的机器学习梦想之旅(4)-mnist模型训练与识别自己书写数字的实战
TensorFlow学习系列
TensorFlow学习系列之三:Anaconda的安装
安装完会推荐安装visualstudio
安装完成后关闭Terminal, 再重新打开后,使用conda --version可以看到结果,否则先显示未知命令
TensorFlow 学习系列之四:配置TensorFlow环境
更正:两处少空格
1,conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/
2,conda info --envs
TensorFlow学习系列之七:TensorFlow的源码编译
sudo apt-get update; sudo apt-get install oracle-java8-installer
sudo apt-get update; sudo apt-get install bazel
下面这行没做
bazel build -c opt --jobs 1 --local_resources 2048,0.5,1.0 --verbose_failures //tensorflow/tools/pip_package:build_pip_package
Why You Should Use Cross-Entropy Error Instead Of Classification Error Or Mean Squared Error For Neural Network Classifier Training
一文搞懂交叉熵在机器学习中的使用,透彻理解交叉熵背后的直觉
这里的单类别是指,每一张图像样本只能有一个类别,比如只能是狗或只能是猫。
这里的多类别是指,每一张图像样本可以有多个类别,比如同时包含一只猫和一只狗
损失函数(Loss function)和代价函数(成本函数)(Cost function)的区别与联系
1.损失函数(Loss function)是定义在单个训练样本上的,也就是就算一个样本的误差,比如我们想要分类,就是预测的类别和实际类别的区别,是一个样本的哦,用L表示
2.代价函数(Cost function)是定义在整个训练集上面的,也就是所有样本的误差的总和的平均,也就是损失函数的总和的平均,有没有这个平均其实不会影响最后的参数的求解结果。
简单的Tensorflow(1-7)
简单的Tensoflow(1):创建两个向量并进行矩阵相乘
简单的Tensoflow(2):实现简单的循环计数
简单的Tensorflow(3):使用feed_dict字典填充
令人困惑的TensorFlow!
原文: Tensorflow: The Confusing Parts (1)
常见的损失函数
机器学习总结(一):常见的损失函数
学习率Learning rate
tf.train中的Optimizer相关的函数与功能介绍
一文学会用 Tensorflow 搭建神经网络
Machine Learning Crash Course
http://colah.github.io/
Visualizing MNIST: An Exploration of Dimensionality Reduction