Minist手写数字识别,单个神经元

神经网络反向传播
https://www.cnblogs.com/charlotte77/p/5629865.html
利用总体误差对于某个权重的偏导数,计算权重对于误差的贡献。
导入tensorflow,版本是1.14.0才行???
导入的site-package内不能有numpy,否则会出错。
https://www.jianshu.com/p/d282bce1a999
MNIST数据集是机器学习领域中非常经典的一个数据集,由60000个训练样本和10000个测试样本组成,每个样本都是一张28 * 28像素的灰度手写数字图片。
这些文件不是任何标准的图像格式而是以字节的形式进行存储的
使用TensorFlow进行解压
MNIST_data指的是存放数据的文件夹路径,one_hot=True 为采用one_hot的编码方式编码标签
One-Hot编码,又称为一位有效编码
https://www.jianshu.com/p/6434d3e24ffb
softmax是计算标签属于这个属性的概率,进行分类
https://blog.csdn.net/qq_40837542/article/details/103926122
tf.reduce_mean 函数用于计算张量tensor沿着指定的数轴(tensor的某一维度)上的的平均值,主要用作降维或者计算tensor(图像)的平均值。
https://blog.csdn.net/dcrmg/article/details/79797826
Tensorflow中的梯度下降函数:
在Tensorflow中是通过Optimizer的优化器类进行优化训练的,优化器如下表有多种不同的实现。比较常用的为Adam优化器。
操作 描述
tf.train.GradientDescentOptimizer(learning_rate,use_locking=False,name=’GradientDescent’) 一般的梯度下降算法的Optimizer
tf.train.AdadeltaOptimizer(learning_rate=0.001,rho=0.95,epsilon=1e-08,use_locking=False,name=’Adadelta’) 创建Adadelta优化器
tf.train.AdagradOptimizer(learning_rate,initial_accumulator_value=0.1,use_locking=False,name=’Adagrad’) 创建Adagrad优化器
tf.train.MomentumOptimizer(learning_rate,momentum,use_locking=False,name=’Momentum’,use_nesterov=False) 创建momentum优化器,momentum:动量,一个tensor或者浮点值
tf.train.AdamOptimizer(learning_rate=0.001,beta1=0.9,beta2=0.999,epsilon=1e-08,use_locking=False,name=’Adam’) 创建Adam优化器
tf.train.FtrlOptimizer(learning_rate,learning_rate_power=-0.5,initial_accumulator_value=0.1,l1_regularization_strength=0.0,
l2_regularization_strength=0.0,use_locking=False,name=’Ftrl’) 创建FTRL算法优化器
tf.train.RMSPropOptimizer(learning_rate,decay=0.9,momentum=0.0,epsilon=1e-10,use_locking=False,name=’RMSProp’) 创建RMSProp算法优化器
原文链接:
https://blog.csdn.net/xuxuzi1212/article/details/81350281
其他的还在学习中。。。

你可能感兴趣的:(数学建模)