《TensorFlow实战Google深度学习框架》

1.     tensorflow01 win10 anaconda 环境配置:http://blog.csdn.net/longji/article/details/69257632

2. tensorflow02 《TensorFlow实战Google深度学习框架》笔记-03:http://blog.csdn.net/longji/article/details/69472310

        训练神经网络步骤: 
                1. 定义神经网络结构和前向床波输出结果 
                2. 定义损失函数及反向传播优化算法 
                3 . 生成会话(tf.Session)并在训练数据上反复运行反向传播优化算法

3.tensorflow03 《TensorFlow实战Google深度学习框架》笔记-04-01 :http://blog.csdn.net/longji/article/details/69525244

   3.1 阅读材料:前向传播和反向传播(举例说明):http://blog.csdn.net/guoyunfei20/article/details/78031498

                                  梯度下降算法属于反向传播算法。
               3.2 新旧版本差异导致的错误: TypeError: __init__() got an unexpected keyword argument 'shape'
               initializer=tf.zeros_initializer(shape = [1]))--->initializer=tf.zeros_initializer()(shape = [1])

        3.3 知识点
        反向传播使我们能够通过一定的手段(比如梯度下降、随机梯度下降)来修正w、b等参数;修正w、b参数后,再前向传播就会得到更小的误差函数。 
        训练网络(往复的前向传播、反向传播),能够逼近一个理想的最小误差,也就得到了那一个我们想要的复杂函数。 
逼近最小误差,也就是所谓的收敛。
         L1正则化和L2正则化的区别:


4. tensorflow04 《TensorFlow实战Google深度学习框架》笔记-04-02自定义损失函数 http://blog.csdn.net/longji/article/details/69525305
5. tensorflow05 《TensorFlow实战Google深度学习框架》笔记-04-03学习率设置 : http://blog.csdn.net/longji/article/details/69525339

你可能感兴趣的:(《TensorFlow实战Google深度学习框架》)