吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network

吴恩达深度学习笔记week3——浅层神经网络 One hidden layer Neural Network

    • 3.1 神经网络概览 Neural Networks Overview![在这里插入图片描述](https://img-blog.csdnimg.cn/202012031340052.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1NhdWx0eQ==,size_16,color_FFFFFF,t_70)
    • 3.2 神经网络表示 Neural Network Representation
    • 3.3 计算神经网络的输出 Computing a Neural Network's Output
    • 3.4 多个例子中的向量化 Vectorizing across multiple examples
    • 3.5 向量化实现的解释 Explanation for vectorized implementation
    • 3.6 激活函数 Activation functions
    • 3.7 为什么需要非线性激活函数?Why do you need non-linear activation functions?
    • 3.8 激活函数的导数 Derivatives of activation functions
    • 3.9 神经网络的梯度下降法 Gradient descent for neural networks
    • 3.10 (选修)直观理解反向传播 Backpropagation intuition
    • 3.11 随机初始化权重 Random Initialization

3.1 神经网络概览 Neural Networks Overview吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network_第1张图片

3.2 神经网络表示 Neural Network Representation

  • 当我们计算网络层数的时候,一般不算上输入层
    吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network_第2张图片

3.3 计算神经网络的输出 Computing a Neural Network’s Output

  • 两步走
    吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network_第3张图片
  • 向量化
    吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network_第4张图片
    吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network_第5张图片

3.4 多个例子中的向量化 Vectorizing across multiple examples

  • 注意上标 [ ] 和 ()
    ()代表第几个样本
    [ ] 代表第几层
    吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network_第6张图片
    吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network_第7张图片

3.5 向量化实现的解释 Explanation for vectorized implementation

  • 不同的样本在每一层的参数是相同的
  • 同一样本不同特征在每一层的参数是不同的
    吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network_第8张图片
    吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network_第9张图片

3.6 激活函数 Activation functions

吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network_第10张图片
吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network_第11张图片

3.7 为什么需要非线性激活函数?Why do you need non-linear activation functions?

  • 为了提高模型的复杂度
  • 线性函数组合本身就是线性函数
  • 若只使用线性激活函数,与不使用隐藏层的逻辑回归函数无异
    吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network_第12张图片

3.8 激活函数的导数 Derivatives of activation functions

吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network_第13张图片
吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network_第14张图片

3.9 神经网络的梯度下降法 Gradient descent for neural networks

吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network_第15张图片
吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network_第16张图片

3.10 (选修)直观理解反向传播 Backpropagation intuition

吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network_第17张图片

  • 单个样本
    吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network_第18张图片
  • 多个样本
    前向传播
    吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network_第19张图片
    反向传播
    吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network_第20张图片

3.11 随机初始化权重 Random Initialization

  • 对称性问题
    吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network_第21张图片
    吴恩达深度学习1笔记week3——浅层神经网络 One hidden layer Neural Network_第22张图片

你可能感兴趣的:(深度学习)