吴恩达深度学习笔记01——神经网络和深度学习1

  • 实现一个神经网络时,如果需要遍历整个训练集,并不需要直接使用 for 循环。
  • 神经网络的计算过程中,通常有一个正向过程(forward pass)或者叫正向传播步骤(forward propagation step),接着会有一个反向过程(backward pass)或者叫反向传播步骤(backward propagation step)。

一、Logistic 回归

Logistic 回归是一个用于二分分类的算法。(二分分类:我们的目标是训练出一个分类器(classifier)它以特征向量x作为输入,预测出结果y是0还是1)

Logistic 回归中使用的参数如下:

  • 输入的特征向量:x∈Rnx,其中 nx是特征数量;
  • 用于训练的标签:y∈0,1;
  • 权重:w∈Rnx;
  • 偏置: b∈R;
  • 输出:y^=σ(wTx+b);
  • Sigmoid 函数:
    在这里插入图片描述
    为将 wTx+b 约束在 [0, 1] 间,引入 Sigmoid 函数。从下图可看出,Sigmoid 函数的值域为 [0, 1]。
    吴恩达深度学习笔记01——神经网络和深度学习1_第1张图片
    Logistic 回归可以看作是一个非常小的神经网络。下图是一个典型例子:
    吴恩达深度学习笔记01——神经网络和深度学习1_第2张图片

损失函数

损失函数(loss function)用于衡量预测结果与真实值之间的误差。

最简单的损失函数定义方式为平方差损失:
在这里插入图片描述
但 Logistic 回归中我们并不倾向于使用这样的损失函数,因为之后讨论的优化问题会变成非凸的,最后会得到很多个局部最优解,梯度下降法可能找不到全局最优值。

一般使用
在这里插入图片描述
损失函数是在单个训练样本中定义的,它衡量了在单个训练样本上的表现。而代价函数(cost function,或者称作成本函数)衡量的是在全体训练样本上的表现,即衡量参数 w 和 b 的效果。
在这里插入图片描述




二、梯度下降法(Gradient Descent)

函数的梯度(gradient)指出了函数的最陡增长方向。即是说,按梯度的方向走,函数增长得就越快。那么按梯度的负方向走,函数值自然就降低得最快了。

模型的训练目标即是寻找合适的 w 与 b 以最小化代价函数值。简单起见我们先假设 w 与 b 都是一维实数,那么可以得到如下的 J 关于 w 与 b 的图:
吴恩达深度学习笔记01——神经网络和深度学习1_第3张图片
可以看到,成本函数 J 是一个凸函数,与非凸函数的区别在于其不含有多个局部最低点;选择这样的代价函数就保证了无论我们初始化模型参数如何,都能够寻找到合适的最优解。

参数 w 的更新公式为:
在这里插入图片描述
其中 α 表示学习速率,即每次更新的 w 的步伐长度。

当 w 大于最优解 w′ 时,导数大于 0,那么 w 就会向更小的方向更新。反之当 w 小于最优解 w′ 时,导数小于 0,那么 w 就会向更大的方向更新。迭代直到收敛。

在成本函数 J(w, b) 中还存在参数 b,因此也有:
在这里插入图片描述




三、计算图(Computation Graph)

神经网络中的计算即是由多个计算网络输出的前向传播与计算梯度的后向传播构成。所谓的反向传播(Back Propagation)即是当我们需要计算最终值相对于某个特征变量的导数时,我们需要利用计算图中上一步的结点定义。

Logistic 回归中的梯度下降法

假设输入的特征向量维度为 2,即输入参数共有 x1, w1, x2, w2, b 这五个。可以推导出如下的计算图:
吴恩达深度学习笔记01——神经网络和深度学习1_第4张图片
首先反向求出 L 对于 a 的导数:
在这里插入图片描述
然后继续反向求出 L 对于 z 的导数:

依此类推求出最终的损失函数相较于原始参数的导数之后,根据如下公式进行参数更新:
吴恩达深度学习笔记01——神经网络和深度学习1_第5张图片
接下来我们需要将对于单个用例的损失函数扩展到整个训练集的代价函数:
吴恩达深度学习笔记01——神经网络和深度学习1_第6张图片
完整的 Logistic 回归中某次训练的流程如下,这里仅假设特征向量的维度为 2:
吴恩达深度学习笔记01——神经网络和深度学习1_第7张图片
上述过程在计算时有一个缺点:你需要编写两个 for 循环。第一个 for 循环遍历 m 个样本,而第二个 for 循环遍历所有特征。如果有大量特征,在代码中显式使用 for 循环会使算法很低效。向量化可以用于解决显式使用 for 循环的问题。




四、向量化

在 Logistic 回归中,需要计算
在这里插入图片描述
如果是非向量化的循环方式操作,代码可能如下:

z = 0;
for i in range(n_x):
    z += w[i] * x[i]
z += b

而如果是向量化的操作,代码则会简洁很多,并带来近百倍的性能提升(并行指令):

z = np.dot(w, x) + b

不用显式 for 循环,实现 Logistic 回归的梯度下降一次迭代(对应之前蓝色代码的 for 循环部分。这里公式和 NumPy 的代码混杂,注意分辨)
吴恩达深度学习笔记01——神经网络和深度学习1_第8张图片
正向和反向传播尽管如此,多次迭代的梯度下降依然需要 for 循环。




五、广播(broadcasting)

Numpy 的 Universal functions 中要求输入的数组 shape 是一致的。当数组的 shape 不相等的时候,则会使用广播机制,调整数组使得 shape 一样,满足规则,则可以运算,否则就出错。

四条规则:

  1. 让所有输入数组都向其中 shape 最长的数组看齐,shape 中不足的部分都通过在前面加 1 补齐;
  2. 输出数组的 shape 是输入数组 shape 的各个轴上的最大值;输出数组的 shape 是输入数组 shape 的各个轴上的最大值;
  3. 如果输入数组的某个轴和输出数组的对应轴的长度相同或者其长度为 1 时,这个数组能够用来计算,否则出错;如果输入数组的某个轴和输出数组的对应轴的长度相同或者其长度为 1 时,这个数组能够用来计算,否则出错;
  4. 当输入数组的某个轴的长度为 1 时,沿着此轴运算时都用此轴上的第一组值。当输入数组的某个轴的长度为 1 时,沿着此轴运算时都用此轴上的第一组值。



六、NumPy 使用技巧

  • 转置对秩为 1 的数组无效。因此,应该避免使用秩为 1 的数组,用 n * 1 的矩阵代替。例如,用np.random.randn(5,1)代替np.random.randn(5)。

  • 学会使用assert(python assert断言是声明其布尔值必须为真的判定,如果发生异常就说明表达示为假。可以理解assert断言语句为raise-if-not,用来测试表示式,其返回值为假,就会触发异常)

  • 如果得到了一个秩为 1 的数组,可以使用reshape进行转换。

文章转自:http://kyonhuang.top/Andrew-Ng-Deep-Learning-notes/#/

你可能感兴趣的:(吴恩达深度学习)