1.3.2 向量化实现浅层神经网络

多个数据点中的向量化

我们这里讲解一下如何将不同的样本向量化,输出结果和Logistic回归的结果非常类似。

1.3.2 向量化实现浅层神经网络_第1张图片

如图所示,对于传统的不用向量化的办法来计算多个变量的神经网络我们需要对每个变量进行两次梯度下降算法,然后用for循环来遍历所有的变量。我们希望可以使用向量化的方式进行表示,这样就不用使用for语句了。

要实现向量化我们先把训练集x写成矩阵的形式,也就是把小向量x堆叠到矩阵各列,构成大矩阵X。对于z和a我们也可以做同样的事情,变成Z和A。

1.3.2 向量化实现浅层神经网络_第2张图片

这些矩阵,比如说Z和A,横向的话,是我们队所有训练样本用指标排序。所以横向指标就表示了不同的训练样本,当你从左到右扫描的时候,就扫过了整个训练集。

而在竖向,竖向的指标对应了神经网络的不同节点,如图片右下角的矩阵左上角表示了第一个训练样本的第一个隐藏单元的激活函数。下面第二个点表示了第二个隐藏单元对应的第一个训练样本的激活函数。对于矩阵的第一排而言,如果你横向往右移动的话,就从第一个训练样本的第一个隐藏单元到了第二个训练样本的第一个隐藏单元,再到第三个等等。所以横向的话会扫过不同的训练样本,而竖向的话就会扫过不同的指标(节点)。

向量化现实的解释

这里我们给出更多向量化在多样本实现的例子。

1.3.2 向量化实现浅层神经网络_第3张图片

这就是多个训练样本的向量化表示。

你可能感兴趣的:(深度学习)