吴恩达深度学习笔记——DAY2

目录

一、梯度下降法

 二、向量化(Vectorization)

三、Python 中的广播(Broadcasting in Python)


一、梯度下降法

梯度下降法在测试集上,通过最小化代价函数(成本函数〉J(w,b)来训练的参数w和b,

找到全局最优解,也就是代价函数(成本函数)J(w, b)这 个凸函数的最小值点,这个函数含有两个参数w和b。
在这里插入图片描述

 

吴恩达深度学习笔记——DAY2_第1张图片

 二、向量化(Vectorization)

向量化是非常基础的去除代码中 for 循环的艺术,通过 numpy 内置函数和避开显式的循环( loop)的方式进行 向量化,从而有效提高代码速度。

三、Python 中的广播(Broadcasting in Python

numpy 广播机制:
如果两个数组的后缘维度的轴长度相符或其中一方的轴长度为 1 ,则认为它们是广播兼
容的。广播会在缺失维度和轴长度为 1 的维度上进行。
numpy 中,当一个 4 × 1 的列向量与一个常数做加法时,实际上会将常数扩展为一
4 × 1 的列向量,然后两者做逐元素加法。

 m × n的矩阵和 1 × n 的矩阵相加。在执行加法操作时,其实是将 1 × ? 的矩阵复制成为 ? × ? 的矩阵,然后两 者做逐元素加法得到结果.

 

你可能感兴趣的:(深度学习,人工智能,神经网络)