深度学习吴恩达第一章——神经网络的初步了解和逻辑回归

一、引言

1.什么是神经网络

Relu——rectified linear unit(修正线性单元)
深度学习吴恩达第一章——神经网络的初步了解和逻辑回归_第1张图片
深度学习吴恩达第一章——神经网络的初步了解和逻辑回归_第2张图片

2.各种类型的神经网络

  1. SNN:标准神经网络,用于房价预测,在线广告是否点击
  2. CNN:卷积神经网络,用于图像识别
  3. RNN:循环神经网络,用于时间序列数据,语音识别
  4. 混合神经网络

深度学习吴恩达第一章——神经网络的初步了解和逻辑回归_第3张图片

3.结构化数据和非结构化数据

4.神经网络与传统的监督学习

二、逻辑回归(二分类)

1.约定的符号

深度学习吴恩达第一章——神经网络的初步了解和逻辑回归_第4张图片

2.logistic 回归


在神经网络中, w w w b b b分开表示

3.logistic 回归的损失函数


为什么在逻辑回归中,损失函数不使用 L ( y ^ − y ) = 1 2 ( y ^ − y ) 2 L(\hat{y}-y)=\frac{1}{2}(\hat{y}-y)^2 L(y^y)=21(y^y)2呢,因为在逻辑回归中,该损失函数是非凸的,有多个局部最优。

4.梯度下降法

(1)成本函数

(2)梯度下降法的原理

(3)单个训练样本的logistic回归的一次梯度更新

a.单个训练样本的损失函数

深度学习吴恩达第一章——神经网络的初步了解和逻辑回归_第5张图片

b.各参数的梯度


d a = d L d a = − y a + 1 − y 1 − a da=\frac{dL}{da}=-\frac{y}{a}+\frac{1-y}{1-a} da=dadL=ay+1a1y
d a d z = a ( 1 − a ) \frac{da}{dz}=a(1-a) dzda=a(1a)
d z = d L d z = d L d a d a d z = a − y dz=\frac{dL}{dz}=\frac{dL}{da}\frac{da}{dz} =a-y dz=dzdL=dadLdzda=ay
d z d w 1 = x 1 , d z d w 2 = x 2 , d z d b = 1 \frac{dz}{dw_1}=x_1,\frac{dz}{dw_2}=x_2,\frac{dz}{db}=1 dw1dz=x1,dw2dz=x2,dbdz=1
d w 1 = d L d w 1 = d L d z d z d w 1 = x 1 ( a − y ) dw_1=\frac{dL}{dw_1}=\frac{dL}{dz}\frac{dz}{dw_1}=x_1(a-y) dw1=dw1dL=dzdLdw1dz=x1(ay)
d w 2 = d L d w 2 = d L d z d z d w 2 = x 2 ( a − y ) dw_2=\frac{dL}{dw_2}=\frac{dL}{dz}\frac{dz}{dw_2}=x_2(a-y) dw2=dw2dL=dzdLdw2dz=x2(ay)
d b = d L d b = d L d z d z d b = a − y db=\frac{dL}{db}=\frac{dL}{dz}\frac{dz}{db}=a-y db=dbdL=dzdLdbdz=ay

(4)m个训练样本的logistic回归的一次梯度更新

深度学习吴恩达第一章——神经网络的初步了解和逻辑回归_第6张图片

5.矩阵化表示

深度学习吴恩达第一章——神经网络的初步了解和逻辑回归_第7张图片
深度学习吴恩达第一章——神经网络的初步了解和逻辑回归_第8张图片

6.逻辑回归的向量化形式

深度学习吴恩达第一章——神经网络的初步了解和逻辑回归_第9张图片

7.python中的广播机制

深度学习吴恩达第一章——神经网络的初步了解和逻辑回归_第10张图片
深度学习吴恩达第一章——神经网络的初步了解和逻辑回归_第11张图片

8.python中如何定义数组

9.损失函数的解释


深度学习吴恩达第一章——神经网络的初步了解和逻辑回归_第12张图片

你可能感兴趣的:(神经网络,神经网络)