吴恩达深度学习入门学习笔记之神经网络和深度学习(第二周:神经网络基础)

第二周:神经网络基础

2.1二分分类

训练数据集大小:m_train
测试数据集大小:m_test

对于一个训练数据(x,y),x代表特征,x∈Rn,n表示数据维度,y代表label,y∈{0,1}。
对于一组训练数据,既包含特征信息,也包含标签信息。‘
对于一个容量为m的训练数据集:(x(1),y(1)),(x(2),y(2)),……,(x(m),y(m)

定义特征矩阵X(一般每个数据作为一列,列数为样本个数,行数为特征维数)
定义标签矩阵Y(每个数据对应的标签值作为一列)
吴恩达深度学习入门学习笔记之神经网络和深度学习(第二周:神经网络基础)_第1张图片

2.2 logistic regression

给定一个特征向量x,我们想要得到该特征数据对应的标签值为1的概率,这里如果只是简单的定义一个系数参数w和偏移参数b,则得到的函数值y的范围很大,因此这里用sigmoid函数将得到的y变成y,则y范围为0到1,表示得到的概率。这里写图片描述

吴恩达深度学习入门学习笔记之神经网络和深度学习(第二周:神经网络基础)_第2张图片

2.3logistic回归损失函数

损失函数用来衡量你的预测输出值和真实值的距离有多近(单个样本)。
cost函数J则是衡量整个训练集的表现。
吴恩达深度学习入门学习笔记之神经网络和深度学习(第二周:神经网络基础)_第3张图片

2.4梯度下降法

吴恩达深度学习入门学习笔记之神经网络和深度学习(第二周:神经网络基础)_第4张图片

2.5 导数,2.6更多导数

2.7 计算图

2.8 计算图的导数计算

2.9logistic回归中的梯度下降法

吴恩达深度学习入门学习笔记之神经网络和深度学习(第二周:神经网络基础)_第5张图片

2.10

你可能感兴趣的:(计算机视觉,机器学习,深度学习)