深度学习基础知识(四):神经网络基础之二分分类

这个专栏主要是想和大家分享一下深度学习的基础知识,主要是以吴恩达老师深度学习课程内容作为基础,并补充了很多其他内容希望让整体内容更加容易理解和系统化。如果想要了解具体专栏里面有什么内容的话,可以看一看我们专栏的目录,在目录里面还说明了小伙伴的分工,这些内容都是所有小伙伴们一起努力完成的,有希望和我们一起学习的的小伙伴也可以加入我们啊。另外我们还将内容以书籍的形式放到了github上,之后还会陆续上传源码实现等其他内容。我们还会分享深度学习-论文阅读专栏、强化学习-基础知识专栏、强化学习-任务阅读专栏,也欢迎大家关注。可能会有很多错漏,希望大家批评指正!还是那句话,不要高估一年的努力,也不要低估十年的积累,与君共勉!

神经网络基础(Nerual network basic)

1. 二分分类

1.1 定义

​ 对某个事件或者事物进行“是”或者“否”的判断,即可表示为如“0”和“1”两种数据形式。

1.2 数学定义

​ 对某个事件的结果y进行判断
在这里插入图片描述

​ 需要有一个期望值 h θ ( x ) h_{\theta}\left(x\right) hθ(x),使得:
在这里插入图片描述

​ 最后根据期望值hθ(x)与0.5的大小,输出结果
在这里插入图片描述

​ 当然,也不一定是将期望值与0.5去进行比较,因为最终得到的期望值其实并不完全等同于我们判断的概率,现实当中可以根据实际需要及时调整。

引用文献:https://blog.csdn.net/mathlxj/article/details/81490288

例子:对一张图片中的动物是否是猫。

​ 具体的判断方法为:利用图片中的各个像素点的三原色(红、绿、蓝)的亮度值来表示图片的特征,并且将这些亮度值转换为n维特征向量作为算法的输入值,最后利用逻辑回归(logistic回归)算法等各种算法判断出图片中的动物是否是猫,最后给出对应的结果。

​ 简单点说,分析图片三原色亮度值 → 获取特征向量作为输入 → logistic回归算法进行运算 → 输出判断结果

1.3 常用符号

符号 含义 作用
x x维特征向量 常用于表示图片的特征
n x n_{x} nx n n n 输入特征向量维度
y 预测结果 二分类中用0或1表示结果
(x,y) 一个单独的样本 训练集的一个成员
( x ( i ) , y ( i ) ) \left(x^{(i)}, y^{(i)}\right) (x(i),y(i)) 一个训练集中的第i个样本 区分训练集中的每个样本
m或者m_train 训练集样本个数
X = [ ⋯ ⋯ ⋯ x 1 x 2 ⋯ ⋯ ⋯ ⋯ ] X=\left[\begin{array}{ccc}\cdots & \cdots & \cdots \\ x^{1} & x^{2} & \cdots \\ \cdots & \cdots & \cdots\end{array}\right] X=x1x2 大写X表示训练集中所有样本的输入特征向量的矩阵集合 m列x行,作为输入矩阵
Y = [ y ( 1 ) y ( 2 ) ⋯ ⋅ y ( m ) ] Y=\left[y^{(1)} y^{(2)} \cdots \cdot y^{(m)}\right] Y=[y(1)y(2)y(m)] 训练集样本预期值矩阵 1*m矩阵
z ( i ) z^{(i)} z(i) sigmoid()函数对于样本i计算值 常用于表示样本i的计算值
W ( i ) W^{(i)} W(i) 表示第i层卷积层的参数W的特征向量 常用于sigmoid()函数的计算
y ^ \hat{y} y^ 对样本输入的预测向量
J ( x , W , b , y ) J(x,W,b,y) J(x,W,b,y) 损失函数

​ 需要注意,矩阵X不能用特征向量横向集合而成,即不能写成如下形式:

X = [ ⋯ x 1 ⋯ ⋯ x 2 ⋯ ⋯ ⋯ ⋯ ] X=\left[\begin{array}{ccc}\cdots & x^{1} & \cdots \\ \cdots & x^{2} & \cdots \\ \cdots & \cdots & \cdots\end{array}\right] X=x1x2(错误)

1.4 多分类

​ 本质上是在二分分类上的拓展,讲判断结果分成了更多的部分。例如,识别水果的种类是苹果还是西瓜,或者是香蕉。

你可能感兴趣的:(深度学习-基础知识,神经网络,深度学习,pytorch)