深度学习基础知识(五):神经网络基础之logistic回归

这个专栏主要是想和大家分享一下深度学习的基础知识,主要是以吴恩达老师深度学习课程内容作为基础,并补充了很多其他内容希望让整体内容更加容易理解和系统化。如果想要了解具体专栏里面有什么内容的话,可以看一看我们专栏的目录,在目录里面还说明了小伙伴的分工,这些内容都是所有小伙伴们一起努力完成的,有希望和我们一起学习的的小伙伴也可以加入我们啊。另外我们还将内容以书籍的形式放到了github上,之后还会陆续上传源码实现等其他内容。我们还会分享深度学习-论文阅读专栏、强化学习-基础知识专栏、强化学习-任务阅读专栏,也欢迎大家关注。可能会有很多错漏,希望大家批评指正!还是那句话,不要高估一年的努力,也不要低估十年的积累,与君共勉!

2. logistic回归

2.1 定义

​ 利用一定的参数,对特征向量进行一定的计算,从而得出判断结果。

2.2 相关函数

​ 1.线性回归
a. 函数形式:在这里插入图片描述

​ T为转置符,交换特征向量的行和列。

b. 参数:w,b

​ w和b参数常相互独立的进行分开分析(在后面的求导中也是分开求导以及分别改变和优化自身的值)

c. y范围 :[0,1]

​ 当y值不属于预期范围[0,1]时,并不符合当前判断正误的场景(即0或者1的场景)。所以为了保证y的值在0和1的范围内,需要使用 s i g m o i d ( ) sigmoid() sigmoid函数将 y转化到0到1的范围内。

​ 为了容易区分,将线性函数的输出值y改为z,即

在这里插入图片描述并且将z作为sigmoid(z)函数的输入。

​ 2.sigmoid函数

a. 表达式: y = s i g m o i d ( z ) = 1 1 + e − z y = sigmoid(z)=\frac{1}{1+e^{-z}} y=sigmoid(z)=1+ez1

b.函数图像:

深度学习基础知识(五):神经网络基础之logistic回归_第1张图片

​ 当z越大,y的值越接近于1,当z越小,y的值越接近于0。

2.3 python实现

代码可参考:https://github.com/lawlite19/MachineLearning_Python/blob/master/LogisticRegression/LogisticRegression.py

你可能感兴趣的:(深度学习-基础知识,神经网络,深度学习,pytorch)