逻辑回归

个人主要看了Ag的今年在coursera深度学习课程,目前只看到第三章结束。现在只算个懂一点点深度学习的小白,个人写博客只是为了记录自己的学习感受,所有的东西都是个人见解,不一定正确,谢谢。

对于深度学习的理解就是:训练神经网络。

那么什么是神经网络呢?
记录一个很普通的例子:
比如:预测房子的价格,假设房子的价格只跟房间数量有关系,给出一堆的数据,我们会在坐标轴上描绘出
一些点,然后用一条直线去拟合他(真的想画个图,第一次用,不知道咋画)。
最后应该得出类似于这样的一个方程 y = ax+b(ymin = 0),因为房价是不可能为负数,所以大于0。
其实我们可以把这个拟合房价的函数看成一个最基本的神经网络,只有一个隐藏单元,输入x,输出y。
其实我们就是在通过数据寻找最合适的 a和b的值,其实这也是一个最简单神经网络。

逻辑回归(Logistic Regression)
进入正题,逻辑回归:逻辑回归是一个算法,什么样的算法呢?在监督学习中输出标签是0或者1的时候,
解决二元分类问题。
举个Ag的经典例子(is a cat?):
输入一张图片,去辨别图片上,是否有猫,这就是一个经典的二元分类的例子。
我们需要一个算法,来给出一个结果,这个图片里有猫的概率。
input: x,
output: yhat = wx+b
用之前的线性函数去拟合,但是真实情况是线性回归拟合二元分类不会有太好的结果,因为 y也许会比1大的多,也许比0小的多,不符合实际。这样的概率是没有意义的,不符合实际。

所以在逻辑回归中,我们可以用sigmoid的这种非线性的函数作用在yhat上,这时候的输出就是在0-1之间。

最后个人理解:逻辑回归的本质上还是线性回归,只不过在线性回归的外层上面增加了非线性函数的一层映射,逻辑回归和线性回归只是激活函数的不一样。

下一偏文章主要写损失函数和梯度下降。
有什么问题欢迎大家提问哈

你可能感兴趣的:(深度学习)