【ML】线性回归和逻辑回归的联系和区别

一、线性回归和逻辑回归

线性回归解决的是回归问题,逻辑回归相当于是线性回归的基础上,来解决分类问题。

线性回归(Linear Regression)
【ML】线性回归和逻辑回归的联系和区别_第1张图片
逻辑回归
在这里插入图片描述
从上面两个公式:逻辑回归可以理解为在线性回归后加了一个sigmoid函数。将线性回归变成一个0~1输出的分类问题。

二、sigmoid

sigmoid函数就是:
在这里插入图片描述
函数图像是:

【ML】线性回归和逻辑回归的联系和区别_第2张图片
线性回归得到大于0的输出,逻辑回归就会得到0.5 ~ 1的输出;线性回归得到小于0的输出,逻辑回归就会得到0 ~ 0.5的输出;

三、总结

联系:

逻辑回归可以理解为在线性回归后加了一个sigmoid函数。将线性回归变成一个0~1输出的分类问题。

区别:

1.线性回归用来预测连续的变量(房价预测),逻辑回归用来预测离散的变量(分类,癌症预测)
2. 线性回归是拟合函数,逻辑回归是预测函数
3. 线性回归的参数计算方法是最小二乘法,逻辑回归的参数计算方法是似然估计的方法

附加1:
1)线性回归要求变量服从正态分布,逻辑回归对变量分布没有要求。
2)线性回归要求因变量是连续性数值变量,逻辑回归要求因变量是分类型变量。
3)线性回归要求自变量和因变量呈线性关系,逻辑回归不要求自变量和因变量呈线性关系
4)逻辑回归是分析因变量取某个值的概率与自变量的关系,而线性回归是直接分析因变量与自变量的关系

总之,逻辑回归与线性回归实际上有很多相同之处,最大的区别就在于他们的因变量不同,其他的基本都差不多,正是因为如此,这两种回归可以归于同一个家族,即广义线性模型(generalized linear model)。这一家族中的模型形式基本上都差不多,不同的就是因变量不同,如果是连续的,就是多重线性回归,如果是二项分布,就是逻辑回归。逻辑回归的因变量可以是二分类的,也可以是多分类的,但是二分类的更为常用,也更加容易解释。所以实际中最为常用的就是二分类的逻辑回归。

附加2:似然估计逻辑回归参数
举个例子,现在我们有了一个训练数据集,是一个二分类问题:
【ML】线性回归和逻辑回归的联系和区别_第3张图片
上面的 x 1 x^1 x1是样本,下面的 C C C1是类别,总共有两个类别。
【ML】线性回归和逻辑回归的联系和区别_第4张图片
似然简单的理解,就是让我们上面的数据集出现的概率最大我们来理解一下:

【ML】线性回归和逻辑回归的联系和区别_第5张图片
样本之间彼此独立,那么上面那个数据集的概率是什么?
是每一个样本的乘积,这个就是似然Likelihood:
在这里插入图片描述
我们希望这个w,b的参数估计值,就是能获得最大化似然的那个参数。也就是:
【ML】线性回归和逻辑回归的联系和区别_第6张图片
【ML】线性回归和逻辑回归的联系和区别_第7张图片
【ML】线性回归和逻辑回归的联系和区别_第8张图片
log又可以把之前的乘积和,转换成加法:
在这里插入图片描述
在这里插入图片描述
【ML】线性回归和逻辑回归的联系和区别_第9张图片
在这里插入图片描述
要找到让这个loss最小的时候的w和b,那怎么找?【梯度下降】
【ML】线性回归和逻辑回归的联系和区别_第10张图片

参考

https://mp.weixin.qq.com/s/cxHzq6Go6yjXO-wC8xpgOg

https://mp.weixin.qq.com/s/HiO8TyY5VpOYwFnCRzyZCw

https://mp.weixin.qq.com/s/Decb3uTKpqSWe6SY6qfKiw

你可能感兴趣的:(CV面试,机器学习)