数据分析面试【机器学习】总结之-----logistic回归常见面试题整理

阅读之前看这里:博主是正在学习数据分析的一员,博客记录的是在学习过程中一些总结,也希望和大家一起进步,在记录之时,未免存在很多疏漏和不全,如有问题,还请私聊博主指正。
博客地址:天阑之蓝的博客,学习过程中不免有困难和迷茫,希望大家都能在这学习的过程中肯定自己,超越自己,最终创造自己。

目录

    • 1.一句话概括逻辑回归
    • 2.线性回归和逻辑回归的区别
    • 3.逻辑回归的损失函数
    • 4.逻辑回归的求解方法
    • 5.逻辑回归的目的
    • 6.逻辑回归如何分类
    • 7.逻辑回归的损失函数为什么要使用极大似然函数作为损失函数?
    • 8.逻辑回归的优缺点总结
    • 9.LR为什么用sigmoid函数。这个函数有什么优点和缺点?为什么不用其他函数?
    • 10.LR与最大熵模型

1.一句话概括逻辑回归

逻辑回归假设数据服从伯努利分布,通过极大化似然函数的方法,运用梯度下降来求解参数,来达到将数据二分类的目的

这里面其实包含了5个点 :

1:逻辑回归的假设
2:逻辑回归的损失函数
3:逻辑回归的求解方法
4:逻辑回归的目的
5:逻辑回归如何分类

2.线性回归和逻辑回归的区别

  • 线性回归要求变量服从正态分布,logistic回归对变量分布没有要求。
  • 线性回归要求因变量是连续性数值变量,而logistic回归要求因变量是分类型变量
  • 线性回归要求自变量和因变量呈线性关系,而logistic回归不要求自变量和因变量呈线性关系。
  • logistic回归是分析因变量取某个值的概率与自变量的关系,而线性回归是直接分析因变量与自变量的关系。

3.逻辑回归的损失函数

在这里插入图片描述

4.逻辑回归的求解方法

由于该极大似然函数无法直接求解,我们一般通过对该函数进行梯度下降来不断逼急最优解。在这个地方其实会有个加分的项,考察你对其他优化方法的了解。因为就梯度下降本身来看的话就有随机梯度下降,批梯度下降,small batch 梯度下降三种方式,面试官可能会问这三种方式的优劣以及如何选择最合适的梯度下降方式。

批梯度下降:批梯度下降会获得全局最优解,缺点是在更新每个参数的时候需要遍历所有的数据,计算量会很大,并且会有很多的冗余计算,导致的结果是当数据量大的时候,每个参数的更新都会很慢。

随机梯度下降:随机梯度下降是以高方差频繁更新,优点是使得sgd会跳到新的和潜在更好的局部最优解,缺点是使得收敛到局部最优解的过程更加的复杂。

小批量梯度下降:小批量梯度下降结合了sgd和batch gd的优点,每次更新的时候使用n个样本。减少了参数更新的次数,可以达到更加稳定收敛结果,一般在深度学习当中我们采用这种方法。

5.逻辑回归的目的

该函数的目的便是将数据二分类,提高准确率。

6.逻辑回归如何分类

逻辑回归作为一个回归(也就是y值是连续的),如何应用到分类上去呢。y值确实是一个连续的变量。逻辑回归的做法是划定一个阈值,y值大于这个阈值的是一类,y值小于这个阈值的是另外一类。阈值具体如何调整根据实际情况选择。一般会选择0.5做为阈值来划分。

7.逻辑回归的损失函数为什么要使用极大似然函数作为损失函数?

损失函数一般有四种,平方损失函数,对数损失函数,HingeLoss0-1损失函数,绝对值损失函数。将极大似然函数取对数以后等同于对数损失函数。在逻辑回归这个模型下,对数损失函数的训练求解参数的速度是比较快的。至于原因大家可以求出这个式子的梯度更新

你可能感兴趣的:(#,机器学习,机器学习,LR逻辑回归,机器学习面试)