逻辑回归小结

逻辑回归损失函数:

  1. loss = y * log(h) + (1-y) * log(1-h) + 正则化项
    其中h=1/(1+e-ax),正则化项是为了防止过拟合的,可以使用a系数的L1或者L2作为惩罚项,防止过拟合
    这里逻辑回归的损失函数没有使用类似线性回归的方差最小化的原因是使用方差最小化很难收敛,
    而二分类本来只有0/1两个值,再加上h函数有e指数的形式,使用带log函数的最大似然估计更合适
    2.逻辑回归如何解决多分类问题,假设要分成A,B,C三类,那可以创建三个分类器:
    第一个分类器把A作为一类,B和C一起作为另一类,输出分类A的概率
    第二个分类器把B作为一类,A和C一起作为另一类,输出分类B的概率
    第三个分类器把C作为一类,A和B一起作为另一类,输出分类C的概率
    输入一个样本的时候经过这三个分类器时就可以得到隶属于A,B,C的概率,哪个概率大样本就属于对应的哪个分类

参考链接:https://blog.csdn.net/kun_csdn/article/details/88876524

你可能感兴趣的:(python机器学习,逻辑回归,机器学习,人工智能)