机器学习算法笔记-逻辑回归

逻辑回归(LR)

我的理解是,逻辑回归就是以改进的线性回归的方法求分类,改进的内容就是引入了非线性函数,最常用的就是sigmoid函数。
如下图就是sigmoid函数,横轴z = 0时,纵轴g(z) = 0.5,z趋向于负无穷时,g(z)趋向于0,z趋向于正无穷时,g(z)趋向于1。其中z = thetaT * X,g(z)表示概率,逻辑回归目标函数的推导见下图。
机器学习算法笔记-逻辑回归_第1张图片
逻辑回归最经典的是二分类函数,二分类回归常用的损失函数就是交叉熵损失函数。如果想要处理多分类回归问题,比如3类,那么就把它拆分成3个二分类问题。或者使用softmax函数。
机器学习算法笔记-逻辑回归_第2张图片
决策边界绘制:
1.构建坐标数据(合理范围当中,根据实际训练时的输入数据决定)
2.整合坐标点,得到所有测试输入数据坐标点
3.预测所有点的概率值
4.绘制等高线,完成决策边界

你可能感兴趣的:(机器学习经典算法,算法,机器学习,概率论)