2018-12-03 机器学习打卡 逻辑回归

问题

问题1

y敏感而不是x敏感,是不是说明容错非常差,x一点抖动会直接影响y的结果

问题2

多维度这里只说到了θj的求解,也就是本维度最大似然的参数,那么多维的θj又是如何组合起来判断,综合各维度的结果呢?

14课 逻辑回归——非线性逻辑函数的由来

逻辑回归 Logistic Regression (LR)

LR 是一种简单、高效的常用分类模型

由来

指数增长:几何级数
对指数函数的上限修正
用逻辑函数来描述人口增长的情况,直观上:起初阶段大致是指数增长,随着总量增长,逐渐趋于饱和,增加变慢;最后,达到成熟时增长趋停。
逻辑函数表示存量与时间的变化关系,反映到增长率的话(微分,逻辑分布),则是类似正态分布,终趋于零)

方法论

将问题定义为函数,做出最简单假设,用事实验证形成模型,对问题进行修正升级模型。核心:直接、简单、基于现有成果

线性VS非线性

线性关系表达的是一种相关性。线性回归因其简单、容易理解、计算量低等特点,而在现实中得到了广泛应用(基本上,任何事情,上来先做个线性回归,即使无法得出结论,也不会消耗太多资源)。
但是,相关不等于因果,许许多多的情况无法用简单的相关来模型化。
非线性计算量大。

15课 逻辑回归——用来做分类的回归模型

逻辑回归分类

LR的纵轴在[0,1]区间的实数。y>0.5时为True,y<=0.5时为false。
由于在0.5附近较敏感,正好适合分类。(问题?,y敏感而不是x敏感,不是说明容错非常差,x一点抖动会直接影响y的结果

逻辑回归的目标函数

公式本身h(x) 指y为阳性的分布概率

下面的公式又看浆糊了,大意:为了求L(θ) 这个极大似然,先取对数好计算,然后取负改为凸函数求最小,得到负对数似然函数(LR目标函数)

优化算法

  • 对目标函数求导获得下降方向--J′(θ)
  • 根据步长α,更新参数θ:=θ−αJ′(θ) ;
  • 迭代收敛

对n维的情况,分别求解。

问题?多维度这里只说到了θj的求解,也就是本维度最大似然的参数,那么多维的θj又是如何组合起来判断,综合各维度的结果呢?

代码实现

用sklearn库简单

多分类问题

原理:2分做n次,每次分为本组的true false。最终哪组true或者概率最高,确定结果。不过在sklearn中无需考虑。

你可能感兴趣的:(2018-12-03 机器学习打卡 逻辑回归)