机器学习(九)——逻辑回归(LR)

笔者是一个痴迷于挖掘数据中的价值的学习人,希望在平日的工作学习中,挖掘数据的价值,找寻数据的秘密,笔者认为,数据的价值不仅仅只体现在企业中,个人也可以体会到数据的魅力,用技术力量探索行为密码,让大数据助跑每一个人,欢迎直筒们关注我的公众号,大家一起讨论数据中的那些有趣的事情。

我的公众号为:livandata

Ø  是一种用回归建模的方式建立的分类器,主要针对于二分法;

对样本进行线性建模后,形成线性模型:z=wx+b;

由于线性模型的预测值波动范围比较大,因此需要用逻辑函数来将线性模型进行归一化处理,以方便分类;

在逻辑回归函数调参时需要构建损失函数,一般损失函数使用各个样本的方差之和,而逻辑回归函数中,常用的损失函数为非凸函数,因此需要转换损失函数模型;

在逻辑回归中构建了对数损失函数;

调参时采用极大似然估计法,将每个样本的对数损失值相乘,构建极大似然损失函数;

Ø  然后用梯度递减的方式,计算递减的梯度w,迭代递减运算参数的值,最终形成一个稳定的参数向量;

机器学习(九)——逻辑回归(LR)_第1张图片

机器学习(九)——逻辑回归(LR)_第2张图片

机器学习(九)——逻辑回归(LR)_第3张图片

机器学习(九)——逻辑回归(LR)_第4张图片

机器学习(九)——逻辑回归(LR)_第5张图片

机器学习(九)——逻辑回归(LR)_第6张图片

机器学习(九)——逻辑回归(LR)_第7张图片

机器学习(九)——逻辑回归(LR)_第8张图片

机器学习(九)——逻辑回归(LR)_第9张图片

机器学习(九)——逻辑回归(LR)_第10张图片

机器学习(九)——逻辑回归(LR)_第11张图片

机器学习(九)——逻辑回归(LR)_第12张图片

你可能感兴趣的:(机器学习,Machine,Learning)