逻辑回归及其数学推导

本文只讨论二分类的情况

一、逻辑回归

P(Y=1|X=x)=ewTx1+ewTx=h(x)P(Y=0|X=x)=11+ewTx=1h(x)logP(Y=1|X=x)P(Y=0|X=x)=wTx

二、参数估计(极大似然估计)

似然函数:

l(w)=i=1nh(xi)yi(1h(xi))1yi

对数似然函数:
L(w)=i=1n(yilogh(xi)+(1yi)log(1h(xi)))=i=1n(yiwTxiyilog(1+ewTxi)+(yi1)log(1+ewTxi))=i=1n(yiwTxilog(1+ewTxi))

可以证明 L(w) 是关于 w 的凸函数,有最大值,证明如下:
f(w)=ywTxlog(1+ewTx)
f(w)w=yxewTx1+ewTx

2f(w)wwT=xewTxxT(1+ewTx)2=ewTx(1+ewTx)2xxT

非零向量 z zT(xxT)z=zTx(zTx)T0 ,又因为 ewTx(1+ewTx)2>0 ,所以 2f(w)wwT 是半负定矩阵,即 f(w) 是关于 w 的凸函数,有最大值。
对数似然函数对向量 w 求导,可得:

L(w)w=i=1n(yixiewTxi1+ewTxixi)=i=1n(yiewTxi1+ewTxi)xi=i=1n(yih(xi))xi

BGD求解:

注意此处 w 是向量

w=w+λi=1n(yih(xi))xi

SGD求解:

w=w+λ(yih(xi))xi

MBGD求解:

假设每次使用 b 个样本
fori=1,1+b,1+2b,...

w=w+λk=ii+b(yih(xi))xi

你可能感兴趣的:(机器学习)