逻辑回归是一种广义线性模型,形式上引入了 S i g m o i d Sigmoid Sigmoid 函数映射,是非线性模型。但本质上,逻辑回归仍然是一个线性回归模型,因为除去 S i g m o i d Sigmoid Sigmoid 映射函数关系,其他的步骤和算法都是线性回归的。
下面,考虑一个二分类问题 f : R p → { 0 , 1 } f : R^p → \{0, 1\} f:Rp→{0,1}
σ ( z ) = 1 1 + e − z \sigma(z) = \frac{1}{1+e^{-z}} σ(z)=1+e−z1
引入 S i g m o i d Sigmoid Sigmoid 函数,将线性函数预测值转换成概率值
{ p ( y i = 1 ∣ x i ) = 1 1 + e − ( w T x i + b ) p ( y i = 0 ∣ x i ) = e − ( w T x i + b ) 1 + e − ( w T x i + b ) \begin{cases} p(y_i = 1|x_i) = \large \frac{1}{1+e^{−(w^Tx_i+b)}} \\ p(y_i = 0|x_i) = \large \frac{e^{−(w^Tx_i+b)}}{1+e^{−(w^Tx_i+b)}} \end{cases} ⎩ ⎨ ⎧p(yi=1∣xi)=1+e−(wTxi+b)1p(yi=0∣xi)=1+e−(wTxi+b)e−(wTxi+b)
特征 输出概率(p) 预测标签 ( y ^ ) 真实标签 ( y ) x 1 0.62 1 0 x 2 0.88 1 1 x 3 0.45 0 1 x 4 0.05 0 0 \begin{array}{c|c|c|c|c}\hline\text{特征}&\text{输出概率(p)}&\text{预测标签 }(\hat{y})&\text{真实标签 }(y)\\\hline x_1&0.62&1&0\\\hline x_2&0.88&1&1\\\hline x_3&0.45&0&1\\\hline x_4&0.05&0&0\\\hline\end{array} 特征x1x2x3x4输出概率(p)0.620.880.450.05预测标签 (y^)1100真实标签 (y)0110
ℓ ( y , p ) = − ( y l o g ( p ) + ( 1 − y ) l o g ( 1 − p ) ) ℓ(y, p) = −(y log(p) + (1 − y)log(1 − p)) ℓ(y,p)=−(ylog(p)+(1−y)log(1−p))
由 x 1 , p 1 = 0.62 , y 1 = 0 x_1,p_1=0.62,y_1=0 x1,p1=0.62,y1=0,代入交叉熵函数,得到: ℓ ( y 1 , p 1 ) = − ( y 1 log p 1 + ( 1 − y 1 ) log ( 1 − p 1 ) ) = 0.968 \ell(y_1,p_1)=-(y_1\log p_1+(1-y_1)\log(1-p_1))=0.968 ℓ(y1,p1)=−(y1logp1+(1−y1)log(1−p1))=0.968
由 x 2 , p 2 = 0.88 , y 2 = 1 x_2,p_2=0.88,y_2=1 x2,p2=0.88,y2=1,代入交叉熵函数,得到: ℓ ( y 2 , p 2 ) = − ( y 2 log p 2 + ( 1 − y 2 ) log ( 1 − p 2 ) ) = 0.128 \ell(y_2,p_2)=-(y_2\log p_2+(1-y_2)\log(1-p_2))=0.128 ℓ(y2,p2)=−(y2logp2+(1−y2)log(1−p2))=0.128
由 x 3 , p 3 = 0.45 , y 3 = 1 x_3, p_3= 0.45, y_3= 1 x3,p3=0.45,y3=1,代入交叉熵函数,得到: ℓ ( y 3 , p 3 ) = − ( y 3 log p 3 + ( 1 − y 3 ) log ( 1 − p 3 ) ) = 0.799 \ell(y_3,p_3)=-(y_3\log p_3+(1-y_3)\log(1-p_3))=0.799 ℓ(y3,p3)=−(y3logp3+(1−y3)log(1−p3))=0.799
由 x 4 , p 4 = 0.05 , y 4 = 0 x_4,p_4=0.05,y_4=0 x4,p4=0.05,y4=0,代入交叉熵函数,得到: ℓ ( y 4 , p 4 ) = − ( y 4 log p 4 + ( 1 − y 4 ) log ( 1 − p 4 ) ) = 0.051 \ell(y_4,p_4)=-(y_4\log p_4+(1-y_4)\log(1-p_4))=0.051 ℓ(y4,p4)=−(y4logp4+(1−y4)log(1−p4))=0.051
给出包含特征和标签的实际问题中:
D = { ( x i , y i ) } i = 1 n D = \{(x_i , y_i)\}^n_{i=1} D={(xi,yi)}i=1n
通过最小化所有样本的平均交叉熵损失估计模型的参数 w w w, b b b;
逻辑回归模型:
m i n L ( w , b ) minL(w, b) minL(w,b) 其中:
L ( w , b ) = 1 n ∑ i = 1 n ℓ ( y i , p i ) L(w, b) = \frac{1}{n} ∑^n_{i=1} ℓ(y_i , p_i) L(w,b)=n1i=1∑nℓ(yi,pi)
高斯-赛德尔求非线性方程组
考虑逻辑回归模型:
min w , b L ( w , b ) : = − 1 n ∑ i = 1 n ( y i log ( p i ) + ( 1 − y i ) log ( 1 − p i ) ) \min_{w,b}L(w,b):=-\dfrac{1}{n}\sum_{i=1}^{n}(y_i\log(p_i)+(1-y_i)\log(1-p_i)) w,bminL(w,b):=−n1i=1∑n(yilog(pi)+(1−yi)log(1−pi))
计算损失函数的梯度:
∂ L ∂ w = − 1 n ∑ i = 1 n ∂ ∂ w ( y i log ( p i ) + ( 1 − y i ) log ( 1 − p i ) ) = − 1 n ∑ i = 1 n ( y i p i − 1 − y i 1 − p i ) ∂ p i ∂ w \begin{aligned} \frac{\partial L}{\partial w} & = -\frac1n\sum_{i=1}^n\frac{\partial}{\partial w} (y_i\log(p_i)+(1-y_i)\log(1-p_i)) \\\\ & = -\frac1n\sum_{i=1}^n(\frac{y_i}{p_i}-\frac{1-y_i}{1-p_i})\frac{\partial p_i}{\partial w} \end{aligned} ∂w∂L=−n1i=1∑n∂w∂(yilog(pi)+(1−yi)log(1−pi))=−n1i=1∑n(piyi−1−pi1−yi)∂w∂pi
需要先计算
∂ p ∂ w = ∂ ∂ w ( 1 1 + exp ( − ( ⟨ w , x i ⟩ + b ) ) ) = exp ( − ( ⟨ w , x i ⟩ + b ) ) x i ( 1 + exp ( − ( ⟨ w , x i ⟩ + b ) ) ) 2 = p i ( 1 − p i ) x i \begin{aligned} \frac{\partial p}{\partial w}& =\frac{\partial}{\partial w}(\frac{1}{1+\exp(-(\langle w,x_i\rangle+b))}) \\ &=\frac{\exp(-(\langle w,x_i\rangle+b))x_i}{(1+\exp(-(\langle w,x_i\rangle+b)))^2} \\ &=p_i(1-p_i)x_i \end{aligned} ∂w∂p=∂w∂(1+exp(−(⟨w,xi⟩+b))1)=(1+exp(−(⟨w,xi⟩+b)))2exp(−(⟨w,xi⟩+b))xi=pi(1−pi)xi
将其代入回上式,计算得到:
∂ L ∂ w = − 1 n ∑ i = 1 n ( y i p i − 1 − y i 1 − p i ) ∂ p i ∂ w = 1 n ∑ i = 1 n ( p i − y i ) x i \frac{\partial L}{\partial w}=-\frac{1}{n}\sum_{i=1}^{n}(\frac{y_i}{p_i}-\frac{1-y_i}{1-p_i})\frac{\partial p_i}{\partial w}=\frac{1}{n}\sum_{i=1}^{n}(p_i-y_i)x_i ∂w∂L=−n1i=1∑n(piyi−1−pi1−yi)∂w∂pi=n1i=1∑n(pi−yi)xi
同理,可得:
∂ L ∂ b = − 1 n ∑ i = 1 n ( y i p i − 1 − y i 1 − p i ) ∂ p i ∂ b = 1 n ∑ i = 1 n ( p i − y i ) \frac{\partial L}{\partial b}=-\frac1n\sum_{i=1}^n(\frac{y_i}{p_i}-\frac{1-y_i}{1-p_i})\frac{\partial p_i}{\partial b}=\frac1n\sum_{i=1}^n(p_i-y_i) ∂b∂L=−n1i=1∑n(piyi−1−pi1−yi)∂b∂pi=n1i=1∑n(pi−yi)
基于梯度下降的逻辑回归迭代规则,给定初始值 w 1 , b 1 : w_1,b_1\colon w1,b1:
{ w t + 1 = w t − α n ∑ i = 1 n ( p i ( t ) − y i ) x i b t + 1 = b t − α n ∑ i = 1 n ( p i ( t ) − y i ) \begin{cases} w_{t+1}=w_t-\frac{\alpha}{n}\sum_{i=1}^n(p_i^{(t)}-y_i)x_i \\\\ b_{t+1}=b_t-\frac{\alpha}{n}\sum_{i=1}^n(p_i^{(t)}-y_i) \end{cases} ⎩ ⎨ ⎧wt+1=wt−nα∑i=1n(pi(t)−yi)xibt+1=bt−nα∑i=1n(pi(t)−yi)
其中,
p i ( t ) = 1 1 + exp ( − ( ⟨ w t , x i ⟩ + b t ) ) p_i^{(t)}=\frac1{1+\exp(-(\langle w_t,x_i\rangle+b_t))} pi(t)=1+exp(−(⟨wt,xi⟩+bt))1
import numpy as np
def sigma_fun(z):
z = z.astype('float')
z_ravel = z.ravel() # 将 numpy 数组展平
length = len(z_ravel)
ls = []
for index in range(length):
if z_ravel[index] >= 0:
ls.append(1.0 / (1 + np.exp(-z_ravel[index])))
else:
ls.append(np.exp(z_ravel[index]) / (np.exp(z_ravel[index]) + 1))
return np.array(ls).reshape(z.shape)
def cross_entropy(y, p):
return -(y * np.log(p + 0.0000001) + (1 - y) * np.log(1 - p + 0.0000001))
def gradient_descent(X, y, W, b, alpha, t):
for i in range(t):
z = np.dot(X, W) + b
p = sigma_fun(z)
loss = cross_entropy(y, p)
print('第 {} 次迭代的权重参数为:{}'.format(i, W.round(6).tolist()))
print('第 {} 次迭代的偏置参数为:{}'.format(i, b))
print('第 {} 次迭代的平均损失为:{}'.format(i, np.mean(loss).round(6)))
nablaLW = np.sum((p - y) * X, axis=0).reshape(X.shape[1], 1)
W = W - (alpha / X.shape[0]) * nablaLW
nablaLb = np.sum(p - y)
b = b - (alpha / X.shape[0]) * nablaLb
print('第 {} 次迭代的梯度参数 W 为:{}'.format(i, nablaLW.round(6).tolist()))
print('第 {} 次迭代的梯度参数 b 为:{}\n'.format(i, nablaLb))
X = np.array([[0.5, 1], [1, 2], [-0.2, 1], [1, -3]])
y = np.array([[0], [1], [1], [0]])
b = -1
W = np.ones((X.shape[1], 1))
alpha = 0.5
print('步长 α 为:{}\n'.format(alpha))
gradient_descent(X, y, W, b, alpha, 6)
# output
步长 α 为:0.5
第 0 次迭代的权重参数为:[[1.0], [1.0]]
第 0 次迭代的偏置参数为:-1
第 0 次迭代的平均损失为:0.486933
第 0 次迭代的梯度参数 W 为:[[0.349419], [-0.308058]]
第 0 次迭代的梯度参数 b 为:0.0008482850448257445
第 1 次迭代的权重参数为:[[0.956323], [1.038507]]
第 1 次迭代的偏置参数为:-1.0001060356306033
第 1 次迭代的平均损失为:0.480379
第 1 次迭代的梯度参数 W 为:[[0.345769], [-0.265492]]
第 1 次迭代的梯度参数 b 为:0.013170440015569933
第 2 次迭代的权重参数为:[[0.913102], [1.071694]]
第 2 次迭代的偏置参数为:-1.0017523406325495
第 2 次迭代的平均损失为:0.474592
第 2 次迭代的梯度参数 W 为:[[0.341829], [-0.232955]]
第 2 次迭代的梯度参数 b 为:0.02239339071628172
第 3 次迭代的权重参数为:[[0.870373], [1.100813]]
第 3 次迭代的偏置参数为:-1.0045515144720847
第 3 次迭代的平均损失为:0.469342
第 3 次迭代的梯度参数 W 为:[[0.337668], [-0.207736]]
第 3 次迭代的梯度参数 b 为:0.02924657055932656
第 4 次迭代的权重参数为:[[0.828164], [1.12678]]
第 4 次迭代的偏置参数为:-1.0082073357920005
第 4 次迭代的平均损失为:0.464489
第 4 次迭代的梯度参数 W 为:[[0.333348], [-0.187982]]
第 4 次迭代的梯度参数 b 为:0.03428385214987886
第 5 次迭代的权重参数为:[[0.786496], [1.150278]]
第 5 次迭代的偏置参数为:-1.0124928173107353
第 5 次迭代的平均损失为:0.459943
第 5 次迭代的梯度参数 W 为:[[0.328922], [-0.172379]]
第 5 次迭代的梯度参数 b 为:0.03792999829875388
from sklearn.linear_model import LogisticRegression as LR
import pandas as pd
import numpy as np
X = np.array([[0.5, 1], [1, 2], [-0.2, 1], [1, -3]])
y = np.array([0, 1, 1, 0])
lr = LR()
lr.fit(X, y)
predicted = lr.predict(X)
print('预测值:', predicted)
Accuracy = ((predicted == y).sum() / len(y))
print('准确率:', Accuracy)
TP = sum((y == 1) & (predicted == 1))
FP = sum((y == 0) & (predicted == 1))
Precision = TP / (TP + FP)
print('精确率:', round(Precision, 3))
Recall = ((predicted == y).sum() / y.sum()).round(3)
print('召回率:', Recall)
F1 = 2 * Precision * Recall / (Precision + Recall)
print('F1 score值:', round(F1, 3))
# output
预测值: [1 1 1 0]
得分: 0.75
准确率: 0.75
精确率: 0.667
召回率: 1.5
F1 score值: 0.923