2.2 logistic 回归

2.2 logistic 回归_第1张图片

逻辑回归是一个监督学习,输出是0或1.逻辑回归的目标是最小化预测值和训练集之间的误差.
比如在判断图片时.
G i v e n x , y ^ = P ( y = 1 ∣ x ) , w h e r e 0 ≤ y ^ ≤ 1 Given x,\hat{y} =P(y = 1|x),where 0 \leq \hat{y} \leq 1 Givenx,y^=P(y=1x),where0y^1

x ∈ R n x x \in R^{n_x} xRnx, n x n_x nx是特征的数量
y ∈ 0 , 1 y \in 0,1 y0,1 训练的标签
w ∈ R n x w \in R^{n_x} wRnx, n x n_x nx是特征的数量
b ∈ R b \in R bR是偏置
y ^ = σ ( w T x + b ) \hat{y} = \sigma(w^Tx+b) y^=σ(wTx+b) 预测结果
s = σ ( w T x + b ) = σ ( z ) = 1 1 + e − z s=\sigma(w^Tx+b)=\sigma(z)=\frac{1}{1+e^{-z}} s=σ(wTx+b)=σ(z)=1+ez1

w T x + b w^Tx+b wTx+b是线性方程 ( a x + b ) (ax+b) (ax+b),因为我们要找的是[0,1]之间的概率,所以会使用sigmoid函数.

你可能感兴趣的:(人工神经网络,神经网络)