机器学习: 逻辑回归

概念与定义

逻辑回归是一种用于分类问题的统计方法。它通过计算目标变量的概率来预测类别归属,并假设数据服从伯努利分布(二分类)或多项式分布(多分类)。逻辑回归模型输出的是概率值,通常使用sigmoid函数将线性组合映射到0和1之间。

1. 概念

逻辑回归用于解决分类问题,特别是二分类问题。它通过估计输入变量与目标变量之间的关系来预测目标变量的类别。

2. 定义

逻辑回归是一种广义线性模型,其核心思想是将线性组合通过sigmoid函数转换为概率值,从而确定样本属于某一类的概率有多大。

基本形式为:
P ( y = 1 ∣ x ) = 1 1 + e − ( w T x + b ) P(y=1|x) = \frac{1}{1 + e^{-(w^T x + b)}} P(y=1∣x)=1+e(wTx+b)1
其中:

  • w w w 是权重向量
  • x x x 是输入特征向量
  • b b b 是偏置项
  • w T x w^Tx wTx表示权重与特征的点积

参数调优方法

在训练逻辑回归模型时,需要选择合适的参数以优化模型性能。以下是常见的参数调优方法:

1. 最大似然估计(MLE)

逻辑回归通常使用最大似然估计来优化参数。目标是最小化对数损失函数,使得模型能够最大化观测数据的概率。
假设我们有一个训练集 { ( x ( i ) , y ( i ) ) } i = 1 m \{ (x^{(i)}, y^{(i)}) \}_{i=1}^m {(x(i),y(i))}i=1m,其中 ( x ( i ) x^{(i)} x(i) ) 是输入特征向量,( y ( i ) y^{(i)} y(i) ) 是目标变量(二分类:0或1)。

逻辑回归模型的预测概率为:
P ( y = 1 ∣ x ; θ ) = 1 1 + e − θ T x P(y = 1 | x; \theta) = \frac{1}{1 + e^{-\theta^T x}} P(y=1∣x;θ)=1+eθTx1
其中 ( θ \theta θ ) 是参数向量,( θ T x \theta^T x θTx ) 是线性组合。

对数似然函数(目标函数)为:
L ( θ ) = ∑ i = 1 m [ y ( i ) log ⁡ h θ ( x ( i ) ) + ( 1 − y ( i ) ) log ⁡ ( 1 − h θ ( x ( i ) ) ) ] L(\theta) = \sum_{i=1}^{m} \left[ y^{(i)} \log h_\theta(x^{(i)}) + (1 - y^{(i)}) \log (1 - h_\theta(x^{(i)})) \right] L(θ)=

你可能感兴趣的:(人工智能,机器学习,逻辑回归,人工智能)