MSE=MLE, 似然函数和极大似然估计的关系

MSE=MLE

  • MSE=MLE
  • 似然函数
  • 似然函数和极大似然估计的关系

MSE=MLE

在线性回归中,当误差(或残差)被假设为正态分布时,最小均方误差(MSE)的最小化与最大似然估计(MLE)是等价的。
为了理解这一点,让我们从最大似然估计开始:[下面的 β \beta β其实就是我们平时常用的符号 θ \theta θ,即要学习的参数]

考虑一个简单的线性回归模型:
y = β 0 + β 1 x + ϵ y = \beta_0 + \beta_1 x + \epsilon y=β0+β1x+ϵ
其中, ϵ \epsilon ϵ是误差项,并假设它遵循正态分布,即: ϵ ∼ N ( 0 , σ 2 ) \epsilon\sim\mathcal{N}(0,\sigma^2) ϵN(0,σ2)
这意味着给定输入 x x x 和参数 β 0 , β 1 \beta_0, \beta_1 β0,β1 ,输出 y y y 的条件概率分布是:
y ∣ x ∼ N ( β 0 + β 1 x , σ 2 ) y \mid x \sim N\left(\beta_0+\beta_1 x, \sigma^2\right) yxN(β0+β1x,σ2)

因此,对于给定的数据点 ( x i , y i ) \left(x_i, y_i\right) (xi,yi) ,似然函数为:
L ( β 0 , β 1 , σ 2 ∣ x i , y i ) = 1 2 π σ 2 e − ( y i − β 0 − β 1 x i ) 2 2 σ 2 L\left(\beta_0, \beta_1, \sigma^2 \mid x_i, y_i\right)=\frac{1}{\sqrt{2 \pi \sigma^2}} e^{-\frac{\left(y_i-\beta_0-\beta_1 x_i\right)^2}{2 \sigma^2}} L(β0,β1,σ2xi,yi)=2πσ2 1e2σ2(yiβ0β1xi)2

总体似然函数为所有数据点的乘积:
L ( β 0 , β 1 , σ 2 ) = ∏ i = 1 n L ( β 0 , β 1 , σ 2 ∣ x i , y i ) L\left(\beta_0, \beta_1, \sigma^2\right)=\prod_{i=1}^n L\left(\beta_0, \beta_1, \sigma^2 \mid x_i, y_i\right) L(β0,β1,σ2)=i=1nL(β0,β1,σ2xi,yi)

通常,为了方便计算,我们考虑对数似然函数 (log-likelihood) :
log ⁡ L ( β 0 , β 1 , σ 2 ) = − n 2 log ⁡ ( 2 π σ 2 ) − 1 2 σ 2 ∑ i = 1 n ( y i − β 0 − β 1 x i ) 2 \log L\left(\beta_0, \beta_1, \sigma^2\right)=-\frac{n}{2} \log \left(2 \pi \sigma^2\right)-\frac{1}{2 \sigma^2} \sum_{i=1}^n\left(y_i-\beta_0-\beta_1 x_i\right)^2 logL(β0,β1,σ2)=2nlog(2πσ2)2σ21i=1n(yiβ0β1xi)2

为了最大化对数似然函数,我们需要最小化 ∑ i = 1 n ( y i − β 0 − β 1 x i ) 2 \sum_{i=1}^n\left(y_i-\beta_0-\beta_1 x_i\right)^2 i=1n(yiβ0β1xi)2 ,这正是最小均方误差。

似然函数

似然函数是一个统计概念,用于描述在给定某些参数下观察到数据的可能性 (或"似然")。它是一种衡量模型与观测数据匹配程度的方法。

具体来说,假设我们有一个概率模型,它由一组参数 θ \boldsymbol{\theta} θ 定义,并且我们有一些观察到的数据 X \boldsymbol{X} X 。似然函数 L ( θ ∣ X ) L(\boldsymbol{\theta} \mid \boldsymbol{X}) L(θX) 表示在给定参数 θ \boldsymbol{\theta} θ 的情况下,观察到数据 X \boldsymbol{X} X 的可能性。

数学上,如果 p ( X ∣ θ ) p(\boldsymbol{X} \mid \boldsymbol{\theta}) p(Xθ) 是在给定参数 θ \boldsymbol{\theta} θ 下数据 X \boldsymbol{X} X 的概率分布,则似然函数可以表示为: L ( θ ∣ X ) = p ( X ∣ θ ) L(\boldsymbol{\theta} \mid \boldsymbol{X})=p(\boldsymbol{X} \mid \boldsymbol{\theta}) L(θX)=p(Xθ)

值得注意的是,虽然似然函数和概率函数在形式上看起来相似,但它们的解释和用途是不同的。概率函数描述了在给定参数下观察到某一特定数据的概率; 而似然函数描述的是在观察到某一特定数据时,不同参数的可能性或相对合理性。

在统计学中,最大似然估计 (MLE) 是一种常用的方法,它的目标是找到一组参数 θ \boldsymbol{\theta} θ ,使得似然函数达到最大值,即这组参数最能解释观察到的数据。

似然函数 L ( θ ∣ X ) L(\theta|X) L(θX)是参数 θ \theta θ的函数。给定观察到的数据 X X X,似然函数描述的是在不同的参数 θ \theta θ值下产生这些观测数据的“可能性”或“似然度”。简单来说,似然函数就是表示当参数为 θ \theta θ时,观测数据 X X X出现的概率。

似然函数和极大似然估计的关系

当然可以,让我们通过一个简单的例子来解释似然函数和极大似然估计 (MLE) 之间的关系。

例子:抛硬币
假设我们有一个可能是不均匀的硬币,并且我们想要估计这个硬币正面朝上的概率 p p p 。我们抛这个硬币10次,并观察到了7次正面和3次反面。

  1. 似然函数:

似然函数描述了给定一个特定的 p p p (硬币正面朝上的概率),观察到当前数据(7次正面和3 次反面) 的“可能性”或“似然”。

假设每次抛硬币都是独立的,那么观察到7次正面和3次反面的概率是:
L ( p ) = p 7 ( 1 − p ) 3 L(p)=p^7(1-p)^3 L(p)=p7(1p)3

这就是似然函数。注意,这个函数是关于 p p p 的,表示在不同的 p p p 值下,观察到这个特定结果的可能性。
2. 极大似然估计 (MLE):

MLE 的目的是找到一个 p p p 的值,使得上面的似然函数 L ( p ) L(p) L(p) 最大。换句话说,我们想找到一个 p p p 的值,使得在这个 p p p 下,观察到7次正面和3次反面的可能性最大。

为了找到这个值,我们可以对似然函数求导,并找到导数为 0 的点。具体来说,我们通常对对数似然函数求导,因为对数函数可以将乘法转化为加法,使得计算更简单。

当我们求解这个问题时,会发现最大似然估计的结果为:
p ^ M L E = 7 10 = 0.7 \hat{p}_{M L E}=\frac{7}{10}=0.7 p^MLE=107=0.7

这意味着,根据我们的观测数据,最有可能的硬币正面朝上的概率是0.7。
总结一下,似然函数描述了在给定模型参数时,观察到某一特定数据的可能性,而极大似然估计是一种方法,用于找到使似然函数最大的模型参数值。在这个例子中,模型参数就是硬币正面朝上的概率 p p p

你可能感兴趣的:(概率论,机器学习,python)