《统计学习方法》—— 9. EM 算法(Python 实现)

本文主要是在阅读过程中对本书的一些概念摘录,包括一些个人的理解,主要是思想理解不涉及到复杂的公式推导。会不定期更新,若有不准确的地方,欢迎留言指正交流

本文完整代码 github 地址:https://github.com/anlongstory/awsome-ML-DL-leaning/lihang-reading_notes(欢迎 Star )

第 9 章 EM 算法

在统计学中,似然函数(likelihood function,通常简写为likelihood,似然)是一个非常重要的内容,在非正式场合似然和概率(Probability)几乎是一对同义词,但是在统计学中似然和概率却是两个不同的概念。概率是在特定环境下某件事情发生的可能性,也就是结果没有产生之前依据环境所对应的参数来预测某件事情发生的可能性,比如抛硬币,抛之前我们不知道最后是哪一面朝上,但是根据硬币的性质我们可以推测任何一面朝上的可能性均为50%,这个概率只有在抛硬币之前才是有意义的,抛完硬币后的结果便是确定的;而似然刚好相反,是在确定的结果下去推测产生这个结果的可能环境(参数),还是抛硬币的例子,假设我们随机抛掷一枚硬币1,000次,结果500次人头朝上,500次数字朝上(实际情况一般不会这么理想,这里只是举个例子),我们很容易判断这是一枚标准的硬币,两面朝上的概率均为50%,这个过程就是我们运用出现的结果来判断这个事情本身的性质(参数),也就是似然。

EM 算法

EM 算法是一种迭代算法,用于就含有隐形变量的概率模型参数的极大似然估计,或极大后验概率估计。 EM 算法的每次迭代由两步构成:E步,求期望(expectation);M 步,求极大(maximization)。所以这一算法称为期望极大算法,简称 EM 算法。

一般的,观测随机变量的数据 Y(不完全数据) + 隐随机变量的数据 Z = 完全数据

Q函数:完全数据的对数似然函数logP(Y,Z|θ) 关于给定观测数据 Y 和当前参数 θ(i) 下读未观测数据 Z 的条件分布概率 P(Z|Y,θ(i)) 的期望称为 Q 函数。

EM算法步骤:

    1. E 步求 Q(θ,θ(i))
    1. M 步求 Q(θ,θ(i))的极大化,由此得到参数 θ(i+1),完成迭代 θ(i) -> θ(i+1)
    1. 设置迭代终止条件,若满足条件,则停止迭代

EM 算法不能保证找到的是全局最优解。 其结果与初值的选择有关,选择不同初值,可能得到不同的参数估计值。所以一般 EM 算法的常用方法是选择几个不同初值进行迭代,从中选择最好的。

EM 算法的应用

  • 监督学习
  • 生成模型的非监督学习(隐马尔可夫模型)
  • 混合高斯模型(GMM)的参数估计

相关阅读:

《统计学习方法》—— 1. 统计学习方法概论(Python实现)
《统计学习方法》—— 2. 感知器(Python实现)
《统计学习方法》—— 3. K近邻法(Python实现)
《统计学习方法》—— 4. 朴素贝叶斯(Python实现)
《统计学习方法》—— 5. 决策树(Python实现)
《统计学习方法》—— 6. 逻辑斯特回归与最大熵模型(Python实现)
《统计学习方法》—— 7. 支持向量机(Python实现)
《统计学习方法》—— 8. 提升方法 (Python实现)
《统计学习方法》——10. 隐马尔可夫模型(Python实现)
《统计学习方法》—— 11. 条件随机场

你可能感兴趣的:(读书笔记)