机器学习补差(1):EM算法

高斯混合模型(GMM)

在生成式模型中,需要求给定数据X分布的概率密度函数p(X|θ)。直观的方法是,假设模型参数θ是确定的,将数据X的概率密度函数写成关于θ的函数,该函数视作给定数据X下,关于参数θ的极大似然函数。在该极大似然函数中,对θ求偏导解出θ的值。但通常X的概率密度函数较为复杂,往往不能显式表出。这就引出了隐变量z的概念。一个复杂的分布函数,可以由多个简单分布复合而成。例如对于某一维随机变量X来说,其概率密度函数如下图黑线所示:
机器学习补差(1):EM算法_第1张图片
这个密度函数无法用一个具体的表达式表出,一个常见的思想是用图中所示的三条红色轨迹复合成黑线所示的密度函数,每条红色轨迹可以看作X分布密度函数的子分布密度函数,所有子分布密度函数复合就成了X的分布密度函数,这个就是GMM的核心思想之一。

EM算法

机器学习补差(1):EM算法_第2张图片

一个例子

在这里插入图片描述
机器学习补差(1):EM算法_第3张图片

机器学习补差(1):EM算法_第4张图片
在这里插入图片描述

你可能感兴趣的:(机器学习,机器学习,算法,人工智能)