2020-4-7 深度学习笔记17 - 蒙特卡罗方法 5 ( 不同的峰值之间的混合挑战)

第十七章 蒙特卡罗方法

中文
英文

2020-4-4 深度学习笔记17 - 蒙特卡罗方法 1 (采样和蒙特卡罗方法-必要性和合理性)
2020-4-4 深度学习笔记17 - 蒙特卡罗方法 2 ( 重要采样–采样数量一定,提高准确度,减少方差)
2020-4-5 深度学习笔记17 - 蒙特卡罗方法 3 ( 马尔可夫链蒙特卡罗方法MCMC-先验分布/后验分布/似然估计,马尔可夫性质)
2020-4-6 深度学习笔记17 - 蒙特卡罗方法 4 ( Gibbs采样–含随机模拟归类,磨合)

不同的峰值之间的混合挑战

使用MCMC方法的主要难点在于马尔可夫链的混合通常不理想
在理想情况下,从设计好的马尔可夫链中采出的连续样本之间是完全独立的,而且在 x x x空间中,马尔可夫链会按概率大小访问许多不同区域。

然而,MCMC方法采出的样本可能会具有很强的相关性,尤其是在高维的情况下。 我们把这种现象称为慢混合甚至混合失败

在马尔可夫链的状态空间中,从x(t−1)到x(t)该链倾向于选取很小的步长,能量E(x(t))通常低于或近似等于E(x(t−1))。一旦该链找到低能量的区域,我们称为峰值,链倾向于围绕这个峰值游走,链会时不时走出峰值,但是通常结果会返回这个峰值或者移动向另一个峰值,所以马尔可夫链将在一个峰值附近抽取远超过需求的样本

当我们考虑Gibbs采样算法时,这种现象格外明显。

在更实际的问题中,这种挑战更加艰巨因为在实际问题中我们不能仅仅关注在两个峰值之间的转移,更要关注在多个峰值之间的转移。如果由于峰值之间混合困难,而导致某几个这样的转移难以完成,那么得到一些可靠的覆盖大部分峰值的样本集合的计算代价是很高的,同时马尔可夫链收敛到它的平稳分布的过程也会非常缓慢。

一些加速混合的方法是构造一个概率分布代替目标分布,这个分布峰值没有那么高,峰值周围低谷也没有那么低:
p β ( x ) ∝ e x p ( − β E ( x ) ) p_β(x)∝exp(−βE(x)) pβ(x)exp(βE(x))
其中,β可以理解为温度的倒数,反映了基于能量的模型的统计物理学起源。

  • 当温度趋近于0时,β趋近无穷大,此时基于能量的模型是确定性的。
  • 当温度趋近于无穷大时,β趋近于0,基于能量的模型成了均匀分布。

基于回火转移(tempered transition)的马尔可夫链临时从高温度的分布中采样使其在不同峰值之间混合,然后继续从单位温度的分布中采样。

尽管存在混合的难点,蒙特卡罗技术仍然是一个有用的工具,通常也是最好的可用工具。事实上,在遇到难以处理的无向模型中的配分函数时,蒙特卡罗方法仍然是最主要的工具。

你可能感兴趣的:(深度学习,IT)