Gumbel softmax trick pytorch(快速理解附代码)

也可查看我的知乎: Gumbel softmax trick (快速理解附代码)

(一)目的

在深度学习中,对某一个离散随机变量 X X X进行采样,并且又要保证采样过程是可导的(因为要用梯度下降进行优化,并且用BP进行权重更新),那么就可以用Gumbel softmax trick。属于重参数技巧(re-parameterization)的一种。

首先我们要介绍,什么是Gumbel distribution,然后再介绍怎么用到梯度下降中,最后用pytorch实现它。

(二)什么是Gumbel distribution?

一种极值分布(或者叫做Fisher-Tippett extreme value distributions),顾名思义就是用来研究极值(极大值,或者极小值)的一种概率分布形式。和别的一些分布形式一样,给定一个描述分布的公式,然后再给定公式中的某些参数,那么就确定了这个分布。

(本质就是想用数学语言或公式来逼近或解释现实世界观察到的现象,比如自然界很多现象可以用正太分布来描述,自然地,也存在一些自然现象,要用极值分布来描述。)

举个简单的例子: 某高中三年级一共有16个班,现在从每个班级里面抽出30人(假设全为男生或者全为女生),那么现在总共有16组30人的样本。如果看每组样本里面的身高分布大概率是服从正态分布的。现在,从每组样本里面挑出身高最高的人,将这些人再组成一个新样本集合,也就是现在这个样本集合有16个人,那么这16个人的样本集合就是服从的Gumbel 分布(极大值 Gumbel distribution,当然也有极小值 Gumbel distribution)。

下面定义极大值的Gumbel distribution。

CDF:

F ( x ; μ , β ) = e − e − ( x − μ ) β F(x;\mu,\beta)=e^{-e^{- \frac {(x-\mu)}{\beta}}} F(x;μ,β)=eeβ(xμ)

PDF:

f ( x ) = ∂ F ∂ x = 1 β e − ( z + e − z ) , f(x)=\frac{\partial F}{\partial x}=\frac{1}{\beta}e^{-(z+e^{-z})}, f(x)=xF=β1e(z+ez),
where z = x − μ β z=\frac{x-\mu}{\beta} z=βxμ.

标准Gumbel 分布:

即, μ = 0 , β = 1 \mu=0, \beta=1 μ=0,β=1, 则CDF为:
F ( x ; μ = 0 , β = 1 ) = F ( x ) = e − e − ( x ) F(x;\mu=0,\beta=1)=F(x)=e^{-e^{-(x)}} F(x;μ=0,β=1)=F(x)=ee(x)

函数图像:

(三)什么是Gumbel softmax trick?

Gumbel分布描述了自然界或者说人造的某种数据(其实也是自然界吧,毕竟人也是自然的一部分。)的极值分布的 “规律”(分布其实只是认识”规律“的一种方式)。所以自然地,我们之所以会用到Gumbel分布,就是因为我们要处理的数据中,存在极值分布(~废话)。

考虑如下场景:

对一个离散随机变量 X \mathbf{X} X进行采样,随机变量的取值范围为 { 1 , 2 , . . . , K } \{1,2,...,K\} {1,2,...,K}。首先要知道随机变量的分布函数,这里假设用MLP学习一个K维的向量: h ∈ R K \mathbf{h} \in \mathbb{R}^K hRK

(假如是直接做inference的话,不考虑概率意义,那么我们直接取这个向量元素最大值的下标当做预测的离散变量值就可以了,即, X i = arg ⁡ max ⁡ i h i X_i = \arg\max_i h_i Xi=argmaxihi.,但我们希望的是预测的离散变量具有概率意义,或者说得到的多个预测值的经验分布符合理论的概率分布。否则的话就是deterministic的,会导致某些小概率的变量值根本取不到,进而影响后续的任务。)

所以,我们需要赋予概率意义。通常,我们可以用softmax函数作用到 h \mathbf{h} h求得一个符合概率意义的新概率向量,即:
p i = s o f t m a x ( h , h i ) = e x p ( h i ) ∑ i e x p ( h i ) . p_i=softmax(h,h_i)=\frac{exp(h_i)}{\sum_i exp(h_i)}. pi=softmax(h,hi)=iexp(hi)exp(hi).
这样我们就获得了各个离散取值的概率分布 p ∈ [ 0 , 1 ] K \mathbf{p} \in [0,1]^K p[0,1]K,其中 p i = P r { X i = i } p_i=Pr\{X_i=i\} pi=Pr{Xi=i}。这里 p \mathbf{p} p是一个在K维simplex中的一个向量。

到这里,我们得到了 X X X的概率分布,如果要直接得到离散变量,直接取 X i = arg ⁡ max ⁡ i p i X_i = \arg\max_i p_i Xi=argmaxipi即可。(注意,这里每次inference的时候,取了最大值,是不是和Gumbel分布的含义很像了。)

问题是我们需要的是采样,也就是生成的多个样本的频率分布要符合其理论的概率分布。另外,可以开始考虑,是否能够将求导采样这两个操作解耦。

如果知道一些reparameterization trick的技巧,很容易想到,我们只需要将 p \mathbf{p} p加上一个要学习的参数无关(即无需进行求导)的某个随机变量 g \mathbf{g} g,那么采样过程就可以通过 g \mathbf{g} g进行(曲线救国了算是),这样做相当于把求导采样解耦了。这里,只需要保证结合后的分布,与原分布 p \mathbf{p} p相等或近似即可。

接下来就是与服从Gumbel分布的随机变量 g \mathbf{g} g结合:

X i = arg ⁡ max ⁡ i ( log ⁡ ( p i ) + g i ) X_i = \arg \max_i (\log(p_i) + g_i) Xi=argimax(log(pi)+gi)
这里 g i g_i gi是一个提前采样好的标准Gumbel分布序列。通过这种方法,理论上可以证明,这个新随机变量的分布函数和原分布函数相等。证明见:。。

但这样的问题在于 arg ⁡ max ⁡ ( ) \arg\max () argmax()不可导,导致无法使用梯度下降来更新参数。所以一种办法是将随机变量的取值从 1 , . . . , K {1,...,K} 1,...,K变为用一个K维的one_hot向量编码来表示。比如,本来取 X i = i X_i=i Xi=i,现如果用one_hot来表示的话,就是 X i = ( 0 , . . . , 1 , . . . , 0 ) X_i = (0,...,1,...,0) Xi=(0,...,1,...,0),也就是第 i i i个下标的值为1,其它都为0,我们记第 i i i个下标的值为 y i y_i yi。那么我们就可以用softmax函数来近似这个one_hot向量:

y i = exp ⁡ ( ( log ⁡ ( p i ) + g i ) / τ ) ∑ k = 1 K exp ⁡ ( ( log ⁡ ( p k ) + g k ) / τ ) y_i = \frac{\exp((\log(p_i) + g_i)/\tau)}{\sum_{k=1}^K\exp((\log(p_k) + g_k)/\tau)} yi=k=1Kexp((log(pk)+gk)/τ)exp((log(pi)+gi)/τ)
这里的 τ \tau τ被叫做温度系数,或者说是一个缩放因子。一般来说, τ < 1 \tau < 1 τ<1,想象一下以 e e e为底的指数分布图像,可以发现,如果 τ \tau τ越小,指数的值 e ( x / τ ) 越 大 , 简 记 x = l o g ( p i ) + g i e^{(x/\tau)}越大,简记x=log(p_i)+g_i e(x/τ)x=log(pi)+gi。也就是说,这个 τ \tau τ存在的意义就是让本来大的 x x x越大,所以会导致 y i y_i yi越接近1,并且 ∀ j ≠ i , y j \forall j \neq i, y_j j=i,yj会接近0,所以 X i X_i Xi就更接近一个one_hot表示。
图片来源于文章[7]:Gumbel softmax trick pytorch(快速理解附代码)_第1张图片

(四)如何生成Gumbel分布的样本

最后一步,就是如何生成Gumbel 分布的样本,即,如何产生 g i g_i gi

这里使用最常见的一种方法也就是inverse CDF method。先求出Gumbel的CDF函数 F ( x ; μ , β ) F(x;\mu,\beta) F(x;μ,β)的反函数 x = F − 1 ( y ; μ , β ) = μ − β ln ⁡ ( − ln ⁡ y ) x = F^{-1}(y;\mu,\beta)=\mu - \beta \ln(- \ln y) x=F1(y;μ,β)=μβln(lny)(根据CDF的公式: y = F ( x ; μ , β ) y=F(x;\mu,\beta) y=F(x;μ,β),把y和x反过来表示就可),然后只要生成 y ∼ U n i f o r m ( 0 , 1 ) y \sim Uniform(0,1) yUniform(0,1)的均匀分布的序列,那么相应的 x x x就服从Gumbel分布, x ∼ G u m b e l ( μ , β ) x \sim Gumbel(\mu, \beta) xGumbel(μ,β),也即, x x x的CDF函数为原来的 F ( x ) F(x) F(x)证明如下:
P ( F − 1 ( y ) ≤ x ) = P ( y ≤ F ( x ) ) = ∫ 0 F ( x ) p d f ( y ) d y = ∫ 0 F ( x ) 1 d y = F ( x ) P(F^{-1}(y) \leq x)= P(y \leq F(x))=\int_0^{F(x)}pdf(y)dy=\int_0^{F(x)}1dy=F(x) P(F1(y)x)=P(yF(x))=0F(x)pdf(y)dy=0F(x)1dy=F(x)


到这里我们就可以通过以上的公式进行采样了。

(五)pytorch实现

下面用pytorch实现一下上面描述的采样过程。

# Gumbel softmax trick:

import torch
import torch.nn.functional as F
import numpy as np

def inverse_gumbel_cdf(y, mu, beta):
    return mu - beta * np.log(-np.log(y))

def gumbel_softmax_sampling(h, mu=0, beta=1, tau=0.1):
    """
    h : (N x K) tensor. Assume we need to sample a NxK tensor, each row is an independent r.v.
    """
    shape_h = h.shape
    p = F.softmax(h, dim=1)
    y = torch.rand(shape_h) + 1e-25  # ensure all y is positive.
    g = inverse_gumbel_cdf(y, mu, beta)
    x = torch.log(p) + g  # samples follow Gumbel distribution.
    # using softmax to generate one_hot vector:
    x = x/tau
    x = F.softmax(x, dim=1)  # now, the x approximates a one_hot vector.
    return x

N = 10  # 假设 有N个独立的离散变量需要采样
K = 3   # 假设 每个离散变量有3个取值
h = torch.rand((N, K))  # 假设 h是由一个神经网络输出的tensor。

mu = 0
beta = 1
tau = 0.1

samples = gumbel_softmax_sampling(h, mu, beta, tau)

References

  1. https://mathworld.wolfram.com/GumbelDistribution.html
  2. https://www.itl.nist.gov/div898/handbook/eda/section3/eda366g.htm
  3. https://en.wikipedia.org/wiki/Fisher%E2%80%93Tippett%E2%80%93Gnedenko_theorem
  4. https://en.wikipedia.org/wiki/Gumbel_distribution
  5. https://www.cnblogs.com/initial-h/p/9468974.html
  6. https://arxiv.org/pdf/1611.04051.pdf
  7. https://arxiv.org/abs/1611.01144

你可能感兴趣的:(数学,算法,机器学习,深度学习,概率论)