GAN的Loss的比较研究(3)——Wasserstein Loss理解(1)

前两篇文章讨论了传统GAN的Loss,该Loss有些不足的地方,导致了GAN的训练十分困难,表现为:1、模式坍塌,即生成样本的多样性不足;2、不稳定,收敛不了。Martin Arjovsky在《Towards principled methods for training generative adversarial networks》、《Wasserstein GAN》文章中,对传统Loss造成训练困难的原因进行了讨论:因为真实样本的概率分布 r P r 与生成器生成的样本概率分布 g P g 的支撑集不同,又由于两者的流型(Manifold)的维度皆小于样本空间的维度,因而两者的流型基本上是不可能完全对齐的,因而即便有少量相交的点,它们在两个概率流型上的测度为0,可忽略,因而可以将两个概率的流型看成是可分离的,因而若是一个最优的判别器去判断则一定可以百分百将这两个流型分开,即无论我们的生成器如何努力皆获得不了分类误差的信息,这便是GAN训练困难的重要原因,有一篇博文(《令人拍案叫绝的Wasserstein GAN》)对上述两篇文章做了深入浅出的解释,总结一下是:
用KL Divergence和JS Divergence作为两个概率的差异的衡量,最关键的问题是若两个概率的支撑集不重叠,就无法让那个参数化的、可移动的概率分布慢慢地移动过来,以拟合目标分布。
于是文章提出一种新的Loss定义,即Wasserstein Distance,它可以作为两个概率分布的距离衡量指标,其定义如下:

W(r,g)=infγΠ(r,g)E(x,y)γ[xy](1) W ( P r , P g ) = inf γ ∈ Π ( P r , P g ) E ( x , y ) ∼ γ [ ‖ x − y ‖ ] ( 1 )

W(r,g) W ( P r , P g ) 是概率分布 r,g P r , P g 的距离,它是两个在同一空间上(即维度相同)的随机变量x,y之差的范数均值的下确界。假设 r P r r P r 都是 d R d 上的概率分布,则两个空间相乘,构成 d×d R d × d 概率空间,在此空间中,找出所有在 d R d 边界分布为 r P r 和在另外一边 d R d 边界分布为 r P r 的所有分布,它们构成一个集合,即 Π(r,g) Π ( P r , P g ) 。在此集合中,我们任意抽取一个元素,即 γ γ ,它是一个在 d×d R d × d 上的分布,由它抽样出的样本,皆在 d×d R d × d 上,这些样本点分别投影在两个互补的 d R d 边界上,就是x和y,取其差的范数求平均,即可得到一个值W。最后,在不同 γ γ 分布下,求出W的下界,即是Wasserstein Distance。
该距离的优点是:
1、若两个概率分布完全重合时, W(r,g)=0 W ( P r , P g ) = 0
2、是对称的,KL Divergence不对称
3、即使两个分布的支撑不相交,亦可以衡量,并在满足一定条件下可微,具备了后向传输的能力。
但式(1)不能直接计算,因为我们无法得到所有 Π(r,g) Π ( P r , P g ) ,因而需要另辟蹊径,《Wasserstein GAN》(完整的证明在《Optimal Transport: Old and New》中,“最优转换”有空真应该好好学习一下。)指出(1)式可以转换成:
W(r,g)=supfL1Exr[f(x)]Exg[f(x)](2) W ( P r , P g ) = sup ‖ f ‖ L ≤ 1 E x ∼ P r [ f ( x ) ] − E x ∼ P g [ f ( x ) ] ( 2 )

f(x) f ( x ) 是函数集 fL1 ‖ f ‖ L ≤ 1 中的一个函数。 fL1 ‖ f ‖ L ≤ 1 表示满足1-Lipschitz条件的函数集。
(Lipschitz条件是一个比通常连续更强的光滑性条件。直觉上,Lipschitz连续函数限制了函数改变的速度,符合利Lipschitz条件的函数的斜率,必小于一个称为Lipschitz常数的实数)
满足K-Lipschitz条件的函数集:
1、 xd x ∈ R d f(x) f ( x ) ∈ R ,是实值函数
2、 f(x) f ( x ) 在定义域内都有
|f(x1)f(x2)|K×|x1x2|(3) | f ( x 1 ) − f ( x 2 ) | ≤ K × | x 1 − x 2 | ( 3 )

(3)式中” || | ⋅ | ”表示度量空间的距离,此处可以是一次、二次范数。(2)式中要求的是1-Lipschitz条件,也可以用K-Lipschitz条件代替,此时有:
KW(r,g)=supfLKExr[f(x)]Exg[f(x)](4) K ⋅ W ( P r , P g ) = sup ‖ f ‖ L ≤ K E x ∼ P r [ f ( x ) ] − E x ∼ P g [ f ( x ) ] ( 4 )

(2)式与(4)式只有系数的不同,因此在使用时,可以选定一个K值。(4)式如何理解呢?见(4)式右边其中一项—— Exr[f(x)] E x ∼ P r [ f ( x ) ]

  1. x x 是一个来自于随机分布 r P r 的样本
  2. f(x) f ( x ) 表示样本 x x 的一个函数变换,该函数满足Lipschitz条件
  3. 取多个样本函数的平均值,即: 1MMi=1f(xi),xir 1 M ∑ i = 1 M f ( x i ) , x i ∼ P r

(4)式要求得到上确界,上确界的具体函数形式我们不知道,但我们可以用神经网络来逼近它,这是判别器(Discriminator)的作用,也就是Discriminator网络充当了 f(x) f ( x ) 的角色,因此(4)等价于:

KW(r,g)=maxθ(Exr[f(x)]Exg[f(x)])=maxθ1Mi=1,xirMfθ(xi)1Nj=1,xjgNfθ(xj)(5) K ⋅ W ( P r , P g ) = max θ ( E x ∼ P r [ f ( x ) ] − E x ∼ P g [ f ( x ) ] ) = max θ ( 1 M ∑ i = 1 , x i ∼ P r M f θ ( x i ) − 1 N ∑ j = 1 , x j ∼ P g N f θ ( x j ) ) ( 5 )

(5)式表示两个分布(真实图像分布与生成图像分布)的距离,在确定K值后,就可以用它来定义判别器(Discriminator)的Loss_D,(损失函数要求最小值,(5)式需要求反)即有:
Loss_D=minθ1Mi=1,xirMfθ(xi)+1Nj=1,xjgNfθ(xj)(6)θ=argminθ(Loss_D)(7) L o s s _ D = min θ ( − 1 M ∑ i = 1 , x i ∼ P r M f θ ( x i ) + 1 N ∑ j = 1 , x j ∼ P g N f θ ( x j ) ) ( 6 ) θ ∗ = arg ⁡ min θ ( L o s s _ D ) ( 7 )

Discriminator希望此距离越大越好,通过调节判别器参数( θ θ )达到目标;生成器(Generator)则不然,它希望此距离越小越好,(5)式定义的距离对于生成器有如下关系:
KW(r,g)=maxθ1Mi=1,xirMfθ(xi)1Nj=1,zjzNfθ(gω(zj))(8) K ⋅ W ( P r , P g ) = max θ ( 1 M ∑ i = 1 , x i ∼ P r M f θ ( x i ) − 1 N ∑ j = 1 , z j ∼ P z N f θ ( g ω ( z j ) ) ) ( 8 )

(5)式中的随机分布 g P g 是生成图像的分布,它是由随机分布 zz z ∼ P z 经过生成器映( gω(z) g ω ( z ) ))而得到的一个分布,生成器只能调节其自身参数 ω ω ,因而其它与之无关的项均不用考虑,由此定义生成器的损失函数是Loss_G为:
Loss_G=1Nj=1,zjzNfθ(gω(zj))(9)ω=argminω(Loss_G)(10) L o s s _ G = − 1 N ∑ j = 1 , z j ∼ P z N f θ ( g ω ( z j ) ) ( 9 ) ω ∗ = arg ⁡ min ω ( L o s s _ G ) ( 10 )

以下是一段摘自 https://github.com/Streamrock/PyTorch-GAN/blob/master/implementations/wgan/wgan.py的代码:

for epoch in range(opt.n_epochs):

    for i, (imgs, _) in enumerate(dataloader):

        # Configure input
        real_imgs = Variable(imgs.type(Tensor))

        # ---------------------
        #  Train Discriminator
        # ---------------------

        optimizer_D.zero_grad()

        # Sample noise as generator input
        z = Variable(Tensor(np.random.normal(0, 1, (imgs.shape[0], opt.latent_dim))))

        # Generate a batch of images
        fake_imgs = generator(z).detach()
        # Adversarial loss
        loss_D = -torch.mean(discriminator(real_imgs)) + torch.mean(discriminator(fake_imgs))

        loss_D.backward()
        optimizer_D.step()

        # Clip weights of discriminator
        for p in discriminator.parameters():
            p.data.clamp_(-opt.clip_value, opt.clip_value)

        # Train the generator every n_critic iterations
        if i % opt.n_critic == 0:

            # -----------------
            #  Train Generator
            # -----------------

            optimizer_G.zero_grad()

            # Generate a batch of images
            gen_imgs = generator(z)
            # Adversarial loss
            loss_G = -torch.mean(discriminator(gen_imgs))

            loss_G.backward()
            optimizer_G.step()

剩下的就是要保证 fθ(x) f θ ( x ) 满足K-Lipschitz条件,《Wasserstein GAN》做了一个简单地处理,因为判别器是由神经网络构成的,因此对每层的线性算子中参数做了一个夹逼,限制其取值范围,就可以实现。如上面代码的这个部分:

# Clip weights of discriminator
for p in discriminator.parameters():
    p.data.clamp_(-opt.clip_value, opt.clip_value)

此取值范围既不能太大,又不能太小,到底取多少合适呢?《Wasserstein GAN》没做讨论,留给后来有心人。

你可能感兴趣的:(机器学习与神经网络,GAN)