Self-Attention Generative Adversarial Networks 论文解读

论文地址:https://arxiv.org/abs/1805.08318

 Ian goodfellow 2018年 新作,在GAN生成中加入了attention的机制,同时将SNgan的思想引入到生成器当中。


传统gan的问题
使用小的卷积核很难发现图像中的依赖关系
使用大的卷积核就丧失了卷积网络参数与计算的效率

attention层详解

Self-Attention Generative Adversarial Networks 论文解读_第1张图片
就是在前一层的feature maps 上加入attention机制,使得gan在生成时能够区别不同的feature maps,
Wf Wg 都是网络的参数


softmax 来得到attention map。

通过下面的式子 进行融合得到加入了attention机制的feature maps。
再讲这些featuremaps 加入到之前的featuremaps当中。

γ的值初始化为0,再逐渐增大权重,这里的意思就是 一开始attention可能训练的不太好 用attention来指引效果不好 等 attention层训练得原来越好之后 加大它的权重

作者引用了sngan的思想 不仅在discrimator中将权重除以权重矩阵的特征值 在generator中也做同样的处理,得到了不错的效果。具体思想参考论文SNGAN。

作者还讨论了attention机制加载网络的哪一层效果最好


作者指出 在一些中层次或者高层次特征使用attention层 能取得更好的效果。
与ACGan SNgan做的对比。
Self-Attention Generative Adversarial Networks 论文解读_第2张图片

你可能感兴趣的:(Self-Attention Generative Adversarial Networks 论文解读)