Generative Adversarial Network for Abstractive Text Summarization∗ AAAI2018

摘要

提出了使用生成器和鉴别器来进行文本摘要提取的模型,使用生成器G来作为 an agent of reinforcement learning,将raw text 作为预测输入 来预测摘要。我们还建立了一个鉴别器,试图区分生成的摘要和真实摘要。

挑战:

  • 神经序列到序列模型往往会产生琐碎的、通用的总结,通常涉及高频短语
  • 生成的摘要语法性和可读性有限
  • 在大多数以前的工作中,标准的序列到序列模型被训练来使用最大似然估计(MLE)目标函数来预测总结中的下一个单词。

缺点:

  • 评价指标与训练损失不同
  • 解码器在每个时间步骤中的输入往往来自训练过程中的真实摘要。
  • 在测试时,下一个词 的输入是来自上解码器生成的上一个词的,这种暴露偏差会导致测试时的错误积累。

方法:

  • 生成器G以原文为输入,生成摘要。我们使用强化学习(即策略梯度)来优化G,以获得高回报的总结。有效地绕过了暴露偏差和不可微任务度量问题。
  • 我们将鉴别器D实现为文本分类器,学习将生成的摘要分类为机器生成或人工生成。
  • 优化是一个 二元极小极大博弈(minimax two-player game)
  • 鉴别器试图分辨真实值和生成的摘要,生成器的训练过程最大化最大限度地提高D犯错误的概率。

模型

  • 首先预训练生成模型,生成给定源文本的摘要
  • 我们通过从人类生成的摘要中提供正样本和从预先训练的生成器中产生的负样本来对鉴别器进行预训练。
  • 预训练后,对生成器和鉴别器进行交替训练

Generative Model

生成器源文本的长度在这里插入图片描述
预测的摘要 在这里插入图片描述
我们使用双向lstm对输入的文本进行编码,在时间步长t上,然后使用基于注意的LS TM解码器来计算解码器和上下文向量ct的隐藏状态st。

预测target:
在这里插入图片描述
也使用了pointer-generator network的 copy思想,最终得到每一个token的概率

Discriminative Model

鉴别器是一个二分类的模型。

  • 我们用CNN对输入序列进行编码,因为它在文本分类中显示出很好的效果。
  • .我们使用具有不同窗口大小的多个过滤器来获得不同的特征,然后在特征上应用最大超时池操作。
  • 这些集合特征被传递到一个完全连接的Softmax层,其输出是原始的概率。

更新参数

在对抗过程中,使用鉴别器作为奖励函数可以通过动态更新鉴别器来进一步迭代改进生成器。
一旦我们获得了由发生器G生成的更现实和高质量的摘要,我们将鉴别器重新训练为:
在这里插入图片描述

你可能感兴趣的:(论文笔记,每日论文)