[NLG]Unsupervised Discrete Sentence Representation Learning for Interpretable Neural Dialog Generat

看这篇paper看的自闭了。作者用了太多操作了。。。

摘要:

  作者的意思应该是要在一些无监督的语句中学会一些可解释的离散的laent action,然后用这些laent action指导对话的生成。什么叫可解释呢,我觉得这篇论文的意思就是,这个latent(意图,动作,相当于slot-value对)和这一句对话有直接的关系。然后作者就用了两个新的模型,实际上就是魔改了VAE(看的我脑阔痛)分别是DI-VAE和DI-VST。

模型:

写不动了,推荐几篇写的好的。

https://zhuanlan.zhihu.com/p/37630801  论文翻译+大概理解

https://zhuanlan.zhihu.com/p/61899498  我认为理解的很深刻

 

一句话总结:

论文主要探索了一种无监督的学习方式,通过离散的latent action增强对话的生成以及增加生成的可解释性,其主要创新点在于通过改变ELBO的loss函数解决了VAE的“posterior collapse ”问题。

你可能感兴趣的:(NLP,对话系统)