智能客服系列3 seq2seq+attention【Python十分钟写出聊天机器人】基于Keras实现seq2seq模型

开篇导读
首先复习下前面聊天机器人系列:
《一》聊天机器人/翻译系统系列一梳理了聊天机器人网络设计模型原理
(理论篇—图文解锁seq2seq+attention模型原理)
《二》翻译系统系列二开启实战代码篇:代码是设计思路的呈现,在这里我们把聊天机器人整体模型拆分为三块,循序渐进方便大家理解消化。
第一块——聊天机器人地基模型LSTM的手把手代码搭建。注意聊天机器人是由编码模型和解码模型这两块构成的。而编码模型和解码模型的网络设计都是采用LSTM。所以剖析捋顺LSTM模型的实现,是我们整个聊天机器人网络设计代码的硬核地基。

第二块——理解并敲完第一块地基砖,相对可以轻松地开始着手实现seq2seq整体模型的网络搭建工作了。那么这两个LSTM模型分别在编码过程和解码过程中,该如何实现呢?如何运转起来整个seq2seq模型并实现预测功能?这也是咱们本文重点要手把手带大家搭建的。(本文主旨)
在这里插入图片描述
第三块——顺带预告下后面的章节安排。如果理解了LSTM模型,敲出了seq2seq整体模型这块砖,进阶到第三块就顺利轻松多了。本节主要是带大家敲出含有attention的seq2seq模型,为什么带有attention的会相对好呢,可以回到系列一重新复习下原理篇。
到此seq2seq模型+attention代码篇基本完成了,敲出一个撩妹子的聊天机器人基本

你可能感兴趣的:(聊天机器人,人工智能技术)