rasa-nlu的究极形态及rasa的一些难点

  • 前言
  • 究极形态
    • 代码地址
    • 具体的操作步骤
    • 如何进行pipeline的配置
    • bert_pre_model的下载地址
    • 对应component的参数解释
  • how to resolve some rasa problems
    • 如何支持在GPU上运行
    • 如何进行参数调试
    • 如何准备训练和测试数据
    • 如何实现多分类
    • 如何将单独存储slots并同步更新trackers
    • 详解如何快速加自定义的component
    • 如何解决同一个sender_id下越来越慢的问题
    • 如何设计和实现一个多技能的对话系统
    • 如何解决性能并发的问题
    • 闲聊模型的实践并应用到rasa
    • 整体项目架构的设计图

前言

 接触和使用rasa断断续续一年多了,距最新的踩坑记也快一年了,一直也没啥值得写的,所以一直处于停滞状态。无外乎加些零零碎碎的component,写action,编故事,提高准确率,加数据,提升性能balabala。有段时间甚至想写《rasa从入门到放弃》,maybe有些通过看我文章接触rasa的人已然弃坑了。

 那什么是究极形态呢,有了究极形态我们再也不需要考虑pipeline的配置用哪套。有的时候我们还在实验是用jieba分词好呢,还是用hanlp,还是用pku,还是用哈工大的;有时候为了实验bilstm+crf和cnn+lstm等等模型的效果对比,我们还得额外写对应的component,现在可以解放了。

 由于是付费文章,我会将代码和数据上传到网盘。

你可能感兴趣的:(rasa-nlu的究极形态及rasa的一些难点)