Kibana操作Elasticsearch-IK分词器自定义词库

1.准备一台nginx,这个是用来存放分词文件的,然后在nginx中创建fenci.txt文件
Kibana操作Elasticsearch-IK分词器自定义词库_第1张图片
2.访问测试fenci.txt
Kibana操作Elasticsearch-IK分词器自定义词库_第2张图片
乱码不用管
3.配置ik分词器的远程词库地址
进入ik的plugins宿主机目录
/data/es/plugins/ik-7.4.2/config
vi编辑IKAnalyzer.cfg.xml文件
Kibana操作Elasticsearch-IK分词器自定义词库_第3张图片
4.配置远程词库地址
Kibana操作Elasticsearch-IK分词器自定义词库_第4张图片
这里先不重启ES,先看看没有使用自定义词库的分词情况
Kibana操作Elasticsearch-IK分词器自定义词库_第5张图片
这里是没有将乔碧萝作为一个词的

5.配置好自定义远程词库后重启ES查看效果

docker restart es

Kibana操作Elasticsearch-IK分词器自定义词库_第6张图片
注意:这里有一个坑,如果重启后配置的分词器不生效,且nginx也是在同一台宿主机上,用的也是docker安装的话那么就看看我的另一篇文章查看Docker中容器的IP

后面有什么需要添加的行词,就可以直接往nginx的fenci.txt中加,这里一换行为分割

你可能感兴趣的:(#,ElasticSearch)