elasticsearch ik分词器配置使用,自定义分词

安装
1,下载ik分词器(下载对应版本)
:https://github.com/medcl/elasticsearch-analysis-ik/releases

2,解压到 elasticsearch的plugins文件夹下
elasticsearch ik分词器配置使用,自定义分词_第1张图片

3,启动会自动加载
elasticsearch ik分词器配置使用,自定义分词_第2张图片

4,到elasticsearch的home下,运行命令 elasticsearch-plugin list 查看加载的插件
在这里插入图片描述

5,ik分词器提供了两种分词算法:ik_smark最少切分,ik_max_word最细精度切分

ik_smark最少切分:

GET _analyze
{
  "analyzer": "ik_smart",
   "text": "大一号的毛衣"
}

kibana截图:
elasticsearch ik分词器配置使用,自定义分词_第3张图片

ik_max_word最细精度切分(最大可能拆分,各种拆):

GET _analyze
{
  "analyzer": "ik_max_word",
  "text":"大一号的毛衣"
}

kibana截图:
elasticsearch ik分词器配置使用,自定义分词_第4张图片

6,分词结果不理想,在ik分词器中添加自己配置,分词字段
配置文件,解压的ik分词器目录下 :

elasticsearch-analysis-ik-7.6.1\config\IKAnalyzer.cfg.xml

elasticsearch ik分词器配置使用,自定义分词_第5张图片

编写自己的dic文件,加入中。

self.dic

elasticsearch ik分词器配置使用,自定义分词_第6张图片

重启看效果 :
elasticsearch ik分词器配置使用,自定义分词_第7张图片

你可能感兴趣的:(ElasticSearch,elasticsearch,es)