Elasticsearch之中文分词器插件ik

本文基于6.x版本

一、下载

ik分词器的一些使用介绍:https://github.com/medcl/elasticsearch-analysis-ik

ik分词器GitHub下载:https://github.com/medcl/elasticsearch-analysis-ik/releases

选择与Elasticsearch版本对应的分词器下载。

二、安装

# 在Elasticsearch的plugins目录下创建ik插件文件夹
cd your-es-root/plugins/ && mkdir ik
# unzip ik plugin to folder 解压ik插件到前面创建的文件夹 
cd your-es-root/plugins/ik
unzip ./elasticsearch-analysis-ik-6.3.2.zip
# 重启 elasticsearch

三、测试

在kibana中输入:

GET /_analyze
{
  "analyzer": "ik_max_word",
  "text": "任何一个节点接收到请求后,都可以自动把数据路由到有相关数据的其他节点上去处理请求"
}

四、自定义ik分词

# 新建包放置 自定义分词
cd your-es-root/plugins/ik/config
mkdir ./custom

# 自定义分词 一
vim ./my-analysis1.dic # 在文件内写入如下内容(自定义的分词)
    任何一个节点接收到
    以自动把数

# 自定义分词 二    
vim ./my-analysis2.dic # 在文件内写入如下内容
    点上去处理请

# 在IKAnalyzer.cfg.xml中加入自定义的分词,多个文件以分号隔开
vim your-es-root/plugins/ik/config/IKAnalyzer.cfg.xml
    ./custom/my-analysis1.dic;./custom/my-analysis2.dic

vim ./plugins/ik/config/IKAnalyzer.cfg.xml
Elasticsearch之中文分词器插件ik_第1张图片

es 下 plugins 包 的结构
Elasticsearch之中文分词器插件ik_第2张图片

你可能感兴趣的:(elasticsearch)