ElasticSearch7.1.1 配置中文分词的简易方式

阿里云服务器Linux系统安装配置ElasticSearch搜索引擎

一、IK简介

ElasticSearch(以下简称ES)默认的分词器是标准分词器Standard,如果直接使用在处理中文内容的搜索时,中文词语被分成了一个一个的汉字,因此引入中文分词器IK就能解决这个问题,同时用户可以配置自己的扩展字典、远程扩展字典等。

 

二、IK安装

1、首先前往GitHub下载安装包(注意版本与ES对应),上传至/home/目录,并解压至当前目录,如下图所示:

ElasticSearch7.1.1 配置中文分词的简易方式_第1张图片

 

3、然后在/usr/java/elasticsearch/elasticsearch-6.3.2/plugins/目录下创建analysis-ik,再将上述中的zip包解压至该目录,如下图所示:

1 [root@izwz9eu3mkqq1njlkrfhc8z elasticsearch-analysis-ik-6.3.2]# unzip /home/elasticsearch-analysis-ik-6.3.2/target/releases/elasticsearch-analysis-ik-6.3.2.zip -d /usr/java/elasticsearch/elasticsearch-6.3.2/plugins/analysis-ik/

 

ElasticSearch7.1.1 配置中文分词的简易方式_第2张图片                ElasticSearch7.1.1 配置中文分词的简易方式_第3张图片

 

4、切换至非root用户,重新启动ES即可,并且可在Head插件中查看插件信息,如下图所示:

ElasticSearch7.1.1 配置中文分词的简易方式_第4张图片

 

 

三、IK测试

IK分词器的两种分词模式:

ik_max_word: 会将文本做最细粒度的拆分,

ik_smart: 会做最粗粒度的拆分。

这里使用_analyze api对中文段落进行分词,如下图所示:

ElasticSearch7.1.1 配置中文分词的简易方式_第5张图片

 

 

ElasticSearch7.1.1 配置中文分词的简易方式_第6张图片

 

 

 

你可能感兴趣的:(ElasticSearch7.1.1 配置中文分词的简易方式)