Elasticsearch7.9.2中文分词器-IK分词器使用

elasticsearch安装及使用可参考博文:Elasticsearch7.9.2+Kibana7.9.2安装使用

elasticsearch默认提供了standard分词器,但对中文的分词效果不尽人意:

Elasticsearch7.9.2中文分词器-IK分词器使用_第1张图片

可以看出,把词语分成了一个个的汉字,这并不是我们想要的,接下来介绍下中文分词器-IK分词器的安装及使用。

 

1、IK分词器下载及安装

github: https://github.com/medcl/elasticsearch-analysis-ik

各版本分词器下载: https://github.com/medcl/elasticsearch-analysis-ik/releases

选择版本与elasticsearch一致的版本:7.9.2

Elasticsearch7.9.2中文分词器-IK分词器使用_第2张图片

 

下载后解压,将解压后的文件夹elasticsearch-analysis-ik-7.9.2 拷贝至 elasticsearch的plugins文件下:

Elasticsearch7.9.2中文分词器-IK分词器使用_第3张图片

然后重启elasticsearch,控制台有如下输出:

 

2、使用IK分词器测试分词

IK分词器有两种分词模式:ik_smart 和 ik_max_word 模式。

1、ik_smart

会做最粗粒度的拆分,比如会将“中华人民共和国”拆分为中华人民共和国。

使用Kibana开发工具,输入如下请求:

POST _analyze
{
  "analyzer": "ik_smart",
  "text":"中华人民共和国"
}

Elasticsearch7.9.2中文分词器-IK分词器使用_第4张图片

 

2、ik_max_word

会将文本做最细粒度的拆分,比如会将“中华人民共和国人民大会堂”拆分为“中华人民共和国、中华人民、中华、华人、人民共和国、人民、共和国等词语。

请求如下:

POST _analyze
{
  "analyzer": "ik_max_word",
  "text":"中华人民共和国"
}

Elasticsearch7.9.2中文分词器-IK分词器使用_第5张图片

 

3、扩展词典

在 elasticsearch-analysis-ik-7.9.2 文件夹 conf 目录下,找到 IKAnalyzer.cfg.xml 配置文件,

Elasticsearch7.9.2中文分词器-IK分词器使用_第6张图片

文件内容如下:




	IK Analyzer 扩展配置
	
	custom.dic
	 
	
	
	
	
	

其中custom.dic为自定义的扩展字典,7.9.2版本的分词器插件中没有该文件,需要自己新建,

内容可以根据自己需要,自定义分词的文字。

保存后重启elasticsearch即可看到自己想要的分词效果。

 

 

相关博文:

Elasticsearch7.9.2+Kibana7.9.2安装使用

elasticsearch可视化工具elasticsearch-head安装使用

 

你可能感兴趣的:(分布式框架,Elasticsearch,IK分词器,ik_max_word,ik_smart)