ELK学习笔记04-ik分词器的使用

分词引发的问题

  • es默认分词器的分词效果如下所示
//英文分词
GET _analyze
{
  "text":"I am from china"
}

ELK学习笔记04-ik分词器的使用_第1张图片

//中文分词
GET _analyze
{
  "text":"我是中国人"
}

ELK学习笔记04-ik分词器的使用_第2张图片

  • 可以看出来,es默认的分词器对于中文分词也是将每个中文字符拆开,但是事实上,中国或者中国人是一个词组,所以这时候我们需要使用分词器插件。一般是使用ik分词器,且支持中英文

1.ik分词器安装

  • 官方github下载对应的版本插件压缩包,并解压
https://github.com/medcl/elasticsearch-analysis-ik/releases
  • 进入elasticsearch目录下的plugins
    ELK学习笔记04-ik分词器的使用_第3张图片
  • 在该目录下新建文件夹ik,将下载好的压缩包的内容上传到ik
    ELK学习笔记04-ik分词器的使用_第4张图片
  • 上传好了之后,重启es 即可直接使用

2.分词器的使用

  • ik_smart: 表示ik分词器将以最少组合进行拆分
GET _analyze
{
  "text":"我是中国人",
  "analyzer": "ik_smart"
}

ELK学习笔记04-ik分词器的使用_第5张图片

  • ik_max_word: 表示ik分词器将以最多组合进行拆分
GET _analyze
{
  "text":"我是中国人",
  "analyzer": "ik_max_word"
}

ELK学习笔记04-ik分词器的使用_第6张图片

你可能感兴趣的:(ELK学习笔记,elasticsearch,lucene,unity,plugin,github)