elasticsearch添加自定义分词器

之前已经成功搭建了elasticsearch

然后去模糊搜索的时候,中文会给拆分出来,因为使用的是非中文分词器。

elasticsearch添加自定义分词器_第1张图片

效果如下,但是,大家都知道红牛都是平时自己喝的饮料,为啥没有涅~。那是因为没有使用中文分词器,那么我们采用中文分词器就需要安装一下插件了。不然是会报错的~

分词器的地址是https://github.com/medcl/elasticsearch-analysis-ik/releases

elasticsearch添加自定义分词器_第2张图片

在这里,切记使用和es相同的版本,我的es是6.6.1,自然我也就使用6.6.1的IK了。

然后下载zip包,解压,上传到es的安装包下的plugins下面,然后重命名为ik,使用非root权限启动即可。

elasticsearch添加自定义分词器_第3张图片

更改一下分词器的类型,即可查询到红牛,那么我来试试我的名字呢?

elasticsearch添加自定义分词器_第4张图片

又给分割成一个个的单词了,该如何是好呢~

这个时候我们就可以使用我们自己自定义的分词器了。

我们在刚才上传的文件里面创建一个文件夹

elasticsearch添加自定义分词器_第5张图片

新建一共new_word.dic文件

里面写一下自定义的分词,例如

然后引入这个分词器

 vim /usr/local/elasticsearch-6.6.1/plugins/ik/config/IKAnalyzer.cfg.xml

fenci/new_word.dic

elasticsearch添加自定义分词器_第6张图片

重启一下,试试,

elasticsearch添加自定义分词器_第7张图片

发现就可以咯。

你可能感兴趣的:(java)