Elasticsearch搜索引擎第三篇-ES集成IKAnalyzer中文分词器

文章目录

  • 获取ES-IKAnalyzer插件
  • 安装插件
  • 扩展词库
  • Kibana测试
    • 创建一个索引
    • 创建一个映射mapping
    • 提交一些索引数据
    • 搜索

在Lucene和Solr中讲到,集成中文分词器是相对比较麻烦的,需要我们自定义类并打成对应的jar包,在Elasticsearch中,我们不需要这么麻烦,因为已经有现成的插件可以使用。

获取ES-IKAnalyzer插件

下载地址:https://github.com/medcl/elasticsearch-analysis-ik/releases
这里一定要获取和Elasticsearch版本一致的。有Linux和Windows版本。

安装插件

将 ik 的压缩包解压到 ES安装目录的plugins/目录下(最好把解出的目录名改一下,防止安装别的插件时同名冲突),然后重启ES

扩展词库

插件中自带了一些扩展词和停用词,可以根据需要进行添加
Elasticsearch搜索引擎第三篇-ES集成IKAnalyzer中文分词器_第1张图片
在config/IKAnalyzer.cfg.xml中配置引用哪些停用词和扩展词,还可以配置远程的词库,只需要在一个地方维护就可以实现热更新



<properties>
	<comment>IK Analyzer 扩展配置comment>
	
	<entry key="ext_dict">extra_main.dic;extra_single_word_full.dicentry>
	 
	<entry key="ext_stopwords">extra_stopword.dic;stopword.dicentry>
	
	
	
	
properties>

Kibana测试

使用Kibana的Dev Tools界面测试,输入以下一些命令,会自动转换会对应的Kibana命令。
Elasticsearch搜索引擎第三篇-ES集成IKAnalyzer中文分词器_第2张图片

创建一个索引

curl -XPUT http://localhost:9200/index

创建一个映射mapping

curl -XPOST http://localhost:9200/index/fulltext/_mapping -H 'Content-Type:application/json' -d '{ 
"properties": {
            "content": {
                "type": "text",
                "analyzer": "ik_max_word",
                "search_analyzer": "ik_max_word"
            }
        }
}'

提交一些索引数据

curl -XPOST http://localhost:9200/index/fulltext/1 -H 'Content-Type:application/json' -d'{"content":"美国留给伊拉克的是个烂摊子吗"}'
curl -XPOST http://localhost:9200/index/fulltext/2 -H 'Content-Type:application/json' -d'{"content":"公安部:各地校车将享最高路权"}'
curl -XPOST http://localhost:9200/index/fulltext/3 -H 'Content-Type:application/json' -d'{"content":"中韩渔警冲突调查:韩警平均每天扣1艘中国渔船"}'

搜索

curl -XPOST http://localhost:9200/index/fulltext/_search  -H 'Content-Type:application/json' -d '{
    "query" : { "match" : { "content" : "中国" }},
    "highlight" : {
        "pre_tags" : ["", ""],
        "post_tags" : ["", ""],
        "fields" : {
            "content" : {}
        }
    }
}'

你可能感兴趣的:(搜索引擎)