ElasticSearch 笔记

文章目录

      • 一、引言
        • 1.1 海量数据
        • 1.2 全文检索
        • 1.3 高亮显示
      • 二、ES概述
        • 2.1 ES的介绍
        • 2.2 ES的由来
        • 2.3 ES和Solr
        • 2.4 倒排索引
      • 三、 ElasticSearch安装
        • 3.1 安装ES&Kibana
        • 3.2 安装IK分词器
      • 四、 ElasticSearch基本操作
        • 4.1 ES的结构
          • 4.1.1 索引Index,分片和备份
          • 4.1.2 类型 Type
          • 4.1.3 文档 Doc
          • 4.1.4 属性 Field
        • 4.2 操作ES的RESTful语法
        • 4.3 索引的操作
          • 4.3.1 创建一个索引
          • 4.3.2 查看索引信息
          • 4.3.3 删除索引
        • 4.4 ES中Field可以指定的类型
        • 4.5 创建索引并指定数据结构
        • 4.6 文档的操作
          • 4.6.1 新建文档
          • 4.6.2 修改文档
          • 4.6.3 删除文档
      • 五、Java操作ElasticSearch【`重点`】
        • 5.1 Java连接ES
        • 5.2 Java操作索引
          • 5.2.1 创建索引
          • 5.2.2 检查索引是否存在
          • 5.2.3 删除索引
        • 5.3 Java操作文档
          • 5.3.1 添加文档操作
          • 5.3.2 修改文档
          • 5.3.3 删除文档
        • 5.4 Java批量操作文档
          • 5.4.1 批量添加
          • 5.4.2 批量删除
          • 5.4.3 批量操作
        • 5.5 Get查单个
        • 5.6 ElasticSearch练习
      • 六、 ElasticSearch的各种查询
        • 6.1 term&terms查询【`重点`】
          • 6.1.1 term查询
          • 6.1.2 terms查询
        • 6.2 match查询【`重点`】
          • 6.2.1 match_all查询
          • 6.2.2 match查询
          • 6.2.3 布尔match查询
          • 6.2.4 multi_match查询
        • 6.3 其他查询
          • 6.3.1 id查询
          • 6.3.2 ids查询
          • 6.3.3 prefix查询
          • 6.3.4 fuzzy查询
          • 6.3.5 wildcard查询
          • 6.3.6 range查询
          • 6.3.7 regexp查询
        • 6.4 深分页Scroll
        • 6.5 delete-by-query
        • 6.6 复合查询
          • 6.6.1 bool查询
          • 6.6.2 boosting查询
        • 6.7 filter查询
        • 6.8 高亮查询【`重点`】
        • 6.9 聚合查询【`重点`】
          • 6.9.1 去重计数查询
          • 6.9.2 范围统计
          • 6.9.3 统计聚合查询
        • 6.10 地图经纬度搜索
          • 6.10.1 ES的地图检索方式
          • 6.10.2 基于RESTful实现地图检索
          • 6.10.3 Java实现geo_polygon

一、引言


1.1 海量数据

在海量数据中执行搜索功能时,如果使用MySQL,效率太低。

1.2 全文检索

在海量数据中执行搜索功能时,如果使用MySQL,效率太低。

1.3 高亮显示

将搜索关键字,以红色的字体展示。

二、ES概述


2.1 ES的介绍

  • ES是一个使用Java语言并且基于Lucene编写的搜索引擎框架,他提供了分布式的全文搜索功能,提供了一个统一的基于RESTful风格的WEB接口,官方客户端也对多种语言都提供了相应的API。

  • Lucene:Lucene本身就是一个搜索引擎的底层。

  • 分布式:ES主要是为了突出他的横向扩展能力。

  • 全文检索:将一段词语进行分词,并且将分出的单个词语统一的放到一个分词库中,在搜索时,根据关键字去分词库中检索,找到匹配的内容。(倒排索引)

  • RESTful风格的WEB接口:操作ES很简单,只需要发送一个HTTP请求,并且根据请求方式的不同,携带参数的同,执行相应的功能。

  • 应用广泛:Github.com,WIKI,Gold Man用ES每天维护将近10TB的数据。

2.2 ES的由来

ES回忆时光
ElasticSearch 笔记_第1张图片

2.3 ES和Solr

  • Solr在查询死数据时,速度相对ES更快一些。但是数据如果是实时改变的,Solr的查询速度会降低很多,ES的查询的效率基本没有变化。
  • Solr搭建基于需要依赖Zookeeper来帮助管理。ES本身就支持集群的搭建,不需要第三方的介入。
  • 最开始Solr的社区可以说是非常火爆,针对国内的文档并不是很多。在ES出现之后,ES的社区火爆程度直线上升,ES的文档非常健全。
  • ES对现在云计算和大数据支持的特别好。

2.4 倒排索引

将存放的数据,以一定的方式进行分词,并且将分词的内容存放到一个单独的分词库中。

当用户去查询数据时,会将用户的查询关键字进行分词。

然后去分词库中匹配内容,最终得到数据的id标识。

根据id标识去存放数据的位置拉取到指定的数据。

倒排索引
ElasticSearch 笔记_第2张图片

三、 ElasticSearch安装


3.1 安装ES&Kibana

yml文件

version: "3.1"
services:
  elasticsearch:
    image: daocloud.io/library/elasticsearch:6.5.4
    restart: always
    container_name: elasticsearch
    ports:
      - 9200:9200
  kibana:
    image: daocloud.io/library/kibana:6.5.4
    restart: always
    container_name: kibana
    ports:
      - 5601:5601
    environment:
      - elasticsearch_url=http://192.168.199.109:9200
    depends_on:
      - elasticsearch

在新版 Centos 中可能会出现max virtual memory areas vm.max_map_count [65530] is too low的错误

只需要修改 vi /etc/sysctl.conf 文件,添加vm.max_map_count=655360 重启 es 容器即可

3.2 安装IK分词器

  • 下载IK分词器的地址:https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.5.4/elasticsearch-analysis-ik-6.5.4.zip

  • 由于网络问题,采用国内的路径去下载:http://tomcat01.qfjava.cn:81/elasticsearch-analysis-ik-6.5.4.zip

  • 进去到ES容器内部,跳转到bin目录下

    docker exec -it elasticsearch bash

    cd /bin

  • 执行bin目录下的脚本文件:

    elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.5.4/elasticsearch-analysis-ik-6.5.4.zip

  • 重启ES的容器,让IK分词器生效。

校验IK分词器
ElasticSearch 笔记_第3张图片

四、 ElasticSearch基本操作


4.1 ES的结构

4.1.1 索引Index,分片和备份
  • ES的服务中,可以创建多个索引。

  • 每一个索引默认被分成5片存储。

  • 每一个分片都会存在至少一个备份分片。

  • 备份分片默认不会帮助检索数据,当ES检索压力特别大的时候,备份分片才会帮助检索数据。

  • 备份的分片必须放在不同的服务器中。

索引分片备份
ElasticSearch 笔记_第4张图片
4.1.2 类型 Type

一个索引下,可以创建多个类型。

Ps:根据版本不同,类型的创建也不同。

类型
ElasticSearch 笔记_第5张图片
4.1.3 文档 Doc

一个类型下,可以有多个文档。这个文档就类似于MySQL表中的多行数据。

文档
ElasticSearch 笔记_第6张图片
4.1.4 属性 Field

一个文档中,可以包含多个属性。类似于MySQL表中的一行数据存在多个列。

属性
ElasticSearch 笔记_第7张图片

4.2 操作ES的RESTful语法

  • GET请求:
    • http://ip:port/index:查询索引信息
    • http://ip:port/index/type/doc_id:查询指定的文档信息
  • POST请求:
    • http://ip:port/index/type/_search:查询文档,可以在请求体中添加json字符串来代表查询条件
    • http://ip:port/index/type/doc_id/_update:修改文档,在请求体中指定json字符串代表修改的具体信息
  • PUT请求:
    • http://ip:port/index:创建一个索引,需要在请求体中指定索引的信息,类型,结构
    • http://ip:port/index/type/_mappings:代表创建索引时,指定索引文档存储的属性的信息
  • DELETE请求:
    • http://ip:port/index:删除索引
    • http://ip:port/index/type/doc_id:删除指定的文档

4.3 索引的操作

4.3.1 创建一个索引

语法如下

# 创建一个索引
PUT /person
{
     
  "settings": {
     
    "number_of_shards": 5,
    "number_of_replicas": 1
  }
}
4.3.2 查看索引信息

语法如下

# 查看索引信息
GET /person
查看信息
ElasticSearch 笔记_第8张图片
4.3.3 删除索引

语法如下

# 删除索引
DELETE /person

4.4 ES中Field可以指定的类型

  • 字符串类型:

    • text:一般被用于全文检索。 将当前Field进行分词。
    • keyword:当前Field不会被分词。
  • 数值类型:

    • long:取值范围为-9223372036854774808~922337203685477480(-2的63次方到2的63次方-1),占用8个字节
    • integer:取值范围为-2147483648~2147483647(-2的31次方到2的31次方-1),占用4个字节
    • short:取值范围为-32768~32767(-2的15次方到2的15次方-1),占用2个字节
    • byte:取值范围为-128~127(-2的7次方到2的7次方-1),占用1个字节
    • double:1.797693e+308~ 4.9000000e-324 (e+308表示是乘以10的308次方,e-324表示乘以10的负324次方)占用8个字节
    • float:3.402823e+38 ~ 1.401298e-45(e+38表示是乘以10的38次方,e-45表示乘以10的负45次方),占用4个字节
    • half_float:精度比float小一半。
    • scaled_float:根据一个long和scaled来表达一个浮点型,long-345,scaled-100 -> 3.45
  • 时间类型:

    • date类型,针对时间类型指定具体的格式
  • 布尔类型:

    • boolean类型,表达true和false
  • 二进制类型:

    • binary类型暂时支持Base64 encode string
  • 范围类型:

    • long_range:赋值时,无需指定具体的内容,只需要存储一个范围即可,指定gt,lt,gte,lte
    • integer_range:同上
    • double_range:同上
    • float_range:同上
    • date_range:同上
    • ip_range:同上
  • 经纬度类型:

    • geo_point:用来存储经纬度的
  • ip类型:

    • ip:可以存储IPV4或者IPV6

其他的数据类型参考官网:https://www.elastic.co/guide/en/elasticsearch/reference/6.5/mapping-types.html

4.5 创建索引并指定数据结构

语法如下

# 创建索引,指定数据结构
PUT /book
{
     
  "settings": {
     
    # 分片数
    "number_of_shards": 5,
    # 备份数
    "number_of_replicas": 1
  },
  # 指定数据结构
  "mappings": {
     
    # 类型 Type
    "novel": {
     
      # 文档存储的Field
      "properties": {
     
        # Field属性名
        "name": {
     
    		# 类型
          "type": "text",
    		# 指定分词器
          "analyzer": "ik_max_word",
    		# 指定当前Field可以被作为查询的条件
          "index": true ,  #如果为true 类似在sql中使用where name =xxxx的方式来查询
    		# 是否需要额外存储, 如果stroe为false,代表返回结果中不会出现这一列,类似于sql select不能出现这个列,在es中这个默认就是true,而且指定false也没用
          "store": false 
        },
        "author": {
     
          "type": "keyword"
        },
        "count": {
     
          "type": "long"
        },
        "on-sale": {
     
          "type": "date",
           # 时间类型的格式化方式 
          "format": "yyyy-MM-dd HH:mm:ss||yyyy-MM-dd||epoch_millis"
        },
        "descr": {
     
          "type": "text",
          "analyzer": "ik_max_word"
        }
      }
    }
  }
}

4.6 文档的操作

文档在ES服务中的唯一标识,_index_type_id三个内容为组合,锁定一个文档,操作是添加还是修改。

4.6.1 新建文档

自动生成_id

# 添加文档,自动生成id
POST /book/novel
{
     
  "name": "盘龙",
  "author": "我吃西红柿",
  "count": 100000,
  "on-sale": "2000-01-01",
  "descr": "山重水复疑无路,柳暗花明又一村"
}

手动指定_id

# 添加文档,手动指定id
PUT /book/novel/1
{
     
  "name": "红楼梦",
  "author": "曹雪芹",
  "count": 10000000,
  "on-sale": "1985-01-01",
  "descr": "一个是阆苑仙葩,一个是美玉无瑕"
}
4.6.2 修改文档

覆盖式修改

# 覆盖修改的时候你传递了多少数据,最终只剩下多少数据,比如传递了两列,最终就只有两列数据,如果只想更改一列内容,需要把不修改的数据也写在里面
PUT /book/novel/1
{
     
  "name": "红楼梦",
  "author": "曹雪芹",
  "count": 4353453,
  "on-sale": "1985-01-01",
  "descr": "一个是阆苑仙葩,一个是美玉无瑕"
}

doc修改方式,局部修改,指定什么列就只修改什么列,原始数据不变

# 修改文档,基于doc方式
POST /book/novel/1/_update
{
     
  "doc": {
     
     # 指定上需要修改的field和对应的值
    "count": "1234565"
  }
}
4.6.3 删除文档

根据id删除

# 根据id删除文档
DELETE /book/novel/_id

五、Java操作ElasticSearch【重点


5.1 Java连接ES

创建Maven工程

导入依赖

<dependencies>
    
    <dependency>
        <groupId>org.elasticsearchgroupId>
        <artifactId>elasticsearchartifactId>
        <version>6.5.4version>
    dependency>

    
    <dependency>
        <groupId>org.elasticsearch.clientgroupId>
        <artifactId>elasticsearch-rest-high-level-clientartifactId>
        <version>6.5.4version>
    dependency>

    
    <dependency>
        <groupId>junitgroupId>
        <artifactId>junitartifactId>
        <version>4.12version>
    dependency>

    
    <dependency>
        <groupId>org.projectlombokgroupId>
        <artifactId>lombokartifactId>
        <version>1.16.22version>
    dependency>
dependencies>

创建测试类,连接ES

public class ESClient {
     

    public static RestHighLevelClient getClient(){
     

        // 创建HttpHost对象
        HttpHost httpHost = new HttpHost("192.168.199.109",9200);

        // 创建RestClientBuilder
        RestClientBuilder clientBuilder = RestClient.builder(httpHost);

        // 创建RestHighLevelClient
        RestHighLevelClient client = new RestHighLevelClient(clientBuilder);

        // 返回
        return client;
    }

}

5.2 Java操作索引

5.2.1 创建索引

代码如下

public class Demo2 {
     

    RestHighLevelClient client = ESClient.getClient();
    String index = "person";
    String type = "man";

    @Test
    public void createIndex() throws IOException {
     
        //1. 准备关于索引的settings
        Settings.Builder settings = Settings.builder()
                .put("number_of_shards", 3)
                .put("number_of_replicas", 1);

        //2. 准备关于索引的结构mappings
        XContentBuilder mappings = JsonXContent.contentBuilder()
                .startObject()
                    .startObject("properties")
                        .startObject("name")
                            .field("type","text")
                        .endObject()
                        .startObject("age")
                            .field("type","integer")
                        .endObject()
                        .startObject("birthday")
                            .field("type","date")
                            .field("format","yyyy-MM-dd")
                        .endObject()
                    .endObject()
                .endObject();


        //3. 将settings和mappings封装到一个Request对象
        CreateIndexRequest request = new CreateIndexRequest(index)
                .settings(settings)
                .mapping(type,mappings);

        //4. 通过client对象去连接ES并执行创建索引
        CreateIndexResponse resp = client.indices().create(request, RequestOptions.DEFAULT);

        //5. 输出
        System.out.println("resp:" + resp.toString());

    }

}
    @Test
    public void testIndex() throws IOException {
     
        IndexServiceImpl indexService = new IndexServiceImpl();
        indexService.createIndex(index,type);
    }
5.2.2 检查索引是否存在

代码如下

@Test
public void exists() throws IOException {
     
    //1. 准备request对象
    GetIndexRequest request = new GetIndexRequest();
    request.indices(index);

    //2. 通过client去操作
    boolean exists = client.indices().exists(request, RequestOptions.DEFAULT);


    //3. 输出
    System.out.println(exists);
}
5.2.3 删除索引

代码如下

@Test
public void delete() throws IOException {
     
    //1. 准备request对象
    DeleteIndexRequest request = new DeleteIndexRequest();
    request.indices(index);

    //2. 通过client对象执行
    AcknowledgedResponse delete = client.indices().delete(request, RequestOptions.DEFAULT);

    //3. 获取返回结果
    System.out.println(delete.isAcknowledged());
}

5.3 Java操作文档

5.3.1 添加文档操作

自动生成id

 public class DocumentServiceImpl implements DocumentService{
         
	public void addDoc(String index, String type, String json) throws IOException {
     
        // 获取客户端对象
        RestHighLevelClient client = ConnectionUtil.restHighLevelClient();
        // 创建请求对象
        IndexRequest indexRequest = new IndexRequest(index,type);
        // 设置插入内容为json格式
        indexRequest.source(json, XContentType.JSON);
        // 找到插入文档方法
        IndexResponse response = client.index(indexRequest, RequestOptions.DEFAULT);
        System.err.println(response.getId());
    }
}
    @Test
    public void testAddDoc() throws IOException {
     
        DocumentService documentService = new DocumentServiceImpl();
        Novel novel = new Novel();
        novel.setAuthor("阿加莎");
        novel.setCount(11);
        novel.setName("无人生还");
        novel.setOn_sale(new Date());
        documentService.addDoc(index,type, JSONObject.toJSONString(novel));
    }

指定id

public class DocumentServiceImpl implements DocumentService {
     

    @Override
    public void addDoc(String index, String type, String id, String json) throws IOException {
     
        // 获取客户端对象
        RestHighLevelClient client = ConnectionUtil.restHighLevelClient();
        // 创建请求对象
        IndexRequest indexRequest = new IndexRequest(index,type,id);
        // 设置插入内容为json格式
        indexRequest.source(json, XContentType.JSON);
        // 找到插入文档方法
        IndexResponse response = client.index(indexRequest, RequestOptions.DEFAULT);
        System.err.println(response.getId());
    }
}
    @Test
    public void testAddDocWithId() throws IOException {
     
        DocumentService documentService = new DocumentServiceImpl();
        Novel novel = new Novel();
        novel.setAuthor("阿加莎");
        novel.setCount(15);
        novel.setName("罗杰疑案");
        novel.setOn_sale(new Date());
        documentService.addDoc(index,type,"1235", JSONObject.toJSONString(novel));
    }
5.3.2 修改文档

代码如下

 public class DocumentServiceImpl implements DocumentService{
     
         @Override
    public void updateDoc(String index, String type, String id, Map<String, Object> docs) throws IOException {
     
        RestHighLevelClient client = ConnectionUtil.restHighLevelClient();
        UpdateRequest updateRequest = new UpdateRequest(index,type,id).doc(docs);
        UpdateResponse response = client.update(updateRequest,RequestOptions.DEFAULT);
        System.err.println(response.getResult().name());
    }
 }
    @Test
    public void testUpdate() throws IOException {
     
        DocumentService documentService = new DocumentServiceImpl();
        Map<String,Object> docs = new HashMap<>();
        docs.put("name","尼罗河上的惨案");
        docs.put("author","阿加莎克里斯蒂");
        documentService.updateDoc(index,type,"12306",docs);
    }
5.3.3 删除文档

代码如下

 public class DocumentServiceImpl implements DocumentService{
     
    @Override
    public void deleteDocById(String index, String type, String id) throws IOException {
     
        RestHighLevelClient client = ConnectionUtil.restHighLevelClient();
        DeleteRequest deleteRequest = new DeleteRequest(index,type,id);
        client.delete(deleteRequest,RequestOptions.DEFAULT);
    }
 }
    @Test
    public void testDalete() throws IOException {
     
        DocumentService documentService = new DocumentServiceImpl();
        documentService.deleteDocById(index,type,"12306");
    }

5.4 Java批量操作文档

5.4.1 批量添加

代码如下

@Test
public void bulkCreateDoc() throws IOException {
     
    //1. 准备多个json数据
    Person p1 = new Person(1,"张三",23,new Date());
    Person p2 = new Person(2,"李四",24,new Date());
    Person p3 = new Person(3,"王五",25,new Date());

    String json1 = mapper.writeValueAsString(p1);
    String json2 = mapper.writeValueAsString(p2);
    String json3 = mapper.writeValueAsString(p3);

    //2. 创建Request,将准备好的数据封装进去
    BulkRequest request = new BulkRequest();
    request.add(new IndexRequest(index,type,p1.getId().toString()).source(json1,XContentType.JSON));
    request.add(new IndexRequest(index,type,p2.getId().toString()).source(json2,XContentType.JSON));
    request.add(new IndexRequest(index,type,p3.getId().toString()).source(json3,XContentType.JSON));

    //3. 用client执行
    BulkResponse resp = client.bulk(request, RequestOptions.DEFAULT);

    //4. 输出结果
    System.out.println(resp.toString());
}
5.4.2 批量删除

代码如下

@Test
public void bulkDeleteDoc() throws IOException {
     
    //1. 封装Request对象
    BulkRequest request = new BulkRequest();
    request.add(new DeleteRequest(index,type,"1"));
    request.add(new DeleteRequest(index,type,"2"));
    request.add(new DeleteRequest(index,type,"3"));

    //2. client执行
    BulkResponse resp = client.bulk(request, RequestOptions.DEFAULT);

    //3. 输出
    System.out.println(resp);
}
5.4.3 批量操作

代码如下

    @Override
    public void bulkRequest(String index, String type, List<DocWriteRequest> requests) throws IOException {
     
        BulkRequest bulkRequest = new BulkRequest();
        for (DocWriteRequest request : requests) {
     
            bulkRequest.add(request);
        }
    }
    @Test
    public void testBulk() throws IOException {
     
        DocumentService documentService = new DocumentServiceImpl();
        Novel novel = new Novel();
        novel.setAuthor("东野圭吾");
        novel.setCount(12);
        novel.setName("白夜行");
        novel.setOn_sale(new Date());
        documentService.bulkIndex(index,type,JSONObject.toJSONString(novel),"12306");
        List<DocWriteRequest> requests = null;
        DeleteRequest deleteRequest = null;
        IndexRequest indexRequest = null;
        requests.add(deleteRequest);
        requests.add(indexRequest);
    }

5.5 Get查单个

public class DocumentServiceImpl implements DocumentService{
     
    @Override
    public void getDoc(String index, String type, String id) throws Exception {
     
        RestHighLevelClient client = ConnectionUtil.restHighLevelClient();
        GetRequest getRequest = new GetRequest(index,type,id);
        GetResponse response = client.get(getRequest,RequestOptions.DEFAULT);
        String json = response.getSourceAsString();
        System.err.println(json);
    }
}
    @Test
    public void testGet() throws Exception {
     
        DocumentService documentService = new DocumentServiceImpl();
        documentService.getDoc(index,type,"12306");
    }

5.6 ElasticSearch练习

创建索引,指定数据结构

索引名:sms-logs-index

类型名:sms_logs_type

结构如下:

索引结构图
ElasticSearch 笔记_第9张图片
PUT /sms-logs-index
{
     
  "settings": {
     

    "number_of_shards": 5,

    "number_of_replicas": 1
  }
}

POST /sms-logs-index/_mapping/sms_logs_type
{
     
      "properties": {
     
        "corpName": {
     
          "type": "keyword"
        },
        "createDate": {
     
          "type": "date"
        },
        "fee": {
     
          "type": "integer"
        },
        "ipAddr": {
     
          "type": "ip"
        },
        "longCode": {
     
          "type": "keyword"
        },
        "mobile": {
     
          "type": "keyword"
        },
        "operatorId": {
     
          "type": "integer"
        },
        "province": {
     
          "type": "keyword"
        },
        "replyTotal": {
     
          "type": "integer"
        },
        "sendDate": {
     
          "type": "date"
        },
        "smsContent": {
     
          "type": "text",
          "analyzer": "ik_max_word"
        },
        "state": {
     
          "type": "integer"
        }
      }
}

六、 ElasticSearch的各种查询


6.1 term&terms查询【重点

6.1.1 term查询

term的查询是代表完全匹配,搜索之前不会对你搜索的关键字进行分词,对你的关键字去文档分词库中去匹配内容。

# term查询
POST /sms-logs-index/sms_logs_type/_search
{
     
  "from": 0,     # limit ?
  "size": 5,	  # limit x,?
  "query": {
     
    "term": {
     
      "province": {
     
        "value": "北京"
      }
    }
  }
}

代码实现方式

public class QueryServiceImpl implements QueryService {
     
        @Override
    public void termQuery(String index, String type, String field, String value) throws Exception {
     
        RestHighLevelClient client = ConnectionUtil.restHighLevelClient();
        SearchRequest searchRequest = new SearchRequest(index).types(type);
        SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
        searchSourceBuilder.query(QueryBuilders.termQuery(field, value));
        searchRequest.source(searchSourceBuilder);
        SearchResponse response = client.search(searchRequest, RequestOptions.DEFAULT);
        SearchHit[] hits = response.getHits().getHits();
        for (SearchHit hit : hits) {
     
            System.err.println(hit.getSourceAsString());
        }
    }
}
    @Test
    public void testTermQuery() throws Exception {
     
        QueryService queryService = new QueryServiceImpl();
        queryService.termQuery(index,type,"author","阿加莎");
    }
6.1.2 terms查询

terms和term的查询机制是一样,都不会将指定的查询关键字进行分词,直接去分词库中匹配,找到相应文档内容。

terms是在针对一个字段包含多个值的时候使用。

term:where province = 北京;

terms:where province = 北京 or province = ?or province = ?

# terms查询
POST /sms-logs-index/sms_logs_type/_search
{
     
  "query": {
     
    "terms": {
     
      "province": [
        "北京",
        "山西",
        "武汉"
      ]
    }
  }
}

代码实现方式

public class QueryServiceImpl implements QueryService {
     
        @Override
    public void termsQuery(String index, String type, String field, String... value) throws Exception {
     
        RestHighLevelClient client = ConnectionUtil.restHighLevelClient();
        SearchRequest searchRequest = new SearchRequest(index).types(type);
        SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
        searchSourceBuilder.query(QueryBuilders.termsQuery(field, value));
        searchRequest.source(searchSourceBuilder);
        SearchResponse response = client.search(searchRequest, RequestOptions.DEFAULT);
        SearchHit[] hits = response.getHits().getHits();
        for (SearchHit hit : hits) {
     
            System.err.println(hit.getSourceAsString());
        }
    }
}
    @Test
    public void testTermsQuery() throws Exception {
     
        QueryServiceImpl queryService = new QueryServiceImpl();
        queryService.termsQuery(index,type,"author","阿加莎","曹雪芹");
    }

6.2 match查询【重点

match查询属于高层查询,他会根据你查询的字段类型不一样,采用不同的查询方式。

  • 查询的是日期或者是数值的话,他会将你基于的字符串查询内容转换为日期或者数值对待。
  • 如果查询的内容是一个不能被分词的内容(keyword),match查询不会对你指定的查询关键字进行分词。
  • 如果查询的内容时一个可以被分词的内容(text),match会将你指定的查询内容根据一定的方式去分词,去分词库中匹配指定的内容。

match查询,实际底层就是多个term查询,将多个term查询的结果给你封装到了一起。

6.2.1 match_all查询

查询全部内容,不指定任何查询条件。

# match_all查询
POST /sms-logs-index/sms_logs_type/_search
{
     
  "query": {
     
    "match_all": {
     }
  }
}

代码实现方式

public class QueryServiceImpl implements QueryService {
     
    @Override
    public void queryAll(String index, String type) throws Exception {
     
        RestHighLevelClient client = ConnectionUtil.restHighLevelClient();
        SearchRequest searchRequest = new SearchRequest(index).types(type);
        SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
        searchSourceBuilder.query(QueryBuilders.matchAllQuery());
        searchRequest.source(searchSourceBuilder);
        SearchResponse response = client.search(searchRequest, RequestOptions.DEFAULT);
        SearchHit[] hits = response.getHits().getHits();
        for (SearchHit hit : hits) {
     
            System.err.println(hit.getSourceAsString());
        }
    }
}
6.2.2 match查询

指定一个Field作为筛选的条件

# match查询 ,首先把 收货安装 拆分 得到的可能是收货和安装两个词语,然后用这两个词语去查看分词区域,找到这两个词语对应的数据的索引是哪些,然后根据索引获取到数据之后返回
POST /sms-logs-index/sms_logs_type/_search
{
     
  "query": {
     
    "match": {
     
      "smsContent": "收货安装"
    }
  }
}

代码实现方式

public class QueryServiceImpl implements QueryService {
     
    @Override
    public void matchQuery(String index, String type, String field, String value) throws Exception {
     
        RestHighLevelClient client = ConnectionUtil.restHighLevelClient();
        SearchRequest searchRequest = new SearchRequest(index).types(type);
        SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
        searchSourceBuilder.query(QueryBuilders.matchQuery(field,value));
        searchRequest.source(searchSourceBuilder);
        SearchResponse response = client.search(searchRequest, RequestOptions.DEFAULT);
        SearchHit[] hits = response.getHits().getHits();
        for (SearchHit hit : hits) {
     
            System.err.println(hit.getSourceAsString());
        }
    }
}
    @Test
    public void testMatchQuery() throws Exception {
     
        QueryServiceImpl queryService = new QueryServiceImpl();
        queryService.matchQuery(index,type,"smsContent","安装");
    }
6.2.3 布尔match查询

基于一个Field匹配的内容,采用and或者or的方式连接

# 布尔match查询
POST /sms-logs-index/sms_logs_type/_search
{
     
  "query": {
     
    "match": {
     
      "smsContent": {
     
        "query": "中国 健康",
        "operator": "and"      # 内容既包含中国也包含健康
      }
    }
  }
}


# 布尔match查询
POST /sms-logs-index/sms_logs_type/_search
{
     
  "query": {
     
    "match": {
     
      "smsContent": {
     
        "query": "中国 健康",
        "operator": "or"		# 内容包括健康或者包括中国
      }
    }
  }
}

代码实现方式

public class QueryServiceImpl implements QueryService {
     
    @Override
    public void matchQueryWithOperator(String index, String type, String field, String value, Operator operator) throws Exception {
     
        RestHighLevelClient client = ConnectionUtil.restHighLevelClient();
        SearchRequest searchRequest = new SearchRequest(index).types(type);
        SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
        searchSourceBuilder.query(QueryBuilders.matchQuery(field, value).operator(operator));
        searchRequest.source(searchSourceBuilder);
        SearchResponse response = client.search(searchRequest, RequestOptions.DEFAULT);
        SearchHit[] hits = response.getHits().getHits();
        for (SearchHit hit : hits) {
     
            System.err.println(hit.getSourceAsString());
        }
    }
}
6.2.4 multi_match查询

match针对一个field做检索,multi_match针对多个field进行检索,多个field对应一个text。

# multi_match 查询
POST /sms-logs-index/sms_logs_type/_search
{
     
  "query": {
     
    "multi_match": {
     
      "query": "北京",					# 指定text
      "fields": ["province","smsContent"]    # 指定field们
    }
  }
}

代码实现方式

public class QueryServiceImpl implements QueryService {
     
    @Override
    public void matchQueryMulti(String index, String type, String value, String... field) throws Exception {
     
        RestHighLevelClient client = ConnectionUtil.restHighLevelClient();
        SearchRequest searchRequest = new SearchRequest(index).types(type);
        SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
        searchSourceBuilder.query(QueryBuilders.multiMatchQuery(field, value));
        searchRequest.source(searchSourceBuilder);
        SearchResponse response = client.search(searchRequest, RequestOptions.DEFAULT);
        SearchHit[] hits = response.getHits().getHits();
        for (SearchHit hit : hits) {
     
            System.err.println(hit.getSourceAsString());
        }
    }
}
// java代码实现
@Test
public void multiMatchQuery() throws IOException {
     
    //1. 创建Request
    SearchRequest request = new SearchRequest(index);
    request.types(type);

    //2. 指定查询条件
    SearchSourceBuilder builder = new SearchSourceBuilder();
    //-----------------------------------------------
    builder.query(QueryBuilders.multiMatchQuery("北京","province","smsContent"));
    //-----------------------------------------------
    request.source(builder);
    //3. 执行查询
    SearchResponse resp = client.search(request, RequestOptions.DEFAULT);

    //4. 输出结果
    for (SearchHit hit : resp.getHits().getHits()) {
     
        System.out.println(hit.getSourceAsMap());
    }
}

6.3 其他查询

6.3.1 id查询

根据id查询 where id = ?

# id查询
GET /sms-logs-index/sms_logs_type/1

代码实现方式

// Java代码实现
@Test
public void findById() throws IOException {
     
    //1. 创建GetRequest
    GetRequest request = new GetRequest(index,type,"1");

    //2. 执行查询
    GetResponse resp = client.get(request, RequestOptions.DEFAULT);

    //3. 输出结果
    System.out.println(resp.getSourceAsMap());
}
6.3.2 ids查询

根据多个id查询,类似MySQL中的where id in(id1,id2,id2…)

# ids查询
POST /sms-logs-index/sms_logs_type/_search
{
     
  "query": {
     
    "ids": {
     
      "values": ["1","2","3"]
    }
  }
}

代码实现方式

public class QueryServiceImpl implements QueryService {
     
    @Override
    public void idsQuery(String index, String type, String... id) throws Exception {
     
        RestHighLevelClient client = ConnectionUtil.restHighLevelClient();
        SearchRequest searchRequest = new SearchRequest(index);
        searchRequest.types(type);
        SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
        searchSourceBuilder.query(QueryBuilders.idsQuery(type).addIds(id));
        searchRequest.source(searchSourceBuilder);
        SearchResponse response = client.search(searchRequest, RequestOptions.DEFAULT);
        SearchHit[] searchHits = response.getHits().getHits();
        for (SearchHit searchHit : searchHits) {
     
            System.err.println(searchHit.getSourceAsString());
        }
    }
}
    @Test
    public void testIdsQuery() throws Exception {
     
        QueryServiceImpl queryService = new QueryServiceImpl();
        queryService.idsQuery(index,type,"1","2");
    }
6.3.3 prefix查询

前缀查询,可以通过一个关键字去指定一个Field的前缀,从而查询到指定的文档。

#prefix 查询
POST /sms-logs-index/sms_logs_type/_search
{
     
  "query": {
     
    "prefix": {
     
      "corpName": {
     
        "value": "途虎"
      }
    }
  }
}

代码实现方式

// Java实现前缀查询
@Test
public void findByPrefix() throws IOException {
     
    //1. 创建SearchRequest
    SearchRequest request = new SearchRequest(index);
    request.types(type);

    //2. 指定查询条件
    SearchSourceBuilder builder = new SearchSourceBuilder();
    //----------------------------------------------------------
    builder.query(QueryBuilders.prefixQuery("corpName","盒马"));
    //----------------------------------------------------------
    request.source(builder);

    //3. 执行
    SearchResponse resp = client.search(request, RequestOptions.DEFAULT);

    //4. 输出结果
    for (SearchHit hit : resp.getHits().getHits()) {
     
        System.out.println(hit.getSourceAsMap());
    }
}
6.3.4 fuzzy查询

模糊查询,我们输入字符的大概,ES就可以去根据输入的内容大概去匹配一下结果。

# fuzzy查询
POST /sms-logs-index/sms_logs_type/_search
{
     
  "query": {
     
    "fuzzy": {
     
      "corpName": {
     
        "value": "盒马先生",
        "prefix_length": 2			# 指定前面几个字符是不允许出现错误的
      }
    }
  }
}

代码实现方式

// Java代码实现Fuzzy查询
@Test
public void findByFuzzy() throws IOException {
     
    //1. 创建SearchRequest
    SearchRequest request = new SearchRequest(index);
    request.types(type);

    //2. 指定查询条件
    SearchSourceBuilder builder = new SearchSourceBuilder();
    //----------------------------------------------------------
    builder.query(QueryBuilders.fuzzyQuery("corpName","盒马先生").prefixLength(2));
    //----------------------------------------------------------
    request.source(builder);

    //3. 执行
    SearchResponse resp = client.search(request, RequestOptions.DEFAULT);

    //4. 输出结果
    for (SearchHit hit : resp.getHits().getHits()) {
     
        System.out.println(hit.getSourceAsMap());
    }
}
6.3.5 wildcard查询

通配查询,和MySQL中的like是一个套路,可以在查询时,在字符串中指定通配符*和占位符?

# wildcard 查询
POST /sms-logs-index/sms_logs_type/_search
{
     
  "query": {
     
    "wildcard": {
     
      "corpName": {
     
        "value": "中国*"    # 可以使用*和?指定通配符和占位符
      }
    }
  }
}

代码实现方式

// Java代码实现Wildcard查询
@Test
public void findByWildCard() throws IOException {
     
    //1. 创建SearchRequest
    SearchRequest request = new SearchRequest(index);
    request.types(type);

    //2. 指定查询条件
    SearchSourceBuilder builder = new SearchSourceBuilder();
    //----------------------------------------------------------
    builder.query(QueryBuilders.wildcardQuery("corpName","中国*"));
    //----------------------------------------------------------
    request.source(builder);

    //3. 执行
    SearchResponse resp = client.search(request, RequestOptions.DEFAULT);

    //4. 输出结果
    for (SearchHit hit : resp.getHits().getHits()) {
     
        System.out.println(hit.getSourceAsMap());
    }
}
6.3.6 range查询

范围查询,只针对数值类型,对某一个Field进行大于或者小于的范围指定

# range 查询
POST /sms-logs-index/sms_logs_type/_search
{
     
  "query": {
     
    "range": {
     
      "fee": {
     
        "gt": 5,
        "lte": 10
         # 可以使用 gt:>      gte:>=     lt:<     lte:<=
      }
    }
  }
}

代码实现方式

// Java实现range范围查询
@Test
public void findByRange() throws IOException {
     
    //1. 创建SearchRequest
    SearchRequest request = new SearchRequest(index);
    request.types(type);

    //2. 指定查询条件
    SearchSourceBuilder builder = new SearchSourceBuilder();
    //----------------------------------------------------------
    builder.query(QueryBuilders.rangeQuery("fee").lte(10).gte(5));
    //----------------------------------------------------------
    request.source(builder);

    //3. 执行
    SearchResponse resp = client.search(request, RequestOptions.DEFAULT);

    //4. 输出结果
    for (SearchHit hit : resp.getHits().getHits()) {
     
        System.out.println(hit.getSourceAsMap());
    }
}

6.3.7 regexp查询

正则查询,通过你编写的正则表达式去匹配内容。

Ps:prefix,fuzzy,wildcard和regexp查询效率相对比较低,要求效率比较高时,避免去使用

# regexp 查询
POST /sms-logs-index/sms_logs_type/_search
{
     
  "query": {
     
    "regexp": {
     
      "mobile": "180[0-9]{8}"    # 编写正则
    }
  }
}

代码实现方式

// Java代码实现正则查询
@Test
public void findByRegexp() throws IOException {
     
    //1. 创建SearchRequest
    SearchRequest request = new SearchRequest(index);
    request.types(type);

    //2. 指定查询条件
    SearchSourceBuilder builder = new SearchSourceBuilder();
    //----------------------------------------------------------
    builder.query(QueryBuilders.regexpQuery("mobile","139[0-9]{8}"));
    //----------------------------------------------------------
    request.source(builder);

    //3. 执行
    SearchResponse resp = client.search(request, RequestOptions.DEFAULT);

    //4. 输出结果
    for (SearchHit hit : resp.getHits().getHits()) {
     
        System.out.println(hit.getSourceAsMap());
    }
}

6.4 深分页Scroll

ES对from + size是有限制的,from和size二者之和不能超过1W

原理:

  • from+size在ES查询数据的方式:

    • 第一步现将用户指定的关键进行分词。
    • 第二步将词汇去分词库中进行检索,得到多个文档的id。
    • 第三步去各个分片中去拉取指定的数据。耗时较长。
    • 第四步将数据根据score进行排序。耗时较长。
    • 第五步根据from的值,将查询到的数据舍弃一部分。
    • 第六步返回结果。
  • scroll+size在ES查询数据的方式:

    • 第一步现将用户指定的关键进行分词。
    • 第二步将词汇去分词库中进行检索,得到多个文档的id。
    • 第三步将文档的id存放在一个ES的上下文中。
    • 第四步根据你指定的size的个数去ES中检索指定个数的数据,拿完数据的文档id,会从上下文中移除。
    • 第五步如果需要下一页数据,直接去ES的上下文中,找后续内容。
    • 第六步循环第四步和第五步

Scroll查询方式,不适合做实时的查询

# 执行scroll查询,返回第一页数据,并且将文档id信息存放在ES上下文中,指定生存时间1m
POST /sms-logs-index/sms_logs_type/_search?scroll=1m
{
     
  "query": {
     
    "match_all": {
     }
  },
  "size": 2,
  "sort": [					# 排序
    {
     
      "fee": {
     
        "order": "desc"
      }
    }
  ]
}

# 根据scroll查询下一页数据
POST /_search/scroll
{
     
  "scroll_id": "<根据第一步得到的scorll_id去指定>",
  "scroll": ""
}


# 删除scroll在ES上下文中的数据
DELETE /_search/scroll/scroll_id

代码实现方式

// Java实现scroll分页
@Test
public void scrollQuery() throws IOException {
     
    //1. 创建SearchRequest
    SearchRequest request = new SearchRequest(index);
    request.types(type);

    //2. 指定scroll信息
    request.scroll(TimeValue.timeValueMinutes(1L));

    //3. 指定查询条件
    SearchSourceBuilder builder = new SearchSourceBuilder();
    builder.size(4);
    builder.sort("fee", SortOrder.DESC);
    builder.query(QueryBuilders.matchAllQuery());
    
    request.source(builder);

    //4. 获取返回结果scrollId,source
    SearchResponse resp = client.search(request, RequestOptions.DEFAULT);

    String scrollId = resp.getScrollId();
    System.out.println("----------首页---------");
    for (SearchHit hit : resp.getHits().getHits()) {
     
        System.out.println(hit.getSourceAsMap());
    }


    while(true) {
     
        //5. 循环 - 创建SearchScrollRequest
        SearchScrollRequest scrollRequest = new SearchScrollRequest(scrollId);

        //6. 指定scrollId的生存时间
        scrollRequest.scroll(TimeValue.timeValueMinutes(1L));

        //7. 执行查询获取返回结果
        SearchResponse scrollResp = client.scroll(scrollRequest, RequestOptions.DEFAULT);

        //8. 判断是否查询到了数据,输出
        SearchHit[] hits = scrollResp.getHits().getHits();
        if(hits != null && hits.length > 0) {
     
            System.out.println("----------下一页---------");
            for (SearchHit hit : hits) {
     
                System.out.println(hit.getSourceAsMap());
            }
        }else{
     
            //9. 判断没有查询到数据-退出循环
            System.out.println("----------结束---------");
            break;
        }
    }


    //10. 创建CLearScrollRequest
    ClearScrollRequest clearScrollRequest = new ClearScrollRequest();

    //11. 指定ScrollId
    clearScrollRequest.addScrollId(scrollId);

    //12. 删除ScrollId
    ClearScrollResponse clearScrollResponse = client.clearScroll(clearScrollRequest, RequestOptions.DEFAULT);

    //13. 输出结果
    System.out.println("删除scroll:" + clearScrollResponse.isSucceeded());

}
@Override
    public String scrollQuery(String index, String type, String scrollid) throws Exception {
     
        RestHighLevelClient client = ConnectionUtil.restHighLevelClient();
        SearchRequest searchRequest = null;
        SearchResponse response = null;
        if (scrollid == null) {
     
            searchRequest = new SearchRequest(index);
            searchRequest.types(type);
            //设置滚动查询
            searchRequest.scroll(TimeValue.timeValueMinutes(1l));

            SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
            searchSourceBuilder.query(QueryBuilders.matchAllQuery());
            searchSourceBuilder.size(2);//指定一次获取的数据长度
            searchRequest.source(searchSourceBuilder);
            response = client.search(searchRequest, RequestOptions.DEFAULT);
            scrollid = response.getScrollId();
        } else {
     
            SearchScrollRequest request = new SearchScrollRequest(scrollid);
            response = client.scroll(request, RequestOptions.DEFAULT);
        }


        //获取id
        System.err.println(scrollid);
        for (SearchHit hit : response.getHits().getHits()) {
     
            System.err.println(hit.getSourceAsString());
        }

        return scrollid;

    }

6.5 delete-by-query

根据term,match等查询方式去删除大量的文档

Ps:如果你需要删除的内容,是index下的大部分数据,推荐创建一个全新的index,将保留的文档内容,添加到全新的索引

# delete-by-query
POST /sms-logs-index/sms_logs_type/_delete_by_query
{
     
  "query": {
     
    "range": {
     
      "fee": {
     
        "lt": 4
      }
    }
  }
}

代码实现方式

// Java代码实现
@Test
public void deleteByQuery() throws IOException {
     
    //1. 创建DeleteByQueryRequest
    DeleteByQueryRequest request = new DeleteByQueryRequest(index);
    request.types(type);

    //2. 指定检索的条件    和SearchRequest指定Query的方式不一样
    request.setQuery(QueryBuilders.rangeQuery("fee").lt(4));

    //3. 执行删除
    BulkByScrollResponse resp = client.deleteByQuery(request, RequestOptions.DEFAULT);

    //4. 输出返回结果
    System.out.println(resp.toString());

}
    @Override
    public void deleteByQuery(String index, String type, QueryBuilder builder) throws Exception {
     
        RestHighLevelClient client = ConnectionUtil.restHighLevelClient();
        DeleteByQueryRequest request = new DeleteByQueryRequest(index).types(type).setQuery(builder);
        BulkByScrollResponse response = client.deleteByQuery(request, RequestOptions.DEFAULT);
        System.err.println(response);

    }

6.6 复合查询

6.6.1 bool查询

复合过滤器,将你的多个查询条件,以一定的逻辑组合在一起。

  • must: 所有的条件,用must组合在一起,表示And的意思
  • must_not:将must_not中的条件,全部都不能匹配,标识Not的意思
  • should:所有的条件,用should组合在一起,表示Or的意思
# 查询省份为武汉或者北京
# 运营商不是联通
# smsContent中包含中国和平安
# bool查询
POST /sms-logs-index/sms_logs_type/_search
{
     
  "query": {
     
    "bool": {
     
      "should": [
        {
     
          "term": {
     
            "province": {
     
              "value": "北京"
            }
          }
        },
        {
     
          "term": {
     
            "province": {
     
              "value": "武汉"
            }
          }
        }
      ],
      "must_not": [
        {
     
          "term": {
     
            "operatorId": {
     
              "value": "2"
            }
          }
        }
      ],
      "must": [
        {
     
          "match": {
     
            "smsContent": "中国"
          }
        },
        {
     
          "match": {
     
            "smsContent": "平安"
          }
        }
      ]
    }
  }
}

代码实现方式

// Java代码实现Bool查询
@Test
public void BoolQuery() throws IOException {
     
    //1. 创建SearchRequest
    SearchRequest request = new SearchRequest(index);
    request.types(type);

    //2. 指定查询条件
    SearchSourceBuilder builder = new SearchSourceBuilder();
    BoolQueryBuilder boolQuery = QueryBuilders.boolQuery();
    // # 查询省份为武汉或者北京
    boolQuery.should(QueryBuilders.termQuery("province","武汉"));
    boolQuery.should(QueryBuilders.termQuery("province","北京"));
    // # 运营商不是联通
    boolQuery.mustNot(QueryBuilders.termQuery("operatorId",2));
    // # smsContent中包含中国和平安
    boolQuery.must(QueryBuilders.matchQuery("smsContent","中国"));
    boolQuery.must(QueryBuilders.matchQuery("smsContent","平安"));

    builder.query(boolQuery);
    request.source(builder);

    //3. 执行查询
    SearchResponse resp = client.search(request, RequestOptions.DEFAULT);

    //4. 输出结果
    for (SearchHit hit : resp.getHits().getHits()) {
     
        System.out.println(hit.getSourceAsMap());
    }
}
6.6.2 boosting查询

boosting查询可以帮助我们去影响查询后的score。

  • positive:只有匹配上positive的查询的内容,才会被放到返回的结果集中。
  • negative:如果匹配上和positive并且也匹配上了negative,就可以降低这样的文档score。
  • negative_boost:指定系数,必须小于1.0

关于查询时,分数是如何计算的:

  • 搜索的关键字在文档中出现的频次越高,分数就越高
  • 指定的文档内容越短,分数就越高
  • 我们在搜索时,指定的关键字也会被分词,这个被分词的内容,被分词库匹配的个数越多,分数越高
  • 注意,这个分数的计算是由分片自己计算的,会存在一些偏差,也就是分数都是近似值,不是绝对值,所以最终排序结果上可能会和我们以为的有误差
# boosting查询  收货安装
POST /sms-logs-index/sms_logs_type/_search
{
     
  "query": {
     
    "boosting": {
     
      "positive": {
     
        "match": {
     
          "smsContent": "收货安装"
        }
      },
      "negative": {
     
        "match": {
     
          "smsContent": "王五"
        }
      },
      "negative_boost": 0.5
    }
  }
}

代码实现方式

// Java实现Boosting查询
@Test
public void BoostingQuery() throws IOException {
     
    //1. 创建SearchRequest
    SearchRequest request = new SearchRequest(index);
    request.types(type);

    //2. 指定查询条件
    SearchSourceBuilder builder = new SearchSourceBuilder();
    BoostingQueryBuilder boostingQuery = QueryBuilders.boostingQuery(
            QueryBuilders.matchQuery("smsContent", "收货安装"),
            QueryBuilders.matchQuery("smsContent", "王五")
    ).negativeBoost(0.5f);

    builder.query(boostingQuery);
    request.source(builder);

    //3. 执行查询
    SearchResponse resp = client.search(request, RequestOptions.DEFAULT);

    //4. 输出结果
    for (SearchHit hit : resp.getHits().getHits()) {
     
        System.out.println(hit.getSourceAsMap());
    }
}

6.7 filter查询

query,根据你的查询条件,去计算文档的匹配度得到一个分数,并且根据分数进行排序,不会做缓存的。

filter,根据你的查询条件去查询文档,不去计算分数,而且filter会对经常被过滤的数据进行缓存。

# filter查询
POST /sms-logs-index/sms_logs_type/_search
{
     
  "query": {
     
    "bool": {
     
      "filter": [
        {
     
          "term": {
     
            "corpName": "盒马鲜生"
          }
        },
        {
     
          "range": {
     
            "fee": {
     
              "lte": 4
            }
          }
        }
      ]
    }
  }
}

代码实现方式

// Java实现filter操作
@Test
public void filter() throws IOException {
     
    //1. SearchRequest
    SearchRequest request = new SearchRequest(index);
    request.types(type);

    //2. 查询条件
    SearchSourceBuilder builder = new SearchSourceBuilder();
    BoolQueryBuilder boolQuery = QueryBuilders.boolQuery();
    boolQuery.filter(QueryBuilders.termQuery("corpName","盒马鲜生"));
    boolQuery.filter(QueryBuilders.rangeQuery("fee").lte(5));

    builder.query(boolQuery);
    request.source(builder);

    //3. 执行查询
    SearchResponse resp = client.search(request, RequestOptions.DEFAULT);

    //4. 输出结果
    for (SearchHit hit : resp.getHits().getHits()) {
     
        System.out.println(hit.getSourceAsMap());
    }


}

6.8 高亮查询【重点

高亮查询就是你用户输入的关键字,以一定的特殊样式展示给用户,让用户知道为什么这个结果被检索出来。

高亮展示的数据,本身就是文档中的一个Field,单独将Field以highlight的形式返回给你。

ES提供了一个highlight属性,和query同级别的。

  • fragment_size:指定高亮数据展示多少个字符回来。
  • pre_tags:指定前缀标签,举个栗子< font color=“red” >
  • post_tags:指定后缀标签,举个栗子< /font >
  • fields:指定哪几个Field以高亮形式返回
效果图
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-wn8ZsXwV-1599652115562)(Pictures/1587296912692.png)]

RESTful实现

# highlight查询
POST /sms-logs-index/sms_logs_type/_search
{
     
  "query": {
     
    "match": {
     
      "smsContent": "盒马"
    }
  },
  "highlight": {
     
    "fields": {
     
      "smsContent": {
     }
    },
    "pre_tags": "",
    "post_tags": "",
    "fragment_size": 10
  }
}

代码实现方式

// Java实现高亮查询
@Test
public void highLightQuery() throws IOException {
     
    //1. SearchRequest
    SearchRequest request = new SearchRequest(index);
    request.types(type);

    //2. 指定查询条件(高亮)
    SearchSourceBuilder builder = new SearchSourceBuilder();
    //2.1 指定查询条件
    builder.query(QueryBuilders.matchQuery("smsContent","盒马"));
    //2.2 指定高亮
    HighlightBuilder highlightBuilder = new HighlightBuilder();
    highlightBuilder.field("smsContent",10)
            .preTags("")
            .postTags("");
    builder.highlighter(highlightBuilder);

    request.source(builder);

    //3. 执行查询
    SearchResponse resp = client.search(request, RequestOptions.DEFAULT);

    //4. 获取高亮数据,输出
    for (SearchHit hit : resp.getHits().getHits()) {
     
        System.out.println(hit.getHighlightFields().get("smsContent"));
    }
}

6.9 聚合查询【重点

ES的聚合查询和MySQL的聚合查询类似,ES的聚合查询相比MySQL要强大的多,ES提供的统计数据的方式多种多样。

# ES聚合查询的RESTful语法
POST /index/type/_search
{
     
    "aggs": {
     
        "名字(agg)": {
     
            "agg_type": {
     
                "属性": "值"
            }
        }
    }
}
6.9.1 去重计数查询

去重计数,即Cardinality,第一步先将返回的文档中的一个指定的field进行去重,统计一共有多少条

# 去重计数查询 北京 上海 武汉 山西
POST /sms-logs-index/sms_logs_type/_search
{
     
  "aggs": {
     
    "agg": {
     
      "cardinality": {
     
        "field": "province"
      }
    }
  }
}

代码实现方式

//  Java代码实现去重计数查询
@Test
public void cardinality() throws IOException {
     
    //1. 创建SearchRequest
    SearchRequest request = new SearchRequest(index);
    request.types(type);

    //2. 指定使用的聚合查询方式
    SearchSourceBuilder builder = new SearchSourceBuilder();
    builder.aggregation(AggregationBuilders.cardinality("agg").field("province"));

    request.source(builder);

    //3. 执行查询
    SearchResponse resp = client.search(request, RequestOptions.DEFAULT);

    //4. 获取返回结果
    Cardinality agg = resp.getAggregations().get("agg");
    long value = agg.getValue();
    System.out.println(value);
}
6.9.2 范围统计

统计一定范围内出现的文档个数,比如,针对某一个Field的值在 0100,100200,200~300之间文档出现的个数分别是多少。

范围统计可以针对普通的数值,针对时间类型,针对ip类型都可以做相应的统计。

range,date_range,ip_range

数值统计

# 数值方式范围统计
POST /sms-logs-index/sms_logs_type/_search
{
     
  "aggs": {
     
    "agg": {
     
      "range": {
     
        "field": "fee",
        "ranges": [
          {
     
            "to": 5
          },
          {
     
            "from": 5,    # from有包含当前值的意思  
            "to": 10
          },
          {
     
            "from": 10
          }
        ]
      }
    }
  }
}

时间范围统计

# 时间方式范围统计
POST /sms-logs-index/sms_logs_type/_search
{
     
  "aggs": {
     
    "agg": {
     
      "date_range": {
     
        "field": "createDate",
        "format": "yyyy", 
        "ranges": [
          {
     
            "to": 2000
          },
          {
     
            "from": 2000
          }
        ]
      }
    }
  }
}

ip统计方式

# ip方式 范围统计
POST /sms-logs-index/sms_logs_type/_search
{
     
  "aggs": {
     
    "agg": {
     
      "ip_range": {
     
        "field": "ipAddr",
        "ranges": [
          {
     
            "to": "10.126.2.9"
          },
          {
     
            "from": "10.126.2.9"
          }
        ]
      }
    }
  }
}

代码实现方式

// Java实现数值 范围统计
@Test
public void range() throws IOException {
     
    //1. 创建SearchRequest
    SearchRequest request = new SearchRequest(index);
    request.types(type);

    //2. 指定使用的聚合查询方式
    SearchSourceBuilder builder = new SearchSourceBuilder();
    //---------------------------------------------
    builder.aggregation(AggregationBuilders.range("agg").field("fee")
                                        .addUnboundedTo(5)
                                        .addRange(5,10)
                                        .addUnboundedFrom(10));
    //---------------------------------------------
    request.source(builder);

    //3. 执行查询
    SearchResponse resp = client.search(request, RequestOptions.DEFAULT);

    //4. 获取返回结果
    Range agg = resp.getAggregations().get("agg");
    for (Range.Bucket bucket : agg.getBuckets()) {
     
        String key = bucket.getKeyAsString();
        Object from = bucket.getFrom();
        Object to = bucket.getTo();
        long docCount = bucket.getDocCount();
        System.out.println(String.format("key:%s,from:%s,to:%s,docCount:%s",key,from,to,docCount));
    }
}
6.9.3 统计聚合查询

他可以帮你查询指定Field的最大值,最小值,平均值,平方和等

使用:extended_stats

# 统计聚合查询
POST /sms-logs-index/sms_logs_type/_search
{
     
  "aggs": {
     
    "agg": {
     
      "extended_stats": {
     
        "field": "fee"
      }
    }
  }
}

代码实现方式

// Java实现统计聚合查询
@Test
public void extendedStats() throws IOException {
     
    //1. 创建SearchRequest
    SearchRequest request = new SearchRequest(index);
    request.types(type);

    //2. 指定使用的聚合查询方式
    SearchSourceBuilder builder = new SearchSourceBuilder();
    //---------------------------------------------
    builder.aggregation(AggregationBuilders.extendedStats("agg").field("fee"));
    //---------------------------------------------
    request.source(builder);

    //3. 执行查询
    SearchResponse resp = client.search(request, RequestOptions.DEFAULT);

    //4. 获取返回结果
    ExtendedStats agg = resp.getAggregations().get("agg");
    double max = agg.getMax();
    double min = agg.getMin();
    System.out.println("fee的最大值为:" + max + ",最小值为:" + min);
}

其他的聚合查询方式查看官方文档:https://www.elastic.co/guide/en/elasticsearch/reference/6.5/index.html

6.10 地图经纬度搜索

ES中提供了一个数据类型 geo_point,这个类型就是用来存储经纬度的。

创建一个带geo_point类型的索引,并添加测试数据

# 创建一个索引,指定一个name,locaiton
PUT /map
{
     
  "settings": {
     
    "number_of_shards": 5,
    "number_of_replicas": 1
  },
  "mappings": {
     
    "map": {
     
      "properties": {
     
        "name": {
     
          "type": "text"
        },
        "location": {
     
          "type": "geo_point"
        }
      }
    }
  }
}


# 添加测试数据
PUT /map/map/1
{
     
  "name": "天安门",
  "location": {
     
    "lon": 116.403981,
    "lat": 39.914492 
  }
}


PUT /map/map/2
{
     
  "name": "海淀公园",
  "location": {
     
    "lon": 116.302509,
    "lat": 39.991152 
  }
}

PUT /map/map/3
{
     
  "name": "北京动物园",
  "location": {
     
    "lon": 116.343184,
    "lat": 39.947468 
  }
}
6.10.1 ES的地图检索方式
语法 说明
geo_distance 直线距离检索方式
geo_bounding_box 以两个点确定一个矩形,获取在矩形内的全部数据
geo_polygon 以多个点,确定一个多边形,获取多边形内的全部数据
6.10.2 基于RESTful实现地图检索

geo_distance

# geo_distance
POST /map/map/_search
{
     
  "query": {
     
    "geo_distance": {
     
      "location": {
     				# 确定一个点
        "lon": 116.433733,
        "lat": 39.908404
      },
      "distance": 3000,			 # 确定半径
      "distance_type": "arc"     # 指定形状为圆形
    }
  }
}

geo_bounding_box

# geo_bounding_box
POST /map/map/_search
{
     
  "query": {
     
    "geo_bounding_box": {
     
      "location": {
     
        "top_left": {
     				# 左上角的坐标点
          "lon": 116.326943,
          "lat": 39.95499
        },
        "bottom_right": {
     			 # 右下角的坐标点
          "lon": 116.433446,
          "lat": 39.908737
        }
      }
    }
  }
}

geo_polygon

# geo_polygon
POST /map/map/_search
{
     
  "query": {
     
    "geo_polygon": {
     
      "location": {
     
        "points": [					# 指定多个点确定一个多边形
          {
     
            "lon": 116.298916,
            "lat": 39.99878
          },
          {
     
            "lon": 116.29561,
            "lat": 39.972576
          },
          {
     
            "lon": 116.327661,
            "lat": 39.984739
          }
        ]
      }
    }
  }
}
6.10.3 Java实现geo_polygon
// 基于Java实现geo_polygon查询
@Test
public void geoPolygon() throws IOException {
     
    //1. SearchRequest
    SearchRequest request = new SearchRequest(index);
    request.types(type);

    //2. 指定检索方式
    SearchSourceBuilder builder = new SearchSourceBuilder();
    List<GeoPoint> points = new ArrayList<>();
    points.add(new GeoPoint(39.99878,116.298916));
    points.add(new GeoPoint(39.972576,116.29561));
    points.add(new GeoPoint(39.984739,116.327661));
    builder.query(QueryBuilders.geoPolygonQuery("location",points));

    request.source(builder);

    //3. 执行查询
    SearchResponse resp = client.search(request, RequestOptions.DEFAULT);

    //4. 输出结果
    for (SearchHit hit : resp.getHits().getHits()) {
     
        System.out.println(hit.getSourceAsMap());
    }
}

你可能感兴趣的:(笔记)