Spring Cloud(六)es之数据聚合、自动补全、数据同步

文章目录

  • elasticsearch
    • 数据聚合
      • DSL实现Bucket聚合
      • DSL实现Metric聚合
      • RestAPI实现聚合
    • 自动补全
      • 拼音分词器
      • 自定义分词器
      • completion suggester查询
      • RestAPI 实现自动补全
    • 数据同步

elasticsearch

数据聚合

聚合(aggregations):可以实现对文档数据的统计、分析、运算。

聚合常见的有三类:

  • 桶(Bucket)排序:用来对文档做分组。
    TermAggregation:按照文档字段值分组。
    Date Histogram:按照日期阶梯分组,例如一周为一组,或者一月为一组。

  • 度量(Metric)聚合:用以计算一些值,比如:最大值、最小值、平均值等
    Avg:求平均值
    Max:求最大值
    Min:求最小值
    Stats:同时求max、min、avg、sum等

  • 管道(pipeline)聚合:其它聚合的结果为基础做聚合。

参与聚合的字段类型必须是

  • keyword
  • 数值
  • 日期
  • 布尔

DSL实现Bucket聚合

案例一:统计所有数据中的酒店品牌,此时可以根据酒店品牌名称做聚合。

# 聚合功能,自定义排序规则
GET /hotel1/_search
{
  "size": 0,    // 设置size为0,结果中不包含文档,只包含聚合结果
  "aggs": {     // 定义聚合
    "brandAggs": {
      "terms": {    // 聚合类型,按照品牌值聚合
        "field": "brand",    // 参与聚合的字段
        "size": 20     // 希望获取的聚合结果数量
      }
    }
  }
}

案例二:聚合结果排序

# 聚合功能,自定义排序规则
GET /hotel1/_search
{
  "size": 0,
  "aggs": {
    "brandAggs": {
      "terms": {
        "order": {
          "_count": "asc"
        }, 
        "field": "brand",
        "size": 30
      }
    }
  }
}

案例三:限定聚合范围

# 聚合功能,自定义聚合范围
GET /hotel1/_search
{
  "query": {
    "range": {
      "price": {
        "lte": 200
      }
    }
  }, 
  "size": 0,
  "aggs": {
    "brandAggs": {
      "terms": {
        "field": "brand",
        "size": 20
      }
    }
  }
}

总结:

aggs代表聚合,与query同级,此时query的作用是限定聚合文档的范围。

聚合必须的三要素:

  • 聚合名称
  • 聚合类型
  • 聚合字段

聚合可配置属性:

  • size:指定聚合结果数量。
  • order:指定聚合结果排序方式。
  • field:指定聚合字段。

DSL实现Metric聚合

# 嵌套metric聚合
GET /hotel1/_search
{
  "size": 0,
  "aggs": {
    "brandAggs": {
      "terms": {
        "field": "brand",
        "size": 20,
        "order": {
          "scoreAggs.avg": "desc"
        }
      },
      "aggs": {
        "scoreAggs": {
          "stats": {
            "field": "score"
          }
        }
      }
    }
  }
}

RestAPI实现聚合

    @Test
    void brandAggregation() throws IOException {
        // 1.准备request对象
        SearchRequest request = new SearchRequest("hotel1");

        // 2.准备DSL
        request.source().size(0);
        request.source().aggregation(AggregationBuilders
                .terms("brand_agg")
                .field("brand")
                .size(20)
        );

        // 3. 发送请求
        SearchResponse searchResponse = client.search(request, RequestOptions.DEFAULT);

        // 4.解析结果
        Aggregations aggregations = searchResponse.getAggregations();
        // 4.1根据名称获取聚合结果
        Terms brandTerm = aggregations.get("brand_agg");
        // 获取桶
        List<? extends Terms.Bucket> buckets = brandTerm.getBuckets();
        // 遍历
        for (Terms.Bucket bucket : buckets) {
            // 获取key,即品牌信息
            String brandName = bucket.getKeyAsString();
            System.out.println(brandName);
        }
    }

自动补全

拼音分词器

Github地址:https://github.com/lonre/elasticsearch-analysis-pinyin-segmentation

在GitHub下载后,解压并拷贝到Elasticsearch的plugins目录下,重启elasticsearch。

具体使用参考官方(即Github)中的使用案例。

自定义分词器

elasticsearch中分词器(analyzer)的组成包含三部分:

  • character filters:在tokenizer之前对文本进行处理。例如删除字符、替换字符。
  • tokenizer:将文本按照一定的规则切割成词条(term)。例如,keyword,不进行分词;ik_smart,进行粗粒度的分词。
  • tokenizer filter:将tokenizer输出的词条做进一步的处理。例如大小写转换、同义词处理、拼音处理等。

Spring Cloud(六)es之数据聚合、自动补全、数据同步_第1张图片
我们可以在创建索引库时,通过settings来配置自定义的analyzer(分词器):
Spring Cloud(六)es之数据聚合、自动补全、数据同步_第2张图片
拼音分词器适合在创建倒排索引时使用,但不能在搜索的时候使用:

Spring Cloud(六)es之数据聚合、自动补全、数据同步_第3张图片
如果我们在搜索时也使用拼音分词的话,搜索狮子也搜索到了虱子,这肯定是不行的。

因此字段在创建倒排索引时应该有my_analyzer分词器,字段在搜索时应该使用ik_smart分词器:

PUT /test
{
  "settings": {
    "analysis": {
      "analyzer": { 
        "my_analyzer": { 
          "tokenizer": "ik_max_word",
          "filter": "py"
        }
      },
      "filter": {
        "py": { 
          "type": "pinyin",
          "keep_full_pinyin": false,
          "keep_joined_full_pinyin": true,
          "keep_original": true,
          "limit_first_letter_length": 16,
          "remove_duplicated_term": true,
          "none_chinese_pinyin_tokenize": false
        }
      }
    }
  },
  "mappings": {
    "properties": {
      "name": {
        "type": "text",
        "analyzer": "my_analyzer",
        "search_analyzer": "ik_smart"
      }
    }
  }
}

completion suggester查询

elasticsearch提供了Completion Suggester查询来实现自动补全功能。这个查询会匹配以用户输入内容开头的词条并返回。为了提高补全查询的效率,对于文档中的字段类型有一些约束:

  • 参与补全查询的字段必须是completion类型。
  • 字段的内容一般是用于补全的多个词条形成的数组。

Spring Cloud(六)es之数据聚合、自动补全、数据同步_第4张图片
查询语法如下:

# 自动补全查询
POST /test1/_search
{
  "suggest": {
    "title_suggest": {
      "text": "s", 
      "completion": {
        "field": "title",   
        "skip_duplicates": true, 
        "size": 10   
      }
    }
  }
}

RestAPI 实现自动补全

    @Test
    void testSuggest() throws IOException {
        // 1.准备request对象
        SearchRequest request = new SearchRequest("hotel");
        // 2.准备DSL
        request.source().suggest(new SuggestBuilder().addSuggestion(
                "suggestions",
                SuggestBuilders.completionSuggestion("suggestion")
                        .prefix("h")
                        .skipDuplicates(true)
                        .size(10)
        ));
        // 3.发起请求
        SearchResponse response = client.search(request, RequestOptions.DEFAULT);
        // 4.解析结果
        Suggest suggest = response.getSuggest();
        // 4.1 根据名称获取补全结果
        CompletionSuggestion suggestion = suggest.getSuggestion("suggestions");
        // 4.2 获取options并遍历
        List<CompletionSuggestion.Entry.Option> options = suggestion.getOptions();
        for (CompletionSuggestion.Entry.Option option : options) {
            String text = option.getText().string();
            System.out.println(text);
        }
    }

数据同步

elasticsearch中的酒店数据来自于mysql数据库,因此mysql数据发生改变时,elasticsearch也必须跟着改变,这个就是elasticsearch与mysql之间的数据同步。

微服务中,负责酒店管理的业务(mysql)与负责酒店搜索的业务(elasticsearch)可能在两个不同的微服务上,那么数据同步该如何实现呢?

方案一:同步调用

Spring Cloud(六)es之数据聚合、自动补全、数据同步_第5张图片

  • 优点:实现简单
  • 缺点:业务耦合度高

方案二:异步通知
Spring Cloud(六)es之数据聚合、自动补全、数据同步_第6张图片

  • 优点:低耦合,实现难度较低
  • 缺点:依赖MQ的可靠性

方案三:监听binlog

Spring Cloud(六)es之数据聚合、自动补全、数据同步_第7张图片

  • 优点:完全解除服务间的耦合
  • 缺点:开启binlog增加数据库负担,且实现复杂度高

你可能感兴趣的:(Spring,Cloud,笔记,elasticsearch,spring,cloud,big,data)