用于复习快速回顾。
目录
1.数据聚合
1.1.聚合的种类
1.2.DSL实现聚合
1.2.1.Bucket聚合语法
1.2.2.聚合结果排序
1.2.3.query限定聚合范围
1.2.4.Metric聚合语法,stats
1.2.5.小结,聚合三要素
1.3.RestAPI实现聚合
1.3.1.API语法
1.3.2.业务需求,城市星级等随着搜索结果变化
1.3.3.业务实现
2.自动补全
2.1.拼音分词器
2.2.自定义分词器
2.3.自动补全查询
2.4.实现酒店搜索框自动补全
2.4.1.修改酒店映射结构
2.4.2.修改HotelDoc实体
2.4.3.重新导入
2.4.4.自动补全查询的JavaAPI
2.4.5.实现搜索框自动补全
3.数据同步
3.1.思路分析
3.1.1.同步调用
3.1.2.异步通知
3.1.3.监听binlog
3.1.4.选择
3.2.实现数据同步
3.2.1.思路
3.2.2.导入demo
3.2.3.声明交换机、队列
3.2.4.发送MQ消息
3.2.5.接收MQ消息
4.集群
4.1.搭建ES集群
4.2.集群脑裂问题
4.2.1.集群职责划分
4.2.2.脑裂问题
4.2.3.小结
4.3.集群分布式存储
4.3.1.分片存储测试
4.3.2.分片存储原理
4.4.集群分布式查询
4.5.集群故障转移
聚合(aggregations)可以让我们极其方便的实现对数据的统计、分析、运算。例如:
实现这些统计功能的比数据库的sql要方便的多,而且查询速度非常快,可以实现近实时搜索效果。
聚合常见的有三类:
桶(Bucket)聚合:用来对文档做分组
度量(Metric)聚合:用以计算一些值,比如:最大值、最小值、平均值等
管道(pipeline)聚合:其它聚合的结果为基础做聚合
注意:参加聚合的字段必须是不能分词,例如是keyword、日期、数值、布尔类型
现在,我们要统计所有数据中的酒店品牌有几种,其实就是按照品牌对数据分组。此时可以根据酒店品牌的名称做聚合,也就是Bucket聚合。
语法如下:
GET /hotel/_search
{
"size": 0, // 设置size为0,结果中不包含文档,只包含聚合结果。如果设为20,就是既展示20个brand查询的"hits",又展示聚合"aggregations"
"aggs": { // 定义聚合
"聚合名": { //给聚合起个名字,例如brandAgg。查询结果里聚合名会嵌套在"aggregations"里
"terms": { // 聚合的类型,按照品牌值聚合,所以选择term
"field": "字段名", // 参与聚合的字段,例如brand
"size": 20 // 希望获取的聚合结果数量
"order": {
"_count": "asc" //按升序排序,默认是降序
}
}
}
}
}
结果如图:
默认情况下,Bucket聚合会统计Bucket内的文档数量,记为_count,并且按照_count降序排序。
我们可以指定order属性,自定义聚合的排序方式:
GET /hotel/_search
{
"size": 0,
"aggs": {
"brandAgg": {
"terms": {
"field": "brand",
"order": {
"_count": "asc" // 按照_count升序排列
},
"size": 20
}
}
}
}
默认情况下,Bucket聚合是对索引库的所有文档做聚合,但真实场景下,用户会输入搜索条件,因此聚合必须是对搜索结果聚合。那么聚合必须添加限定条件。
我们可以限定要聚合的文档范围,只要添加query条件即可:
GET /hotel/_search
{
"query": {
"range": {
"price": {
"lte": 200 // 只对200元以下的文档聚合
}
}
},
"size": 0,
"aggs": {
"brandAgg": {
"terms": {
"field": "brand",
"size": 20
}
}
}
}
这次,聚合得到的品牌明显变少了:
上节课,我们对酒店按照品牌分组,形成了一个个桶。现在我们需要对桶内的酒店做运算,获取每个品牌的用户评分的min、max、avg等值。
这就要用到Metric聚合了,例如stat聚合:就可以获取min、max、avg等结果。
语法如下:
GET /hotel/_search
{
"size": 0,
"aggs": {
"brandAgg": {
"terms": {
"field": "brand",
"size": 20
},
"aggs": { // 是brands聚合的子聚合,也就是分组后对每组分别计算
"score_stats": { // 聚合名称
"stats": { // 聚合类型,这里stats可以计算min、max、avg等。stats是statistics统计缩写
"field": "score" // 聚合字段,这里是score
}
}
}
}
}
}
这次的score_stats聚合是在brandAgg的聚合内部嵌套的子聚合。因为我们需要在每个桶分别计算。
另外,我们还可以给聚合结果做个排序,例如按照每个桶的酒店平均分做排序:
aggs代表聚合,与query同级,此时query的作用是?
聚合必须的三要素:
聚合可配置属性有:
聚合条件与query条件同级别,因此需要使用request.source()来指定聚合条件。
聚合条件的语法:
注意:request.source().aggregation(),聚合不是负数,因为虽然DSL是"aggs",但它不是数组,所以不是request.source().aggregations()
聚合结果:
聚合的结果也与查询结果不同,API也比较特殊。不过同样是JSON逐层解析:
注意:response.getAggregations().get("brandAgg")的返回结果要是Terms,注意包别导错了,提示的第一个不是es的包。
@Test public void aggregation()throws IOException{ SearchRequest request = new SearchRequest("hotel"); request.source().size(0).aggregation(AggregationBuilders.terms("brandAgg").field("brand").size(20)); SearchResponse response = client.search(request, RequestOptions.DEFAULT); Terms brandTerms =response.getAggregations().get("brandAgg"); List extends Terms.Bucket> buckets = brandTerms.getBuckets(); for(Terms.Bucket bucket:buckets){ System.out.println(bucket.getKeyAsString()+":"+bucket.getDocCount()); } }
需求:搜索页面的品牌、城市等信息不应该是在页面写死,而是通过聚合索引库中的酒店数据得来的:
分析:
目前,页面的城市列表、星级列表、品牌列表都是写死的,并不会随着搜索结果的变化而变化。但是用户搜索条件改变时,搜索结果会跟着变化。
例如:用户搜索“东方明珠”,那搜索的酒店肯定是在上海东方明珠附近,因此,城市只能是上海,此时城市列表中就不应该显示北京、深圳、杭州这些信息了。
也就是说,搜索结果中包含哪些城市,页面就应该列出哪些城市;搜索结果中包含哪些品牌,页面就应该列出哪些品牌。
如何得知搜索结果中包含哪些品牌?如何得知搜索结果中包含哪些城市?
使用聚合功能,利用Bucket聚合,对搜索结果中的文档基于品牌分组、基于城市分组,就能得知包含哪些品牌、哪些城市了。
因为是对搜索结果聚合,因此聚合是限定范围的聚合,也就是说聚合的限定条件跟搜索文档的条件一致。
查看浏览器可以发现,前端其实已经发出了这样的一个请求:
请求参数与搜索文档的参数完全一致。
返回值类型就是页面要展示的最终结果:
结果是一个Map结构:
在cn.itcast.hotel.web
包的HotelController
中添加一个方法,遵循下面的要求:
POST
/hotel/filters
RequestParams
,与搜索文档的参数一致Map>
代码:
@PostMapping("filters")
public Map> getFilters(@RequestBody RequestParams params){
return hotelService.getFilters(params);
}
这里调用了IHotelService中的getFilters方法,尚未实现。
在cn.itcast.hotel.service.IHotelService
中定义新方法:
Map> filters(RequestParams params);
在cn.itcast.hotel.service.impl.HotelService
中实现该方法:
@Override
public Map> filters(RequestParams params) {
try {
// 1.准备Request
SearchRequest request = new SearchRequest("hotel");
// 2.准备DSL
// 2.1.query查询城市、品牌等基本信息
buildBasicQuery(params, request);
// 2.2.设置size
request.source().size(0);
// 2.3.聚合,根据
buildAggregation(request);
// 3.发出请求
SearchResponse response = client.search(request, RequestOptions.DEFAULT);
// 4.解析结果
Map> result = new HashMap<>();
Aggregations aggregations = response.getAggregations();
// 4.1.根据品牌名称,获取品牌结果
List brandList = getAggByName(aggregations, "brandAgg");
result.put("brand", brandList);
// 4.2.根据品牌名称,获取品牌结果
List cityList = getAggByName(aggregations, "cityAgg");
result.put("city", cityList);
// 4.3.根据品牌名称,获取品牌结果
List starList = getAggByName(aggregations, "starAgg");
result.put("starName", starList);
return result;
} catch (IOException e) {
throw new RuntimeException(e);
}
}
private void buildAggregation(SearchRequest request) {
request.source().aggregation(AggregationBuilders
.terms("brandAgg")
.field("brand")
.size(100)
);
request.source().aggregation(AggregationBuilders
.terms("cityAgg")
.field("city")
.size(100)
);
request.source().aggregation(AggregationBuilders
.terms("starAgg")
.field("starName")
.size(100)
);
}
private List getAggByName(Aggregations aggregations, String aggName) {
// 4.1.根据聚合名称获取聚合结果
Terms brandTerms = aggregations.get(aggName);
// 4.2.获取buckets
List extends Terms.Bucket> buckets = brandTerms.getBuckets();
// 4.3.遍历
List brandList = new ArrayList<>();
for (Terms.Bucket bucket : buckets) {
// 4.4.获取key
String key = bucket.getKeyAsString();
brandList.add(key);
}
return brandList;
}
当用户在搜索框输入字符时,我们应该提示出与该字符有关的搜索项,如图:
这种根据用户输入的字母,提示完整词条的功能,就是自动补全了。
因为需要根据拼音字母来推断,因此要用到拼音分词功能。
要实现根据字母做补全,就必须对文档按照拼音分词。在GitHub上恰好有elasticsearch的拼音分词插件。地址:https://github.com/medcl/elasticsearch-analysis-pinyin
课前资料中也提供了拼音分词器的安装包:
安装方式与IK分词器一样,分三步:
①解压
②上传到虚拟机中,elasticsearch的plugin目录
/var/lib/docker/volumes/es-plugins/_data
③重启elasticsearch
docker restart es
④测试
详细安装步骤可以参考IK分词器的安装过程。
测试用法如下:
POST /_analyze
{
"text": "如家酒店还不错",
"analyzer": "pinyin"
}
结果:
默认的拼音分词器会将每个汉字单独分为拼音,而我们希望的是每个词条形成一组拼音,需要对拼音分词器做个性化定制,形成自定义分词器。
elasticsearch中分词器(analyzer)的组成包含三部分:
拼音分词器处理文档流程:
自定义分词器,把ik分词结果过滤成拼音:
settings-analysis下定义分词器analyzer和filter
PUT /test
{
//设置分词器和过滤器
"settings": {
"analysis": {
"analyzer": { // 自定义分词器
"my_analyzer": { // 分词器名称,这里不需要指定character filters过滤器,因为没有特殊字符需要处理
"tokenizer": "ik_max_word",
"filter": "my_py_filter" //对ik分词结果做进一步处理
}
},
"filter": { // 自定义tokenizer filter
"my_py_filter": { // 过滤器名称
"type": "pinyin", // 过滤器类型,填写分词器名,这里是pinyin
"keep_full_pinyin": false,//eg: 刘德华> [liu,de,hua], default: true
"keep_joined_full_pinyin": true,//eg: 刘德华> [liudehua], default: false
"keep_original": true,//保留原始输入,默认false
"limit_first_letter_length": 16,//
"remove_duplicated_term": true,//
"none_chinese_pinyin_tokenize": false// 默认true。eg: liudehuaalibaba13zhuanghan -> liu,de,hua,a,li,ba,ba,13,zhuang,han
}
}
}
},
//创建索引
"mappings": {
"properties": {
"name": {
"type": "text",
"analyzer": "my_analyzer", //拼音分词器适合在创建索引时使用,不能在搜索时候用
"search_analyzer": "ik_smart" //如果搜索时用拼音分词器,搜索"狮子爱跳舞",会搜出"虱子"等同音字
}
}
}
}
注意:
拼音分词器适合在创建索引时使用,不能在搜索时候用,如果搜索时用拼音分词器,搜索"狮子爱跳舞",会搜出"虱子"等同音字。
测试:自定义分词器搜索结果既有ik_smart,还有拼音分词的结果
GET /test/_analyze
{
"analyzer": "my_analyzer"
, "text": "今天天气好"
}
在使用ik+拼音过滤的分词器时,建议创建的字段的索引分词器设为自定义分词器,搜索分词器设为ik分词器。防止搜索时搜出拼音谐音的情况。
结果:
PUT /test
{
//设置分词器和过滤器
"settings": {
"analysis": {
"analyzer": { // 自定义分词器
"my_analyzer": { // 分词器名称,这里不需要指定character filters过滤器,因为没有特殊字符需要处理
"tokenizer": "ik_max_word",
"filter": "my_py_filter" //对ik分词结果做进一步处理
}
},
"filter": { // 自定义tokenizer filter
"my_py_filter": { // 过滤器名称
"type": "pinyin", // 过滤器类型,填写分词器名,这里是pinyin
"keep_full_pinyin": false,//eg: 刘德华> [liu,de,hua], default: true
"keep_joined_full_pinyin": true,//eg: 刘德华> [liudehua], default: false
"keep_original": true,//保留原始输入,默认false
"limit_first_letter_length": 16,//
"remove_duplicated_term": true,//
"none_chinese_pinyin_tokenize": false// 默认true。eg: liudehuaalibaba13zhuanghan -> liu,de,hua,a,li,ba,ba,13,zhuang,han
}
}
}
},
//创建索引
"mappings": {
"properties": {
"name": {
"type": "text",
"analyzer": "my_analyzer", //拼音分词器适合在创建索引时使用,不能在搜索时候用
"search_analyzer": "ik_smart" //如果搜索时用拼音分词器,搜索"狮子爱跳舞",会搜出"虱子"等同音字
}
}
}
}
问题模拟:
DELETE /test
PUT /test
{
"settings": {
"analysis": {
"analyzer": {
"my_analyzer":{
"tokenizer":"ik_smart",
"filter":"py_filter"
}
},
"filter": {
"py_filter":{
"type":"pinyin",
"keep_full_pinyin": false,
"keep_joined_full_pinyin": true,
"keep_original": true,
"limit_first_letter_length": 16,
"remove_duplicated_term": true,
"none_chinese_pinyin_tokenize": false
}
}
}
},
"mappings": {
"properties": {
"name":{
"type": "text",
"analyzer": "my_analyzer" //统一ik+拼音过滤
}
}
}
}
POST /test/_doc/1
{
"name":"狮子"
}
POST /test/_doc/2
{
"name":"师资"
}
GET /test/_search
{
"query": {
"match": {
"name": "狮子爱跳舞"
}
}
}
可以看见,明明搜索的是狮子,却搜出了谐音师资。因为搜索“狮子爱跳舞”时,ik+拼音过滤后的结果里有“shizi”,而师资的分词结果也有“shizi”,所以就搜出了师资。
如果搜索“shizi”,出现结果正常,是狮子和师资。
解决办法
明显不是我们想要的,所以要让它搜索时候只用ik分词,不要拼音过滤就搜不出谐音了,而添加新文档时还要它进行分词拼音,以便于我们可以搜拼音时也能搜出对应字段。
PUT /test
{
//设置分词器和过滤器
"settings": {
...自定义分词器
},
//创建索引
"mappings": {
"properties": {
"name": {
"type": "text",
"analyzer": "my_analyzer", //创建文档时自定义分词器,ik+拼音过滤
"search_analyzer": "ik_smart" //搜索时只用ik分词器
}
}
}
}
总结:
如何使用拼音分词器?
①下载pinyin分词器
②解压并放到elasticsearch的plugin目录
③重启即可
如何自定义分词器?
①创建索引库时,在settings中配置,可以包含三部分
②character filter
③tokenizer
④filter
拼音分词器注意事项?
- 为了避免搜索到同音字,搜索时不要使用拼音分词器
补全效果预览:录入 ["天苍苍", "野茫茫"]、["天府", "天下"]、["世界", "黄天"]。suggest搜索“天”,可以搜索出前两个文档。suggest搜索“天苍”,只能搜索出第一个文档。
elasticsearch提供了Completion Suggester查询来实现自动补全功能。这个查询会匹配以用户输入内容开头的词条并返回。为了提高补全查询的效率,对于文档中字段的类型有一些约束:
参与补全查询的字段必须是completion类型,数据是字符串数组。completion译为完成
字段的内容一般是用来补全的多个词条形成的数组。
创建索引库:
// 创建索引库
PUT test
{
"mappings": {
"properties": {
"title":{
"type": "completion"
}
}
}
}
插入数据:
// 示例数据
POST test/_doc
{
"title": ["天苍苍", "野茫茫"]
}
POST test/_doc
{
"title": ["天府", "天下"]
}
POST test/_doc
{
"title": ["世界", "黄天"]
}
自动补全查询:
// 自动补全查询
GET /test/_search
{
"suggest": {
"titleSuggest": { //例如自定义查询名称
"text": "天", // 关键字
"completion": {
"field": "title", // 补全查询的字段,例如title
"skip_duplicates": true, // 跳过重复的
"size": 10 // 获取前10条结果
}
}
}
}
搜索结果:
{
"took" : 275,
"timed_out" : false,
"_shards" : {
"total" : 1,
"successful" : 1,
"skipped" : 0,
"failed" : 0
},
"hits" : {
"total" : {
"value" : 0,
"relation" : "eq"
},
"max_score" : null,
"hits" : [ ]
},
"suggest" : {
"my_suggest" : [
{
"text" : "天",
"offset" : 0,
"length" : 1,
"options" : [
{
"text" : "天下",
"_index" : "test2",
"_type" : "_doc",
"_id" : "AEutP4MBg4Wtm5vtyLdE",
"_score" : 1.0,
"_source" : {
"name" : [
"天府",
"天下"
]
}
},
{
"text" : "天苍苍",
"_index" : "test2",
"_type" : "_doc",
"_id" : "AUutP4MBg4Wtm5vtyLdI",
"_score" : 1.0,
"_source" : {
"name" : [
"天苍苍",
"野茫茫"
]
}
}
]
}
]
}
}
现在,我们的hotel索引库还没有设置拼音分词器,需要修改索引库中的配置。但是我们知道索引库是无法修改的,只能删除然后重新创建。
另外,我们需要添加一个字段,用来做自动补全,将brand、suggestion、city等都放进去,作为自动补全的提示。
因此,总结一下,我们需要做的事情包括:
修改hotel索引库结构,设置自定义拼音分词器
修改索引库的name、all字段,使用自定义分词器
索引库添加一个新字段suggestion,类型为completion类型,使用自定义的分词器
给HotelDoc类添加suggestion字段,内容包含brand、business
重新导入数据到hotel库
代码如下:
# 酒店数据索引库。先删除旧的,再新的
DELETE /hotel
PUT /hotel
{
"settings": {
"analysis": {
"analyzer": {
"text_anlyzer": { //ik+拼音过滤
"tokenizer": "ik_max_word",
"filter": "py"
},
"completion_analyzer": { //keyword+拼音过滤,相当于又保持关键词,又新加定制版拼音分词
"tokenizer": "keyword",
"filter": "py"
}
},
"filter": {
"py": {
"type": "pinyin",
"keep_full_pinyin": false,
"keep_joined_full_pinyin": true,
"keep_original": true,
"limit_first_letter_length": 16,
"remove_duplicated_term": true,
"none_chinese_pinyin_tokenize": false
}
}
}
},
"mappings": {
"properties": {
"id":{
"type": "keyword"
},
"name":{
"type": "text",
"analyzer": "text_anlyzer", //新建文档时分词器用ik+拼音过滤
"search_analyzer": "ik_smart", //搜索分词器用ik
"copy_to": "all"
},
"address":{
"type": "keyword",
"index": false
},
"price":{
"type": "integer"
},
"score":{
"type": "integer"
},
"brand":{
"type": "keyword",
"copy_to": "all"
},
"city":{
"type": "keyword"
},
"starName":{
"type": "keyword"
},
"business":{
"type": "keyword",
"copy_to": "all"
},
"location":{
"type": "geo_point"
},
"pic":{
"type": "keyword",
"index": false
},
"all":{
"type": "text",
"analyzer": "text_anlyzer",
"search_analyzer": "ik_smart"
},
"suggestion":{ //补全字段suggestion
"type": "completion", //补全字段类型必须completion
"analyzer": "completion_analyzer" //补全分词器,keyword+拼音过滤
}
}
}
}
HotelDoc中要添加一个字段,用来做自动补全,内容可以是酒店品牌、城市、商圈等信息。按照自动补全字段的要求,最好是这些字段的数组。
因此我们在HotelDoc中添加一个suggestion字段,类型为List
,然后将brand、city、business等信息放到里面。
代码如下:
package cn.itcast.hotel.pojo;
import lombok.Data;
import lombok.NoArgsConstructor;
import java.util.ArrayList;
import java.util.Arrays;
import java.util.Collections;
import java.util.List;
@Data
@NoArgsConstructor
public class HotelDoc {
private Long id;
private String name;
private String address;
private Integer price;
private Integer score;
private String brand;
private String city;
private String starName;
private String business; //商圈,例如虹桥机场/国家会展中心
private String location;
private String pic;
private Object distance;
private Boolean isAD;
private List suggestion; //放自动补全的list列表,这里只补全搜索商圈和品牌
public HotelDoc(Hotel hotel) {
this.id = hotel.getId();
this.name = hotel.getName();
this.address = hotel.getAddress();
this.price = hotel.getPrice();
this.score = hotel.getScore();
this.brand = hotel.getBrand();
this.city = hotel.getCity();
this.starName = hotel.getStarName();
this.business = hotel.getBusiness();
this.location = hotel.getLatitude() + ", " + hotel.getLongitude();
this.pic = hotel.getPic();
// 组装suggestion,把品牌和商圈放进去
if(this.business.contains("/")){
// business有多个值,例如“例如虹桥机场/国家会展中心”,需要切割
String[] arr = this.business.split("/");
// 添加元素
this.suggestion = new ArrayList<>();
this.suggestion.add(this.brand);
Collections.addAll(this.suggestion, arr);
}else {
this.suggestion = Arrays.asList(this.brand, this.business);
}
}
}
重新执行之前编写的导入数据功能
@Test
public void bulk() throws IOException {
List hotels = hotelService.list();
for(Hotel hotel:hotels){
HotelDoc hotelDoc = new HotelDoc(hotel);
client.index(new IndexRequest("hotel").id(hotel.getId().toString()).source(JSON.toJSONString(hotelDoc),XContentType.JSON),RequestOptions.DEFAULT);
}
}
查询所有 ,可以看到新的酒店数据中包含了suggestion:
GET /hotel/_search
{
"query": {
"match_all": {}
}
}
因为suggestion字段自定义分词器是keyword+拼音过滤,所以搜索“如”搜不出“如家”。搜索“如家”可以搜索出brand为“如家”的一条文档(搜索条件有跳过重复)。搜索“rj”,可以搜索出brand为“如家”的文档
测试:
GET /hotel/_search
{
"suggest": {
"my_suggest": {
"text": "rj",
"completion":{
"field": "suggestion",
"skip_duplicates": true,
"size": 10
}
}
}
}
因为指定跳过重复,所以搜索结果仅一条:
{
"took" : 6,
"timed_out" : false,
"_shards" : {
"total" : 1,
"successful" : 1,
"skipped" : 0,
"failed" : 0
},
"hits" : {
"total" : {
"value" : 0,
"relation" : "eq"
},
"max_score" : null,
"hits" : [ ]
},
"suggest" : {
"my_suggest" : [
{
"text" : "如家",
"offset" : 0,
"length" : 2,
"options" : [
{
"text" : "如家",
"_index" : "hotel",
"_type" : "_doc",
"_id" : "415600",
"_score" : 1.0,
"_source" : {
"address" : "三间房乡褡裢坡村青年沟西侧558号",
"brand" : "如家",
"business" : "传媒大学/管庄地区",
"city" : "北京",
"id" : 415600,
"location" : "39.923212, 116.560023",
"name" : "如家酒店(北京朝阳北路传媒大学褡裢坡地铁站店)",
"pic" : "https://m.tuniucdn.com/fb3/s1/2n9c/3NezpxNZWQMdNXibwbMkQuAZjDyJ_w200_h200_c1_t0.jpg",
"price" : 259,
"score" : 47,
"starName" : "二钻",
"suggestion" : [
"如家",
"传媒大学",
"管庄地区"
]
}
}
]
}
]
}
}
之前我们学习了自动补全查询的DSL,而没有学习对应的JavaAPI,这里给出一个示例:
suggest和query是平级的。
而自动补全的结果也比较特殊,解析的代码如下:
查看前端页面,可以发现当我们在输入框键入时,前端会发起ajax请求:
返回值是补全词条的集合,类型为List
1)在cn.itcast.hotel.web
包下的HotelController
中添加新接口,接收新的请求:
@GetMapping("suggestion")
public List getSuggestions(@RequestParam("key") String prefix) {
return hotelService.getSuggestions(prefix);
}
2)在cn.itcast.hotel.service
包下的IhotelService
中添加方法:
List getSuggestions(String prefix);
3)在cn.itcast.hotel.service.impl.HotelService
中实现该方法:
建议截图补全的es代码,贴到屏幕上,层层解析
@Override
public List getSuggestions(String prefix) {
try {
// 1.准备Request
SearchRequest request = new SearchRequest("hotel");
// 2.准备DSL
request.source().suggest(new SuggestBuilder().addSuggestion( //new SuggestBuilder()不是SuggestBuilders
"suggestions", //自定义补全的名字,后面根据它解析response
SuggestBuilders.completionSuggestion("suggestion") //字段名
.prefix(prefix) //需要补全的文本
.skipDuplicates(true)
.size(10)
));
// 3.发起请求
SearchResponse response = client.search(request, RequestOptions.DEFAULT);
// 4.解析结果
Suggest suggest = response.getSuggest();
// 4.1.根据补全查询名称,获取补全结果,注意返回值和ctrl+alt+v生成的内容不一样
CompletionSuggestion suggestions = suggest.getSuggestion("suggestions");
// 4.2.获取options
List options = suggestions.getOptions();
// 4.3.遍历
List list = new ArrayList<>(options.size());
for (CompletionSuggestion.Entry.Option option : options) {
String text = option.getText().toString();
list.add(text);
}
return list;
} catch (IOException e) {
throw new RuntimeException(e);
}
}
测试成功:
elasticsearch中的酒店数据来自于mysql数据库,因此mysql数据发生改变时,elasticsearch也必须跟着改变,这个就是elasticsearch与mysql之间的数据同步。
常见的数据同步方案有三种:
方案一:同步调用
管理端只能访问mysql,用户端只能访问es,两者间隔离,符合微服务规范。
基本步骤如下:
缺点:耦合度高
方案二:异步通知
流程如下:
优点:性能高,耦合度低
缺点:依赖于mq消息队列可靠性
canal译为管道,运河。
回顾主从复制,主库开启binlog,从库根据主库binlog的增删改信息,进行相同操作。
流程如下:
优点:耦合度最低
缺点:mysql压力增加
方式一:同步调用
方式二:异步通知
方式三:监听binlog
利用课前资料提供的hotel-admin项目作为酒店管理的微服务。当酒店数据发生增、删、改时,要求对elasticsearch中数据也要完成相同操作。
步骤:
导入课前资料提供的hotel-admin项目,启动并测试酒店数据的CRUD
声明exchange、queue、RoutingKey
在hotel-admin中的增、删、改业务中完成消息发送
在hotel-demo中完成消息监听,并更新elasticsearch中数据
启动并测试数据同步功能
导入课前资料提供的hotel-admin项目:
修改pom
com.baomidou
mybatis-plus-boot-starter
3.4.2
org.springframework.boot
spring-boot-starter-web
mysql
mysql-connector-java
runtime
org.projectlombok
lombok
true
org.springframework.boot
spring-boot-starter-test
test
com.alibaba
druid-spring-boot-starter
1.2.11
org.springframework.boot
spring-boot-devtools
true
修改yml:
server:
port: 8099
spring:
datasource:
druid:
driver-class-name: com.mysql.cj.jdbc.Driver
url: jdbc:mysql://localhost:3306/heima?serverTimezone=Asia/Shanghai&useUnicode=true&characterEncoding=utf-8&zeroDateTimeBehavior=convertToNull&useSSL=false&allowPublicKeyRetrieval=true
username: root
password: 1234
main:
banner-mode: off
rabbitmq:
host: 192.168.200.131
port: 5672
username: itcast
password: 123321
virtual-host: / #虚拟主机
#logging:
# level:
# cn.itcast: debug
# pattern:
# dateformat: MM-dd HH:mm:ss:SSS
# type-aliases-package:com.vince.hotel.pojo
mybatis-plus:
configuration:
map-underscore-to-camel-case: true
global-config:
banner: false
运行后,访问 http://localhost:8099
其中包含了酒店的CRUD功能:
MQ结构如图:
0)开启RabbitMQ
docker ps -a
docker start 容器名
管理端:
http://ip地址:15672/
1)引入依赖、yml
在hotel-admin、hotel-demo中引入rabbitmq的依赖:
org.springframework.boot
spring-boot-starter-amqp
yml:
server:
port: 8099
spring:
datasource:
druid:
driver-class-name: com.mysql.cj.jdbc.Driver
url: jdbc:mysql://localhost:3306/heima?serverTimezone=Asia/Shanghai&useUnicode=true&characterEncoding=utf-8&zeroDateTimeBehavior=convertToNull&useSSL=false&allowPublicKeyRetrieval=true
username: root
password: 1234
main:
banner-mode: off
rabbitmq:
host: 192.168.200.131
port: 5672
username: itcast
password: 123321
virtual-host: / #虚拟主机
#logging:
# level:
# cn.itcast: debug
# pattern:
# dateformat: MM-dd HH:mm:ss:SSS
# type-aliases-package:com.vince.hotel.pojo
mybatis-plus:
configuration:
map-underscore-to-camel-case: true
global-config:
banner: false
2)常量类,声明队列交换机名称
在hotel-admin和hotel-demo中的cn.itcast.hotel.constatnts
包下新建一个类MqConstants
:
package cn.itcast.hotel.constants;
public class MqConstants {
/**
* 交换机
*/
public final static String HOTEL_EXCHANGE = "hotel.topic";
/**
* 监听新增和修改的队列
*/
public final static String HOTEL_INSERT_QUEUE = "hotel.insert.queue";
/**
* 监听删除的队列
*/
public final static String HOTEL_DELETE_QUEUE = "hotel.delete.queue";
/**
* 新增或修改的RoutingKey
*/
public final static String HOTEL_INSERT_KEY = "hotel.insert";
/**
* 删除的RoutingKey
*/
public final static String HOTEL_DELETE_KEY = "hotel.delete";
}
3)声明队列交换机
topic模式回顾:话题模式,通配符。
Topic
类型的Exchange
与Direct
相比,都是可以根据RoutingKey
把消息路由到不同的队列。只不过Topic
类型Exchange
可以让队列在绑定Routing key
的时候使用通配符!也可以在接收消息时,使用注解方式@RabbitListener的bindings,适用于消息队列少的情况:
@RabbitListener(bindings = @QueueBinding( value = @Queue(name = "topic.queue1"), exchange = @Exchange(name = "itcast.topic", type = ExchangeTypes.TOPIC), key = "china.#" )) public void listenTopicQueue1(String msg){ System.out.println("消费者接收到topic.queue1的消息:【" + msg + "】"); }
在config包下创建MqConfig,声明队列、交换机:
package cn.itcast.hotel.config;
import cn.itcast.hotel.constants.MqConstants;
import org.springframework.amqp.core.Binding;
import org.springframework.amqp.core.BindingBuilder;
import org.springframework.amqp.core.Queue;
import org.springframework.amqp.core.TopicExchange;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
@Configuration
public class MqConfig {
@Bean
public TopicExchange topicExchange(){
//第二个参数为是否持久化,第三个参数为是否自动删除。两个参数默认值就是持久化、不自动删除
return new TopicExchange(MqConstants.HOTEL_EXCHANGE, true, false);
}
@Bean
public Queue insertQueue(){
return new Queue(MqConstants.HOTEL_INSERT_QUEUE, true);
}
@Bean
public Queue deleteQueue(){
return new Queue(MqConstants.HOTEL_DELETE_QUEUE, true);
}
@Bean
public Binding insertQueueBinding(){
return BindingBuilder.bind(insertQueue()).to(topicExchange()).with(MqConstants.HOTEL_INSERT_KEY);
}
@Bean
public Binding deleteQueueBinding(){
return BindingBuilder.bind(deleteQueue()).to(topicExchange()).with(MqConstants.HOTEL_DELETE_KEY);
}
}
在hotel-admin中的增、删、改业务中分别发送MQ消息,消息内容为id,到时候用户端根据id增删改:
管理端hotel-admin不能直接调用es,想对es实现增删改要通过给用户端hotel-demo发送新增(修改)、删除消息。
hotel-demo接收到MQ消息要做的事情包括:
0) 环境准备
pom
org.springframework.boot
spring-boot-starter-amqp
yml
spring:
rabbitmq:
host: 192.168.200.131
port: 5672
username: itcast
password: 123321
virtual-host: / #虚拟主机
复制管理端的MqConstants.java和MqConfig到用户端
1)service接口新增新增、删除业务
首先在hotel-demo的cn.itcast.hotel.service
包下的IHotelService
中新增新增、删除业务
//mp的增删方法是saveById和removeById,所以这里并不冲突
void deleteById(Long id);
void insertById(Long id);
2)service实现类实现业务
给hotel-demo中的cn.itcast.hotel.service.impl
包下的HotelService中实现业务:
//mp的增删方法是saveById和removeById,所以这里并不冲突
@Override
public void deleteById(Long id) {
try {
// 1.准备Request
DeleteRequest request = new DeleteRequest("hotel", id.toString());
// 2.发送请求
client.delete(request, RequestOptions.DEFAULT);
} catch (IOException e) {
throw new RuntimeException(e);
}
}
@Override
public void insertById(Long id) {
try {
// 0.根据id查询酒店数据
Hotel hotel = getById(id);
// 转换为文档类型
HotelDoc hotelDoc = new HotelDoc(hotel);
// 1.准备Request对象
IndexRequest request = new IndexRequest("hotel").id(hotel.getId().toString());
// 2.准备Json文档
request.source(JSON.toJSONString(hotelDoc), XContentType.JSON);
// 3.发送请求
client.index(request, RequestOptions.DEFAULT);
} catch (IOException e) {
throw new RuntimeException(e);
}
}
坑点:删除文档的request别忘了设置id,不然会删除所有数据。
3)编写监听器
在mq
包下新增一个类:
package cn.itcast.hotel.mq;
import cn.itcast.hotel.constants.MqConstants;
import cn.itcast.hotel.service.IHotelService;
import org.springframework.amqp.rabbit.annotation.RabbitListener;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.stereotype.Component;
//别忘了@Component,被ioc容器管理,一直监听
@Component
public class HotelListener {
@Autowired
private IHotelService hotelService;
/**
* 监听酒店新增或修改的业务
* @param id 酒店id
*/
@RabbitListener(queues = MqConstants.HOTEL_INSERT_QUEUE)
public void listenHotelInsertOrUpdate(Long id){
hotelService.insertById(id);
}
/**
* 监听酒店删除的业务
* @param id 酒店id
*/
@RabbitListener(queues = MqConstants.HOTEL_DELETE_QUEUE)
public void listenHotelDelete(Long id){
hotelService.deleteById(id);
}
}
运行管理端和用户端服务后,打开rabbitmq服务端: http://ip地址:15672
可以看到队列、交换机创建成功:
交换机绑定关系:
先用户端搜索一个酒店,然后在管理端修改酒店信息 :
可以看到队列的消息记录:
用户端搜索后的数据也改变了:
再删除酒店,发现成功。
安装地址
https://chrome.google.com/webstore/detail/vuejs-devtools/nhdogjmejiglipccpnnnanhbledajbpd?hl=zh
拷贝数据并保存的办法:
粘贴即可快速填充表单:
单机的elasticsearch做数据存储,必然面临两个问题:海量数据存储问题、单点故障问题。
ES集群相关概念:
一个集群里有多个节点,每个节点都是一个es实例, 每个节点保存了自己的分片和一个其他节点备份的分片。
集群(cluster):一组拥有共同的 集群名 的 节点。
节点(node) :集群中的一个 Elasticearch 实例
分片(shard):索引可以被拆分为不同的部分进行存储,称为分片。在集群环境下,一个索引的不同分片可以拆分到不同的节点中
解决问题:数据量太大,单点存储量有限的问题。
此处,我们把数据分成3片:shard0、shard1、shard2
主分片(Primary shard):相对于副本分片的定义。
副本分片(Replica shard):每个主分片可以有一个或者多个副本,数据和主分片一样。
数据备份可以保证高可用,但是每个分片备份一份,所需要的节点数量就会翻一倍,成本实在是太高了!
为了在高可用和成本间寻求平衡,我们可以这样做:
这样可以大大减少所需要的服务节点数量,如图,我们以3分片,每个分片备份一份为例:
现在,每个分片都有1个备份,存储在3个节点:
首先编写一个docker-compose文件,上传到/root,内容如下:
创建同一个集群的三个节点,每个节点都是一个es实例:
注意端口占用问题,ports:-9200:9200,左边是centos的端口,右边是容器内部端口,只有左边会发生端口占用问题,前面安装过单点es的默认接口是9200,注意一下。
#创建三个es容器,容器名和节点名都是es01、es02、es03。三个容器集群名称一样,es会自动把他们组装成一个集群。cluster.initial_master_nodes集群中另外两个节点的ip地址,这里容器名就能互连
version: '2.2'
services:
es01:
image: elasticsearch:7.12.1
container_name: es01
environment:
- node.name=es01
- cluster.name=es-docker-cluster
- discovery.seed_hosts=es02,es03 #
- cluster.initial_master_nodes=es01,es02,es03
- "ES_JAVA_OPTS=-Xms512m -Xmx512m"
volumes:
- data01:/usr/share/elasticsearch/data
ports:
- 9200:9200
networks:
- elastic
es02:
image: elasticsearch:7.12.1
container_name: es02
environment:
- node.name=es02
- cluster.name=es-docker-cluster
- discovery.seed_hosts=es01,es03
- cluster.initial_master_nodes=es01,es02,es03
- "ES_JAVA_OPTS=-Xms512m -Xmx512m"
volumes:
- data02:/usr/share/elasticsearch/data
ports:
- 9201:9200
networks:
- elastic
es03:
image: elasticsearch:7.12.1
container_name: es03
environment:
- node.name=es03
- cluster.name=es-docker-cluster
- discovery.seed_hosts=es01,es02
- cluster.initial_master_nodes=es01,es02,es03
- "ES_JAVA_OPTS=-Xms512m -Xmx512m"
volumes:
- data03:/usr/share/elasticsearch/data
networks:
- elastic
ports:
- 9202:9200
volumes:
data01:
driver: local
data02:
driver: local
data03:
driver: local
networks:
elastic:
driver: bridge
es运行需要修改一些linux系统权限,修改/etc/sysctl.conf
文件
vi /etc/sysctl.conf
添加下面的内容,或将注释打开:
vm.max_map_count=262144
然后执行命令,让配置生效:
sysctl -p
通过docker-compose启动集群:
docker-compose up -d
kibana可以监控es集群,不过新版本需要依赖es的x-pack 功能,配置比较复杂。
这里推荐使用cerebro来监控es集群状态,官方网址:https://github.com/lmenezes/cerebro
课前资料已经提供了安装包:
windows解压即可使用,非常方便。
解压好的目录如下:
进入对应的bin目录:
双击其中的cerebro.bat文件即可启动服务。
访问http://localhost:9000 即可进入管理界面:
输入你的elasticsearch的任意节点的地址和端口,点击connect即可:
绿色的条,代表集群处于绿色(健康状态)。
1)方法一:利用kibana的DevTools创建索引库
在DevTools中输入指令:
PUT /itcast
{
"settings": {
"number_of_shards": 3, // 分片数量,shard译为碎片
"number_of_replicas": 1 // 副本数量,replica译为副本,复制品。
},
"mappings": {
"properties": {
// mapping映射定义 ...
}
}
}
2)方法二:利用cerebro创建索引库
利用cerebro还可以创建索引库:
填写索引库信息:
点击右下角的create按钮:
回到首页,即可查看索引库分片效果:
elasticsearch中集群节点有不同的职责划分:
主节点的类型也是master eligible,它是备选主节点选出来的。
eligible 译为合格的,合适的。
ingest译为接待、吸收。
coordinating译为协调,合作。
默认情况下,集群中的任何一个节点都同时具备上述四种角色。
但是真实的集群一定要将集群职责分离:
职责分离可以让我们根据不同节点的需求分配不同的硬件去部署。而且避免业务之间的互相干扰。
典型的es集群职责划分:LB是负载均衡
脑裂是由集群中的节点失联导致的。
脑裂情况演示:
例如一个集群中,主节点与其它节点失联:
此时,node2和node3认为node1宕机(但其实只是阻塞了),就会重新选主:
宕机,即down机、死机。
指操作系统无法从一个严重系统错误中恢复过来,或系统硬件层面出问题,以致系统长时间无响应,而不得不重新启动计算机的现象。
当node3当选后,集群继续对外提供服务,node2和node3自成集群,node1自成集群,两个集群数据不同步,出现数据差异。
当网络恢复后,因为集群中有两个master节点,集群状态的不一致,出现脑裂的情况:
解决脑裂
解决脑裂的方案是,要求选票超过 ( eligible节点数量 + 1 )/ 2 才能当选为主,因此eligible节点数量最好是奇数。对应配置项是discovery.zen.minimum_master_nodes,在es7.0以后,已经成为默认配置,因此一般不会发生脑裂问题
例如:3个节点形成的集群,选票必须超过 (3 + 1) / 2 ,也就是2票。node3得到node2和node3的选票,当选为主。node1只有自己1票,没有当选。集群中依然只有1个主节点,没有出现脑裂。
master eligible节点的作用是什么?
data节点的作用是什么?
coordinator节点的作用是什么?
路由请求到其它节点
合并查询到的结果,返回给用户
当新增文档时,应该保存到不同分片,保证数据均衡,那么coordinating node如何确定数据该存储到哪个分片呢?
一个集群里有多个节点,每个节点都是一个es实例, 每个节点保存了自己的分片和一个其他节点备份的分片。
在9200端口的es插入三条数据:
测试可以看到,三条数据分别在不同分片:
分布式新增如何确定分片?
elasticsearch会通过hash算法来计算文档应该存储到哪个分片,跟文档id和分片数量有关:
说明:
- _routing默认是文档的id
- 算法与分片数量有关,因此索引库一旦创建,分片数量不能修改!
新增文档的流程如下:
解读:
elasticsearch的查询分成两个阶段:
scatter phase:分散阶段,coordinating node会把请求分发到每一个分片(只有data节点保存分片数据)
gather phase:聚集阶段,coordinating node汇总data node的搜索结果,并处理为最终结果集返回给用户
集群的master节点会监控集群中的节点状态,如果发现有节点宕机,会立即将宕机节点的分片数据迁移到其它节点,确保数据安全,这个叫做故障转移。
故障转移流程演示:
1)例如一个集群结构如图:
现在,node1是主节点,其它两个节点是从节点。
2)突然,node1发生了故障:
宕机后的第一件事,需要重新选主,例如选中了node2:
node2成为主节点后,会检测集群监控状态,发现:shard-1、shard-0没有副本节点。因此需要将node1上的数据迁移到node2、node3:
实际演示:
现在有三个节点,其中es01是主节点。
令es01宕机
docker-compose stop es01
此时es01节点上的1主分片和0副本分片没了,主节点转到es03,控制es01节点的数据迁移到es02和03。
故障转移后,所有分片都有主分片和副本分片:
再恢复es01,发现主节点es03迁移出两个分片到es01:
docker-compose start es01