es是面向文档存储的,可以是数据库中的一条商品数据,一个订单信息。文档数据会被序列化为json格式后存储在es中。
Json文档中一般包含很多的字段,类似于数据库中的列。
索引:就是相同类型的文档的集合,类似与数据库中的表。
映射:数据库的表会有约束信息,用来定义表的结构、字段的名称、类型等信息。因此,索引库中就有映射,是索引中文档的字段约束信息,类似表的结构约束。
我们把mysql和es的概念做一下对比:
MySQL | Elasticsearch | 说明 |
---|---|---|
Table | Index | 索引(index),就是文档的集合,类似数据库的表(table) |
Row | Document | 文档(Document),就是一条条的数据,类似数据库中的行(Row),文档都是JSON格式 |
Column | Field | 字段(Field),就是JSON文档中的字段,类似数据库中的列(Column) |
Schema | Mapping | Mapping(映射)是索引中文档的约束,例如字段类型约束。类似数据库的表结构(Schema) |
SQL | DSL | DSL是elasticsearch提供的JSON风格的请求语句,用来操作elasticsearch,实现CRUD |
es和mysql往往是相互补充的关系而不是相互替代的关系。
所以在企业中往往是两者结合使用:
分词器的作用:
IK分词器(支持中文)有几种模式:
IK分词器拓展词条和停用词条:
IKAnalyzer.xml
文件中添加拓展词典和停用词典映射是对索引库中文档的约束,常见的映射属性如下所示:
例如下面的json文档:
{
"age": 21,
"weight": 52.1,
"isMarried": false,
"info": "黑马程序员Java讲师",
"email": "[email protected]",
"score": [99.1, 99.5, 98.9],
"name": {
"firstName": "云",
"lastName": "赵"
}
}
对应的每个字段映射(mapping):
采用DSL演示
基本语法:
格式:
PUT /索引库名称
{
"mappings": {
"properties": {
"字段名":{
"type": "text",
"analyzer": "ik_smart"
},
"字段名2":{
"type": "keyword",
"index": "false"
},
"字段名3":{
"properties": {
"子字段": {
"type": "keyword"
}
}
},
// ...略
}
}
}
实例:
#创建索引库
PUT /heima
{
"mappings": {
"properties": {
"info":{
"type": "text",
"analyzer": "ik_smart"
},
"email":{
"type": "keyword",
"index": false
},
"name":{
"type": "object",
"properties": {
"firstName":{
"type": "keyword"
},
"lastName":{
"type": "keyword"
}
}
}
}
}
}
基本语法:
格式:
GET /索引库名
示例:
#查询
GET /heima
倒排索引结构虽然不复杂,但是数据结构一旦改变(比如改变了分词器),就需要重新创建倒排索引,这简直是灾难。因此索引库一般创建就无法修改mapping。
虽然无法修改mapping中已有的字段,但是却可以添加新的字段到mapping中,因为这不会对倒排索引产生影响。
所以“修改索引库”实际上就是为索引库添加新字段。
基本语法:
格式即示例:
#修改(添加新字段)
put /heima/_mapping
{
"properties": {
"age":{
"type":"integer"
}
}
}
基本语法:
格式即示例:
#删除
DELETE /heima
对索引库的操作:
语法:
POST /索引库名/_doc/文档id
{
"字段1": "值1",
"字段2": "值2",
"字段3": {
"子属性1": "值3",
"子属性2": "值4"
},
// ...
}
示例:
#新增文档
POST /heima/_doc/1
{
"info": "第一,绝不意气用事",
"email": "[email protected]",
"name": {
"firstName": "hj",
"lastName": "z"
}
}
语法:
GET /索引库名/_doc/id
示例:
#查询
GET /heima/_doc/1
语法:
GET /索引库名/_search
语法:
DELETE /索引库名/_doc/id
示例:
#删除
DELETE /heima/_doc/1
**全量修改:**全量修改是直接覆盖原来的文档。
本质:
**注意:**如果根据id删除时,id不存在,第二步的新增操作依旧会执行,也就从修改变成了新增能操作。
简单来说就是“有则改之无则添加”。
语法:
PUT /索引库名/_doc/id
{
"字段1": "值1",
"字段2": "值2",
// ... 略
}
示例:
#全量修改文档
PUT /heima/_doc/1
{
"info": "第二,绝不漏判任何一件坏事",
"email": "[email protected]",
"name": {
"firstName": "hj",
"lastName": "z"
}
}
**增量修改:**执行该指定id匹配的文档中的部分字段。
语法:
POST /索引库名/_update/id
{
"doc": {
"字段名": "新的值",
}
}
示例:
#局部修改文档字段
POST /heima/_update/1
{
"doc": {
"email": "[email protected]"
}
}
文档操作:
创建索引库,最关键的就是mapping映射,而mapping映射要考虑的信息包括:
其中:
来看下酒店数据的索引库结构:
PUT /hotel
{
"mappings": {
"properties": {
"id": {
"type": "keyword"
},
"name":{
"type": "text",
"analyzer": "ik_max_word",
"copy_to": "all"
},
"address":{
"type": "keyword",
"index": false
},
"price":{
"type": "integer"
},
"score":{
"type": "integer"
},
"brand":{
"type": "keyword",
"copy_to": "all"
},
"city":{
"type": "keyword",
"copy_to": "all"
},
"starName":{
"type": "keyword"
},
"business":{
"type": "keyword"
},
"location":{
"type": "geo_point"
},
"pic":{
"type": "keyword",
"index": false
},
"all":{
"type": "text",
"analyzer": "ik_max_word"
}
}
}
}
几个特殊字段说明:
地理坐标说明:
copy_to说明:
1)引入es的RestHighLevelClient依赖:
由于SpringBoot默认的es版本是7.6.2,所以我们需要覆盖的es版本:
<dependency>
<groupId>org.elasticsearch.clientgroupId>
<artifactId>elasticsearch-rest-high-level-clientartifactId>
<version>7.12.1version>
dependency>
2)初始化RestHighLevelClient:
编写测试方法,测试连接是否成功:
public class HotelIndexTest {
private RestHighLevelClient client;
@Test
void testInit() {
System.out.println(client);
}
@BeforeEach
void setUp() {
this.client=new RestHighLevelClient(RestClient.builder(
HttpHost.create("http://127.0.0.1:9200")
));
}
@AfterEach
void tearDown() throws IOException {
this.client.close();
}
}
创建索引库的API如下:
代码分为三步:
示例:
在常量类中定义一个dsl语句:
public class HotelConstants {
public static final String MAPPING_TEMPLATE="{\n" +
" \"mappings\": {\n" +
" \"properties\": {\n" +
" \"id\": {\n" +
" \"type\": \"keyword\"\n" +
" },\n" +
" \"name\":{\n" +
" \"type\": \"text\",\n" +
" \"analyzer\": \"ik_max_word\",\n" +
" \"copy_to\": \"all\"\n" +
" },\n" +
" \"address\":{\n" +
" \"type\": \"keyword\",\n" +
" \"index\": false\n" +
" },\n" +
" \"price\":{\n" +
" \"type\": \"integer\"\n" +
" },\n" +
" \"score\":{\n" +
" \"type\": \"integer\"\n" +
" },\n" +
" \"brand\":{\n" +
" \"type\": \"keyword\",\n" +
" \"copy_to\": \"all\"\n" +
" },\n" +
" \"city\":{\n" +
" \"type\": \"keyword\",\n" +
" \"copy_to\": \"all\"\n" +
" },\n" +
" \"starName\":{\n" +
" \"type\": \"keyword\"\n" +
" },\n" +
" \"business\":{\n" +
" \"type\": \"keyword\"\n" +
" },\n" +
" \"location\":{\n" +
" \"type\": \"geo_point\"\n" +
" },\n" +
" \"pic\":{\n" +
" \"type\": \"keyword\",\n" +
" \"index\": false\n" +
" },\n" +
" \"all\":{\n" +
" \"type\": \"text\",\n" +
" \"analyzer\": \"ik_max_word\"\n" +
" }\n" +
" }\n" +
" }\n" +
"}";
}
然后在测试类中编写测试方法,实现创建索引的操作:
@Test
void createHotelIndex() throws IOException {
//1.创建Request对象
CreateIndexRequest request = new CreateIndexRequest("hotel");
//2.准备请求的参数:DSL语句
request.source(MAPPING_TEMPLATE, XContentType.JSON);
//3.发送请求
client.indices().create(request, RequestOptions.DEFAULT);
}
与创建索引库相比:
删除代码主要体现在Request对象上:
编写测试方法,删除索引库:
//删除索引库
@Test
void testDeleteHotelIndex() throws IOException {
//1.创建Request对象
DeleteIndexRequest request = new DeleteIndexRequest("hotel");
//2.发送请求
client.indices().delete(request, RequestOptions.DEFAULT);
}
判断索引库是否存在本质上就是查询操作。
因此与删除的Java代码流程是类似的。依然是三步走:
代码如下:
//判断索引库是否存在
@Test
void testExistHotelIndex() throws IOException {
//1.创建Request对象
GetIndexRequest request = new GetIndexRequest("hotel");
//2.发送请求
boolean exists = client.indices().exists(request, RequestOptions.DEFAULT);
//3.输出
System.out.println(exists ? "存在" : "不存在");
}
JavaRestClient操作elasticsearch的流程基本类似。核心是client.indices()方法来获取索引库的操作对象。
索引库操作的基本步骤:
需求:
将数据库中的酒店信息查询出来写入es中。
思路:
我们导入酒店数据,基本流程一致,但是需要考虑几点变化:
因此,代码整体步骤如下:
实现:
在测试类中编写一个测试方法:
@Test
void testAddDocument() throws IOException {
//根据id查询酒店数据
Hotel hotel = hotelService.getById(36934l);
//转换为文档类型
HotelDoc hotelDoc = new HotelDoc(hotel);
//1.准备Request对象
IndexRequest request = new IndexRequest("hotel").id(hotel.getId().toString());
//2.准备Json文档
request.source(JSON.toJSONString(hotelDoc), XContentType.JSON);
//3.发送请求
client.index(request, RequestOptions.DEFAULT);
}
与之前类似,也是三步走:
//查询文档
@Test
void testGetDocumentById() throws IOException {
//1.准备Request对象
GetRequest request = new GetRequest("hotel", "36934");
//2.发送请求
GetResponse response = client.get(request, RequestOptions.DEFAULT);
//3.解析结果
String json = response.getSourceAsString();
HotelDoc hotelDoc = JSON.parseObject(json, HotelDoc.class);
System.out.println(hotelDoc);
}
与查询相比,删除操作仅仅是请求方式从GET变成DELETE,可以想象Java代码应该依然是三步走:
在测试类中编写一个测试方法:
//删除文档
@Test
void testDeleteDocument() throws IOException {
//1.准备request
DeleteRequest request = new DeleteRequest("hotel", "36934");
//2.发送请求
client.delete(request,RequestOptions.DEFAULT);
}
在RestClient的API中,全量修改和新增的API完全一致,判断依据是id:
所以这里的修改操作只有增量修改。
代码示例如下图:
与之前类似,也是三步走:
在测试类中编写测试方法:
//修改文档
@Test
void testUpdateDocument() throws IOException {
//1.准备Request
UpdateRequest request = new UpdateRequest("hotel", "36934");
//2.准备请求参数
request.doc(
"price","350",
"starName","三钻"
);
//3.发送请求
client.update(request,RequestOptions.DEFAULT);
}
需求:
将所有的酒店数据导入到索引库中。
思路:
利用mybatis-plus查询酒店数据
将查询到的酒店数据(Hotel)转换为文档类型数据(HotelDoc)
利用JavaRestClient中的BulkRequest批处理,实现批量新增文档
批量处理的本质就是将多个普通的crud请求组合在一起发送。
其中提供了一个add方法,用来添加其他请求:
可以看到,能添加的请求包括:
所以Bulk中添加了多个IndexRequest,就是批量新增功能了。示例图如下:
在测试类中编写测试方法,代码示例如下:
//批量导入文档
@Test
void testBulkRequest() throws IOException {
//批量查询酒店数据
List<Hotel> hotels = hotelService.list();
//1.创建Request
BulkRequest request = new BulkRequest();
//2.准备参数,添加多个新增的request
for (Hotel hotel : hotels) {
HotelDoc hotelDoc = new HotelDoc(hotel);
request.add(new IndexRequest("hotel")
.id(hotelDoc.getId().toString())
.source(JSON.toJSONString(hotelDoc), XContentType.JSON));
}
//3.发送请求
client.bulk(request, RequestOptions.DEFAULT);
}
文档操作的基本步骤:
文档操作和索引库操作的区别:
client.xxx()
,而索引库操作的是 client.indices().xxx()