现在有一个【搜索】的场景,在CSDN中 【搜索】【Java设计模式】,你会看到如下页面:
看,大伙有没有想过,上面这种搜索,到底是怎样实现的?就假设他们就是存在一个Mysql里面了,那我们不妨来反推一下,上面这个搜索,它们背后的表结构是怎样的。很显然,如下:(阅读量、点赞量、评论数什么的我就不写了)
id |
标题title |
内容content |
---|---|---|
1 | Java中23种设计模式 | Java中23种设计模式,包括简单介绍,适用场景以及优缺点等 |
2 | Java常见设计模式总结 | 设计模式是一套经过反复使用的代码设计经验,目的是为了重用代码、让代码更容易被他人理解、保证代码可靠性。设计模式于己于人于系统都是多赢的… |
3 | 一文讲完Java常用设计模式(全23种) | 这些解决方案被称为设计模式。最早提出设计模式的人是Erich Gamma… |
4 | 坦克游戏,用于复习设计模式,java基础和网络应用.zip | 坦克游戏,用于复习设计模式,java基础和网络应用.zip |
5 | 七种常用的设计模式 | 常用的七种设计模式:单例模式、工厂方法模式、抽象工厂模式、代理模式、装饰器模式、观察者模式和责任链模式。设计模式分类设计模式根据工作的目的… |
6 | Java中常用的设计模式 | 毫无疑问,设计模式于己于他人于系统都是多赢的,设计模式使代码编制真正工程化… |
没毛病吧… 那你说,要是你的话,在Mysql里面,面对上面这种内容,你该怎么写你的sql呢?难不成这样:
select * from csdn_blog where title like '%Java设计模式%' or content like '%Java设计模式%'
且不说,这样的检索效率很慢,其实这样的sql显然也是无法查询出上面CSDN对应的【搜索】结果的。所以有人如是说,【搜索】跟【查询】是两码事。so,what is search ?
全文检索是一种通过对文本内容进行全面索引和搜索的技术,它可以快速地在大量文本数据中查找包含特定关键词或短语的文档,并返回相关的搜索结果。
全文检索广泛应用于各种信息管理系统和应用中,如搜索引擎、文档管理系统、电子邮件客户端、新闻聚合网站等。它可以帮助用户快速定位所需信息,提高检索效率和准确性。
Q1:查询和搜索有什么区别
- 查询:有明确的搜索条件边界。比如:(这里的 15、25、红色、3000 都是条件边界。即有明确的范围界定)
- 年龄 15~25 岁;
- 颜色 = 红色;
- 价格 < 3000- 搜索:即全文检索,无搜索条件边界,召回结果取决于相关性,其相关性计算无明确边界性条件。如同义词、谐音、别名、错别字、混淆词、网络热梗等均可成为其相关性判断依据
在全文检索中,其实包含两个部分,分别是:如何建立索引;查询使用索引。
建立索引的过程如下:
【元数据】这个概念在很多地方都有提到。【元数据】即用来描述数据的数据。
搜索使用索引的过程如下:
正排索引(Forward Index)和倒排索引(Inverted Index)是全文检索中常用的两种索引结构,它们在索引和搜索的过程中扮演不同的角色。
下面所谓【文档/列表】其实就是Mysql中的数据行
正排索引(正向索引)
正排索引是将文档按顺序排列并进行编号的索引结构。每个文档都包含了完整的文本内容,以及其他相关的属性或元数据,如标题、作者、发布日期等。在正排索引中,可以根据文档编号或其他属性快速定位和访问文档的内容。正排索引适合用于需要对文档进行整体检索和展示的场景,但对于包含大量文本内容的数据集来说,正排索引的存储和查询效率可能会受到限制。
比如:在MySQL 中通过 ID 查找就是一种正排索引的应用。
()
倒排索引(反向索引)
倒排索引是根据单词或短语建立的索引结构,它将每个单词映射到包含该单词的文档列表中。倒排索引的建立过程是先对文档进行分词处理,然后记录每个单词在哪些文档中出现,以及出现的位置信息。接着,通过倒排索引,可以根据关键词或短语快速找到包含这些词语的文档,并确定它们的相关性。倒排索引适用于在大规模文本数据中进行关键词搜索和相关性排序的场景,它能够快速定位文档,提高搜索效率。
比如:ElasticSearch的搜索就是一种倒排索引的应用。
举个例子,对上面的CSDN查询页面,只需要用户在创建文章的过程中,建立如下的倒排索引即可:
关键词 | 文章id |
---|---|
Java | 1、2、3、6 |
设计模式 | 1、2、3、4、5、6 |
游戏 | 4 |
坦克 | 4 |
ElasticSearch(简称ES)是一个开源的分布式搜索和数据分析引擎,是用Java开发并且是当前最流行的开源的企业级搜索引擎,能够达到近实时搜索,它专门设计用于处理大规模的文本数据和实现高性能的全文检索。
Elasticsearch有如下特点和优势:
分布式架构
:Elasticsearch 是一个分布式系统,可以轻松地水平扩展,处理大规模的数据集和高并发的查询请求全文检索功能
:Elasticsearch 提供了强大的全文检索功能,包括分词、词项查询、模糊匹配、多字段搜索等,并支持丰富的查询语法和过滤器多语言支持
:Elasticsearch 支持多种语言的分词器和语言处理器,可以很好地处理不同语言的文本数据高性能
:Elasticsearch 使用倒排索引和缓存等技术,具有快速的搜索速度和高效的查询性能实时性
:Elasticsearch 支持实时索引和搜索,可以几乎实时地将文档添加到索引中,并立即可见易用性
:Elasticsearch 提供了简单易用的 RESTful API,方便进行索引管理、查询操作和数据分析其实除了上面说的优势意外,还有一个客观因素,那就是,ES在同类竞品中排名远高于其它。(甚至有人说,如果你只是关注【搜索】业务,直接盲选)
官方网站: https://www.elastic.co/
下载地址:https://www.elastic.co/cn/downloads/past-releases#elasticsearch
只要用到搜索的场景,ES几乎都可以是最好的选择。国内现在有大量的公司都在使用 Elasticsearch,包括携程、滴滴、今日头条、饿了么、360安全、小米、vivo等诸多知名公司。除了搜索之外,结合Kibana、Logstash、Beats,Elastic Stack还被广泛运用在大数据近实时分析领域,包括日志分析、指标监控、信息安全等多个领域。
它可以帮助你探索海量【结构化】、【非结构化】数据,按需创建可视化报表,对监控数据设置报警阈值,甚至通过使用机器学习技术,自动识别异常状况。
结构化:即固定列属性,如mysql;非结构化:即不固定列属性,如mongodb
总的来说,它适用于如下场景:
Elasticsearch可以应用于多个场景,包括但不限于:
搜索引擎
:Elasticsearch可以作为搜索引擎使用,通过建立索引来存储和搜索文本数据。它支持全文搜索、模糊搜索、聚合搜索等多种搜索方式,能够满足不同类型的搜索需求日志分析
:Elasticsearch可以用于实时分析和查询大量的日志数据。通过创建索引并使用相关查询语句,可以轻松地对日志进行聚合、过滤和统计分析数据挖掘
:Elasticsearch可以用于数据挖掘和预测分析。通过构建索引并使用聚类、分类、关联规则挖掘等算法,可以发现数据中的隐藏模式和关系企业搜索
:Elasticsearch可以用于企业内部的搜索和知识管理。通过建立索引并使用相关查询语句,可以方便地搜索公司内部的各种文档、报告、邮件等信息实时分析
:Elasticsearch可以处理和分析大量实时数据,以帮助企业做出更明智的决策安全性分析
:Elasticsearch可以用于收集、存储和分析安全日志数据,帮助您检测安全事件和预防攻击互联网中间件
:Elasticsearch可以作为互联网应用程序的中间件,用于处理大量动态数据考虑到这边只是学习一下ES,这里就简单介绍一下windows下安装吧,Linux需要用的时候再去查询也可以。
安装步骤如下:
1)下载ElasticSearch(版本:7.17.3)
下载地址: https://www.elastic.co/cn/downloads/past-releases#elasticsearch
它的目录结构如下:
目录 | 描述 |
---|---|
bin | 脚本文件,包括启动、关闭,插件安装,运行统计数据库等 |
config | 配置文件目录。如:es配置,角色配置,jvm配置等 |
jdk | 7.x版本之后特有的,自带的jdk环境。8.x版本自带jdk17 |
data | 默认的数据存放目录,包含节点、分片、索引、文档的所有数据,生产环境需要修改 |
lib | es依赖的java类库 |
modules | 包含所有的es模块,如:cluster、discovery、indices等 |
plugins | 已安装插件目录 |
2)配置JDK环境
ES比较耗内存,建议虚拟机4G或以上内存,JVM1g以上的内存分配。运行Elasticsearch,需安装并配置JDK。各个版本对Java的依赖 https://www.elastic.co/support/matrix#matrix_jvm
,但是整体来说7.17.x之前的都支持JDK8。
ES 7.0开始,内置了Java环境。ES的JDK环境变量生效的优先级配置顺序
ES_JAVA_HOME
>JAVA_HOME
>ES_HOME
windows下,设置ES_JAVA_HOME
和ES_HOME
的环境变量
3)启动ElasticSearch服务
进入bin目录,直接运行elasticsearch.bat
测试,浏览器中访问:http://localhost:9200/
看到这个页面基本上就是启动成功了。
1)下载ElasticSearch(版本:7.17.3)
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.17.3-linux-x86_64.tar.gz
2)配置JDK环境
# linux 进入用户主目录,比如/home/es目录下,设置用户级别的环境变量
vim .bash_profile
#设置ES_JAVA_HOME和ES_HOME的路径
export ES_JAVA_HOME=/home/es/elasticsearch-7.17.3/jdk/
export ES_HOME=/home/es/elasticsearch-7.17.3
#执行以下命令使配置生效
source .bash_profile
3) 配置ElasticSearch
cd config
vim elasticsearch.yml
#开启远程访问
network.host: 0.0.0.0
#单节点模式 初学者建议设置为此模式
discovery.type: single-node
ElasticSearch常用配置参数解释如下:(不标红的则相对不那么重要)
cluster.name
:当前节点所属集群名称,多个节点如果要组成同一个集群,那么集群名称一定要配置成相同。默认值elasticsearch,生产环境建议根据ES集群的使用目的修改成合适的名字。不要在不同的环境中重用相同的集群名称,否则,节点可能会加入错误的集群。node.name
:当前节点名称,默认值当前节点部署所在机器的主机名,所以如果一台机器上要起多个ES节点的话,需要通过配置该属性明确指定不同的节点名称path.data
:配置数据存储目录,比如索引数据等,默认值 $ES_HOME/data,生产环境下强烈建议部署到另外的安全目录,防止ES升级导致数据被误删除path.logs
:配置日志存储目录,比如运行日志和集群健康信息等,默认值 $ES_HOME/logs,生产环境下强烈建议部署到另外的安全目录,防止ES升级导致数据被误删除ES对于内存的需求比较大,一般生产环境建议配置大内存,如果内存不足,容易导致内存交换到磁盘,严重影响ES的性能。所以默认启动时进行相应大小内存的锁定,如果无法锁定则会启动失败。非生产环境可能机器内存本身就很小,能够供给ES使用的就更小,如果该参数配置为true的话很可能导致无法锁定内存以致ES无法成功启动,此时可以修改为false
- network.host
:节点对外提供服务的地址以及集群内通信的ip地址,默认值为当前节点所在机器的本机回环地址127.0.0.1 和[::1],这就导致默认情况下只能通过当前节点所在主机访问当前节点4)配置JVM参数
vim jvm.options
-Xms4g
-Xmx4g
配置的建议:(JVM参数设置部署的,自行百度。如:JVM Xmx参数)
5)启动ElasticSearch服务
ES不允许使用root账号启动服务,如果你当前账号是root,则需要创建一个专有账户
#非root用户启动
bin/elasticsearch
# -d 后台启动
bin/elasticsearch -d
#为elaticsearch创建用户并赋予相应权限
adduser es
passwd es
chown -R es:es elasticsearch-7.17.3
6)启动ES服务常见错误解决方案
如果ES服务启动异常,会有提示:
[1]: max file descriptors [4096] for elasticsearch process is too low, increase to at least [65536]
ES因为需要大量的创建索引文件,需要大量的打开系统的文件,所以我们需要解除linux系统当中打开文件最大数目的限制,不然ES启动就会抛错
#切换到root用户
vim /etc/security/limits.conf
末尾添加如下配置:
* soft nofile 65536
* hard nofile 65536
* soft nproc 4096
* hard nproc 4096
[2]: max number of threads [1024] for user [es] is too low, increase to at least [4096]
无法创建本地线程问题,用户最大可创建线程数太小
vim /etc/security/limits.d/20-nproc.conf
改为如下配置:
* soft nproc 4096
[3]: max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
最大虚拟内存太小,调大系统的虚拟内存
vim /etc/sysctl.conf
追加以下内容:
vm.max_map_count=262144
保存退出之后执行如下命令:
sysctl -p
[4]: the default discovery settings are unsuitable for production use; at least one of [discovery.seed_hosts, discovery.seed_providers, cluster.initial_master_nodes] must be configured
缺少默认配置,至少需要配置discovery.seed_hosts/discovery.seed_providers/cluster.initial_master_nodes中的一个参数.
- discovery.seed_hosts: 集群主机列表
- discovery.seed_providers: 基于配置文件配置集群主机列表
- cluster.initial_master_nodes: 启动时初始化的参与选主的node,生产环境必填
vim config/elasticsearch.yml
#添加配置
discovery.seed_hosts: ["127.0.0.1"]
cluster.initial_master_nodes: ["node-1"]
#或者指定配置单节点(集群单节点)
discovery.type: single-node
Kibana是一个开源分析和可视化平台,旨在与Elasticsearch协同工作。
1)下载并解压缩Kibana(版本:7.17.3)
下载地址:https://www.elastic.co/cn/downloads/past-releases#kibana
2)修改Kibana.yml(windows系统不用改)
vim config/kibana.yml
server.port: 5601 #指定Kibana服务器监听的端口号
server.host: "localhost" #指定Kibana服务器绑定的主机地址
elasticsearch.hosts: ["http://localhost:9200"] #指定Kibana连接到的Elasticsearch实例的访问地址
i18n.locale: "zh-CN" #将 Kibana 的界面语言设置为简体中文
3)运行Kibana
windows直接执行kibana.bat
linux的话,注意跟es一样,使用非root用户启动
bin/kibana
#后台启动
nohup bin/kibana &
#查询kibana进程
netstat -tunlp | grep 5601
4)访问客户端
点击访问 http://localhost:5601/app/dev_tools#/console
分词插件或者说分词器,是ES中一个很重要很重要的东西,我相信大家看了【1.2 全文检索原理】都能理解这个东西有啥用。
接下来,我们通过Elasticsearch提供插件机制对系统进行扩展,以安装分词插件为例:
#查看已安装插件
bin/elasticsearch-plugin list
#安装插件
bin/elasticsearch-plugin install analysis-icu
#删除插件
bin/elasticsearch-plugin remove analysis-icu
由于我们是中文环境,所以需要下载一个中文的分词器【ik分词器】。注意,需要跟自己的ES版本匹配,链接:https://github.com/medcl/elasticsearch-analysis-ik/releases/tag/v7.17.3
ik分词器叫做
ik_smart
或ik_max_word
他们俩在文本的拆分力度上有所不同,后者更加细致
ik中文分词器测试效果:(使用ES_analyzer
API可以用来查看指定分词器的分词结果)
ElasticSearch中有几个比较重要的概念,分别如下。
一个节点就是一个Elasticsearch的实例,可以理解为一个 ES 的进程
ES的角色分类:
注意:如果 node.roles 为缺省配置,那么当前节点具备所有角色
在 ES 中,索引表述的含义等价于 MySQL 中的表(仅针对 ES 7.x 以后版本),注意这里只是类比去理解,索引并不完全等于表。
在 ES 中,索引在不同的特定条件下可以表示三种不同的意思:
表示源文件数据
:当做数据的载体,即类比为数据表,通常称作 index 。例如:通常说 集群中有 product 索引,即表述当前 ES 的服务中存储了 product 这样一张“表”表示索引文件
:以加速查询检索为目的而设计和创建的数据文件,通常承载于某些特定的数据结构,如哈希、FST 等(例如:通常所说的 正排索引 和 倒排索引(也叫正向索引和反向索引))。就是当前这个表述,索引文件和源数据是完全独立的,索引文件存在的目的仅仅是为了加快数据的检索,不会对源数据造成任何影响表示创建数据的动作
:通常说创建或添加一条数据,在 ES 的表述为索引一条数据或索引一条文档,或者 index 一个 doc 进去。此时索引一条文档的含义为向索引中添加数据索引的组成部分:
在较早的ES版本中,索引可以包含多个类型,每个类型代表了不同的文档结构。然而,从ES 7.x版本开始,类型已经被弃用,一个索引只能包含一个文档类型。
ES 7.x
ES 8.x
文档是ES中的最小数据单元。它是一个具有结构化JSON格式的记录。文档可以被索引并进行搜索、更新和删除操作。
文档元数据,所有字段均以下划线开头,为系统字段,用于标注文档的相关信息:
_index
:文档所属的索引名_type
:文档所属的类型名_id
:文档唯一id_source
: 文档的原始Json数据_version
:文档的版本号,修改删除操作_version都会自增1_seq_no
:和_version一样,一旦数据发生更改,数据也一直是累计的。Shard级别严格递增,保证后写入的Doc的_seq_no大于先写入的Doc的_seq_no_primary_term
:_primary_term主要是用来恢复数据时处理当多个文档的_seq_no一样时的冲突,避免Primary Shard上的写入被覆盖。每当Primary Shard发生重新分配时,比如重启,Primary选举等,_primary_term会递增1格式:PUT/索引名称
索引命名规范:
ES 索引创建成功之后,以下属性将不可修改
#创建索引
PUT /zs_db
格式:GET /索引名称
#查询索引
GET /zs_db
#es_db是否存在
HEAD /zs_db
格式: DELETE /索引名称
DELETE /zs_db
创建索引的时候指定 settings
PUT
{
“settings”: {}
}
创建索引时可以设置分片数和副本数。如下:
# 创建索引es_db,指定其主分片数量为 3,每个主分片的副本数量为 2
PUT /es_db
{
"settings" : {
"number_of_shards" : 3,
"number_of_replicas" : 2
}
}
创建索引时可以指定IK分词器作为默认分词器。如下:
PUT /es_db
{
"settings" : {
"index" : {
"analysis.analyzer.default.type": "ik_max_word"
}
}
}
只能在创建索引时或在关闭状态的索引上设置
即可以使用 _setting API 在实时修改的配置项。
使用 _setting 只能修改允许动态修改的配置项
#修改索引配置,把每个主分片的副本数量修改为 1
PUT /es_db/_settings
{
"index" : {
"number_of_replicas" : 1
}
}
ES 中的 mapping 有点类似与关系数据库中表结构的概念,在 MySQL 中,表结构里包含了字段名称,字段的类型还有索引信息等。在 Mapping 里也包含了一些属性,比如字段名称、类型、字段使用的分词器、是否评分、是否创建索引等属性,并且在 ES 中一个字段可以有多个类型。ES中Mapping可以分为动态映射和静态映射。
查看完整的索引 mapping
GET /<index_name>/_mappings
查看索引中指定字段的 mapping
GET /<index_name>/_mappings/field/<field_name>
在关系数据库中,需要事先创建数据库,然后在该数据库下创建数据表,并创建表字段、类型、长度、主键等,最后才能基于表插入数据。而Elasticsearch中不需要定义Mapping映射,在文档写入Elasticsearch时,会根据文档字段自动识别类型,这种机制称之为动态映射。
#删除原索引
DELETE /user
#创建文档(ES根据数据类型, 会自动创建映射)
PUT /user/_doc/1
{
"name":"fox",
"age":32,
"address":"长沙麓谷"
}
#获取文档映射
GET /user/_mapping
静态映射也叫做显式映射,即:在索引文档写入之前,人为创建索引并且指定索引中每个字段类型、分词器等参数(就跟创建Mysql表一样)
PUT /user
{
"settings": {
"number_of_shards": "1",
"number_of_replicas": "1"
},
"mappings": {
"properties": {
"name": {
"type": "keyword"
},
"age" : {
"type" : "long"
},
"address" : {
"type" : "text"
}
}
}
}
- index: 控制当前字段是否被索引,默认为true。如果设置为false,该字段不可被搜索
DELETE /user
PUT /user
{
"mappings" : {
"properties" : {
"address" : {
"type" : "text",
"index": false
},
"age" : {
"type" : "long"
},
"name" : {
"type" : "text"
}
}
}
}
PUT /user/_doc/1
{
"name":"fox",
"address":"长沙解放西路",
"age":30
}
GET /user
GET /user/_search
{
"query": {
"match": {
"address": "长沙"
}
}
}
- dynamic设为true时,一旦有新增字段的文档写入,Mapping 也同时被更新;dynamic设置成strict(严格控制策略),文档写入失败,抛出异常
DELETE /user
PUT /user
{
"mappings": {
"dynamic": "strict",
"properties": {
"name": {
"type": "text"
},
"address": {
"type": "object",
"dynamic": "true"
}
}
}
}
# 插入文档报错,原因为age为新增字段,会抛出异常
PUT /user/_doc/1
{
"name":"fox",
"age":32,
"address":{
"province":"湖南",
"city":"长沙"
}
}
dynamic设置成strict,新增age字段导致文档插入失败。结果如下图所示:
修改dynamic后再次插入文档成功:
#修改daynamic
PUT /user/_mapping
{
"dynamic":true
}
注意:对已有字段,一旦已经有数据写入,就不再支持修改字段定义
具体方法:
通过这几个步骤可以实现了索引的平滑过渡,并且是零停机。
# 1. 重新建立一个静态索引
PUT /user2
{
"mappings": {
"properties": {
"name": {
"type": "text"
},
"address": {
"type": "text",
"analyzer": "ik_max_word"
}
}
}
}
# 2. 把之前索引里的数据导入到新的索引里
POST _reindex
{
"source": {
"index": "user"
},
"dest": {
"index": "user2"
}
}
# 3. 删除原创建的索引
DELETE /user
# 4. 为新索引起个别名, 为原索引名
PUT /user2/_alias/user
GET /user
语法格式:
[PUT | POST] /索引名称/[_doc | _create ]/id
PS:注意这里的【索引】是什么意思。【4.1.3 索引:Index】讲过
# 创建文档,指定id
# 如果id不存在,创建新的文档,否则先删除现有文档,再创建新的文档,版本会增加
PUT /es_db/_doc/1
{
"name": "张三",
"sex": 1,
"age": 25,
"address": "广州天河公园",
"remark": "java developer"
}
#创建文档,ES生成id
POST /es_db/_doc
{
"name": "张三",
"sex": 1,
"age": 25,
"address": "广州天河公园",
"remark": "java developer"
}
注意:POST和PUT都能起到创建/更新的作用,PUT需要对一个具体的资源进行操作也就是要确定id才能进行更新/创建,而POST是可以针对整个资源集合进行操作的,如果不写id就由ES生成一个唯一id进行创建新文档,如果填了id那就针对这个id的文档进行创建/更新
语法格式:
- 根据id查询文档,
GET /索引名称/_doc/id
- 条件查询,
GET /索引名称/_doc/_search { [条件列表] }
GET /es_db/_doc/1
# 查询前10条文档
GET /es_db/_doc/_search
ES Search API提供了两种条件查询搜索方式:
DSL(Domain Specific Language领域专用语言)查询是使用Elasticsearch的查询语言来构建查询的方式。
# match 匹配查询,会对查询文本分词后匹配
GET /es_db/_search
{
"query": {
"match": {
"address": "广州白云"
}
}
}
# term 词项查询,属于精确查询,不会对查询文本分词
# 思考:能否查到文档?
GET /es_db/_search
{
"query": {
"term": {
"address": "广州白云"
}
}
}
- 全量更新,整个json都会替换,语法格式:
[PUT | POST] /索引名称/_doc/id
怎么理解全量更新?即:如果文档存在,现有文档会被删除,然后重新索引一个新的文档
# 全量更新,替换整个json
PUT /es_db/_doc/1
{
"name": "张三",
"sex": 1,
"age": 25
}
#查询文档
GET /es_db/_doc/1
- 使用_update部分更新,语法格式:
POST /索引名称/_update/id
update不会删除原来的文档,而是实现真正的数据更新
# 部分更新:在原有文档上更新
# Update -文档必须已经存在,更新只会对相应字段做增量修改
POST /es_db/_update/1
{
"doc": {
"age": 28
}
}
#查询文档
GET /es_db/_doc/1
- 使用 _update_by_query 更新文档
POST /es_db/_update_by_query
{
"query": {
"match": {
"_id": 1
}
},
"script": {
"source": "ctx._source.age = 30"
}
}
_seq_no和_primary_term是对_version的优化,7.X版本的ES默认使用这种方式控制版本,所以当在高并发环境下使用乐观锁机制修改文档时,要带上当前文档的_seq_no和_primary_term进行更新:
POST /es_db/_doc/2?if_seq_no=21&if_primary_term=6
{
"name": "李四xxx"
}
语法格式:
DELETE /索引名称/_doc/id
DELETE /es_db/_doc/1
批量操作可以减少网络连接所产生的开销,提升性能。它有如下特点:
其实这种思路在很多地方都有了。最经典的就是之前学习的Redis、Socket,Netty等
批量对文档进行写操作是通过_bulk的API来实现的(bulk:大部分)
{"actionName":{"_index":"indexName", "_type":"typeName","_id":"id"}}
{"field1":"value1", "field2":"value2"}
create, index, delete和update
示例如下:
POST _bulk
{"create":{"_index":"article", "_type":"_doc", "_id":3}}
{"id":3,"title":"fox老师","content":"fox老师666","tags":["java", "面向对象"],"create_time":1554015482530}
{"create":{"_index":"article", "_type":"_doc", "_id":4}}
{"id":4,"title":"mark老师","content":"mark老师NB","tags":["java", "面向对象"],"create_time":1554015482530}
POST _bulk
{"index":{"_index":"article", "_type":"_doc", "_id":3}}
{"id":3,"title":"图灵徐庶老师","content":"图灵学院徐庶老师666","tags":["java", "面向对象"],"create_time":1554015482530}
{"index":{"_index":"article", "_type":"_doc", "_id":4}}
{"id":4,"title":"图灵诸葛老师","content":"图灵学院诸葛老师NB","tags":["java", "面向对象"],"create_time":1554015482530}
上面的操作有如下特点:
POST _bulk
{"delete":{"_index":"article", "_type":"_doc", "_id":3}}
{"delete":{"_index":"article", "_type":"_doc", "_id":4}}
POST _bulk
{"update":{"_index":"article", "_type":"_doc", "_id":3}}
{"doc":{"title":"ES大法必修内功"}}
{"update":{"_index":"article", "_type":"_doc", "_id":4}}
{"doc":{"create_time":1554018421008}}
POST _bulk
{"index":{"_index":"article", "_type":"_doc", "_id":3}}
{"id":3,"title":"fox老师","content":"fox老师666","tags":["java", "面向对象"],"create_time":1554015482530}
{"delete":{"_index":"article", "_type":"_doc", "_id":3}}
{"update":{"_index":"article", "_type":"_doc", "_id":4}}
{"doc":{"create_time":1554018421008}}
es的批量查询可以使用mget和msearch两种。其中mget是需要我们知道它的id,可以指定不同的index,也可以指定返回值source。msearch可以通过字段查询来进行一个批量的查找。
#可以通过ID批量获取不同index和type的数据
GET _mget
{
"docs": [
{
"_index": "es_db",
"_id": 1
},
{
"_index": "es_db",
"_id": 2
}
]
}
#可以通过ID批量获取es_db的数据
GET /es_db/_mget
{
"docs": [
{
"_id": 1
},
{
"_id": 2
}
]
}
#简化后
GET /es_db/_mget
{
"ids":["1","2"]
}
在_msearch中,请求格式和bulk类似。查询一条数据需要两个对象,第一个设置index和type,第二个设置查询语句。查询语句和search相同。如果只是查询一个index,我们可以在url中带上index,这样,如果查该index可以直接用空对象表示。
GET /es_db/_msearch
{}
{"query" : {"match_all" : {}}, "from" : 0, "size" : 2}
{"index" : "article"}
{"query" : {"match_all" : {}}}
查询结果如下:(做了两次查询)
{
"took" : 2,
"responses" : [
{
"took" : 2,
"timed_out" : false,
"_shards" : {
"total" : 1,
"successful" : 1,
"skipped" : 0,
"failed" : 0
},
"hits" : {
"total" : {
"value" : 1,
"relation" : "eq"
},
"max_score" : 1.0,
"hits" : [
{
"_index" : "es_db",
"_type" : "_doc",
"_id" : "1",
"_score" : 1.0,
"_source" : {
"name" : "张三",
"sex" : 1,
"age" : 25,
"address" : "广州天河公园",
"remark" : "java developer"
}
}
]
},
"status" : 200
},
{
"took" : 0,
"timed_out" : false,
"_shards" : {
"total" : 1,
"successful" : 1,
"skipped" : 0,
"failed" : 0
},
"hits" : {
"total" : {
"value" : 2,
"relation" : "eq"
},
"max_score" : 1.0,
"hits" : [
{
"_index" : "article",
"_type" : "_doc",
"_id" : "3",
"_score" : 1.0,
"_source" : {
"id" : 3,
"title" : "ES大法必修内功",
"content" : "图灵学院徐庶老师666",
"tags" : [
"java",
"面向对象"
],
"create_time" : 1554015482530
}
},
{
"_index" : "article",
"_type" : "_doc",
"_id" : "4",
"_score" : 1.0,
"_source" : {
"id" : 4,
"title" : "图灵诸葛老师",
"content" : "图灵学院诸葛老师NB",
"tags" : [
"java",
"面向对象"
],
"create_time" : 1554018421008
}
}
]
},
"status" : 200
}
]
}
版本选择:Elasticsearch 7.17.3 对应依赖 Spring Data Elasticsearch 4.4.x,对应springboot版本2.7.x
1)引入依赖
<dependency>
<groupId>org.springframework.bootgroupId>
<artifactId>spring-boot-starter-data-elasticsearchartifactId>
dependency>
2)yml配置
spring:
elasticsearch:
uris: http://localhost:9200
connection-timeout: 3s
3)代码:
创建实体:
@Data
@AllArgsConstructor
@Document(indexName = "employees")
public class Employee {
@Id
private Long id;
@Field(type= FieldType.Keyword)
private String name;
private int sex;
private int age;
@Field(type= FieldType.Text,analyzer="ik_max_word")
private String address;
private String remark;
}
该接口是框架封装的用于操作Elastsearch的高级接口
@Repository
public interface EmployeeRepository extends ElasticsearchRepository<Employee, Long> {
List<Employee> findByName(String name);
}
测试用例:
@Autowired
EmployeeRepository employeeRepository;
@Test
public void testDocument(){
Employee employee = new Employee(1L,"fox666",1,32,"长沙麓谷","java architect");
//插入文档
employeeRepository.save(employee);
//根据id查询
Optional<Employee> result = employeeRepository.findById(1L);
log.info(String.valueOf(result.get()));
//根据name查询
List<Employee> list = employeeRepository.findByName("fox666");
log.info(String.valueOf(list.get(0)));
}
ElasticsearchRestTemplate模板类,封装了便捷操作Elasticsearch的模板方法,包括 索引 / 映射 / CRUD 等底层操作和高级操作。
@Autowired
ElasticsearchRestTemplate elasticsearchRestTemplate;
索引操作
@Test
public void testCreateIndex(){
//创建索引
IndexOperations indexOperations = elasticsearchRestTemplate.indexOps(IndexCoordinates.of("employee_index"));
if (indexOperations.exists()) {
log.info("索引已经存在");
}else {
//创建索引
indexOperations.create();
}
}
@Test
public void testDeleteIndex(){
//删除索引
IndexOperations indexOperations = elasticsearchRestTemplate.indexOps(IndexCoordinates.of("employee_index"));
indexOperations.delete();
}
文档操作
@Test
public void testQueryDocument(){
NativeSearchQueryBuilder builder = new NativeSearchQueryBuilder();
//查询
builder.withQuery(QueryBuilders.matchQuery("address","公园"));
// 设置分页信息
builder.withPageable(PageRequest.of(0, 5));
// 设置排序
builder.withSort(SortBuilders.fieldSort("age").order(SortOrder.DESC));
SearchHits<Employee> search = elasticsearchRestTemplate.search(builder.build(), Employee.class);
List<SearchHit<Employee>> searchHits = search.getSearchHits();
for (SearchHit hit: searchHits){
log.info("返回结果:"+hit.toString());
}
}
@Test
public void testInsertBatch(){
List<Employee> employees = new ArrayList<>();
employees.add(new Employee("2","张三",1,25,"广州天河公园","java developer"));
employees.add(new Employee("3","李四",1,28,"广州荔湾大厦","java assistant"));
employees.add(new Employee("4","小红",0,26,"广州白云山公园","php developer"));
List<IndexQuery> queries = new ArrayList<>();
for (Employee employee : employees) {
IndexQuery indexQuery = new IndexQuery();
indexQuery.setId(employee.getId());
String json = JSONObject.toJSONString(employee);
indexQuery.setSource(json);
queries.add(indexQuery);
}
//bulk批量插入
elasticsearchRestTemplate.bulkIndex(queries,Employee.class);
}