Elaticsearch,简称为es, es是一个开源的高扩展的分布式全文检索引擎,它可以近乎实时的存储、检 索数据;本身扩展性很好,可以扩展到上百台服务器,处理PB级别(大数据时代)的数据。es也使用 Java开发并使用Lucene作为其核心来实现所有索引和搜索的功能,但是它的目的是通过简单的RESTful API来隐藏Lucene的复杂性,从而让全文搜索变得简单。 据国际权威的数据库产品评测机构DB Engines的统计,在2016年1月,ElasticSearch已超过Solr等,成 为排名第一的搜索引擎类应用。
历史
多年前,一个叫做Shay Banon的刚结婚不久的失业开发者,由于妻子要去伦敦学习厨师,他便跟着也去 了。在他找工作的过程中,为了给妻子构建一个食谱的搜索引擎,他开始构建一个早期版本的Lucene。 直接基于Lucene工作会比较困难,所以Shay开始抽象Lucene代码以便Java程序员可以在应用中添加搜 索功能。他发布了他的第一个开源项目,叫做“Compass”。 后来Shay找到一份工作,这份工作处在高性能和内存数据网格的分布式环境中,因此高性能的、实时 的、分布式的搜索引擎也是理所当然需要的。然后他决定重写Compass库使其成为一个独立的服务叫做 Elasticsearch。 第一个公开版本出现在2010年2月,在那之后Elasticsearch已经成为Github上最受欢迎的项目之一,代 码贡献者超过300人。一家主营Elasticsearch的公司就此成立,他们一边提供商业支持一边开发新功 能,不过Elasticsearch将永远开源且对所有人可用。 Shay的妻子依旧等待着她的食谱搜索…… 现在我们就知道了 elasticsearch 重要性!
谁在使用:
1、维基百科,类似百度百科,全文检索,高亮,搜索推荐/2 (权重,百度!)
2、The Guardian(国外新闻网站),类似搜狐新闻,用户行为日志(点击,浏览,收藏,评论)+社交 网络数据(对某某新闻的相关看法),数据分析,给到每篇新闻文章的作者,让他知道他的文章的公众 反馈(好,坏,热门,垃圾,鄙视,崇拜)
3、Stack Overflow(国外的程序异常讨论论坛),IT问题,程序的报错,提交上去,有人会跟你讨论和 回答,全文检索,搜索相关问题和答案,程序报错了,就会将报错信息粘贴到里面去,搜索有没有对应 的答案
4、GitHub(开源代码管理),搜索上千亿行代码
5、电商网站,检索商品
6、日志数据分析,logstash采集日志,ES进行复杂的数据分析,ELK技术, elasticsearch+logstash+kibana
7、商品价格监控网站,用户设定某商品的价格阈值,当低于该阈值的时候,发送通知消息给用户,比如 说订阅牙膏的监控,如果高露洁牙膏的家庭套装低于50块钱,就通知我,我就去买。
8、BI系统,商业智能,Business Intelligence。比如说有个大型商场集团,BI,分析一下某某区域最近 3年的用户消费金额的趋势以及用户群体的组成构成,产出相关的数张报表,**区,最近3年,每年消费 金额呈现100%的增长,而且用户群体85%是高级白领,开一个新商场。ES执行数据分析和挖掘, Kibana进行数据可视化
9、国内:站内搜索(电商,招聘,门户,等等),IT系统搜索(OA,CRM,ERP,等等),数据分析 (ES热门 的一个使用场景)
架构选择!
Elasticsearch是一个实时分布式搜索和分析引擎。它让你以前所未有的速度处理大数据成为可能。
它用于全文搜索、结构化搜索、分析以及将这三者混合使用:
维基百科使用Elasticsearch提供全文搜索并高亮关键字,以及输入实时搜索(search-asyou-type)和搜索 纠错(did-you-mean)等搜索建议功能。
英国卫报使用Elasticsearch结合用户日志和社交网络数据提供给他们的编辑以实时的反馈,以便及时了 解公众对新发表的文章的回应。
StackOverflow结合全文搜索与地理位置查询,以及more-like-this功能来找到相关的问题和答案。
Github使用Elasticsearch检索1300亿行的代码。
但是Elasticsearch不仅用于大型企业,它还让像DataDog以及Klout这样的创业公司将最初的想法变成可 扩展的解决方案。
Elasticsearch可以在你的笔记本上运行,也可以在数以百计的服务器上处理PB级别的数据 。
Elasticsearch是一个基于Apache Lucene™的开源搜索引擎。无论在开源还是专有领域,Lucene可以 被认为是迄今为止最先进、性能最好的、功能最全的搜索引擎库。
但是,Lucene只是一个库。想要使用它,你必须使用Java来作为开发语言并将其直接集成到你的应用 中,更糟糕的是,Lucene非常复杂,你需要深入了解检索的相关知识来理解它是如何工作的。
Elasticsearch也使用Java开发并使用Lucene作为其核心来实现所有索引和搜索的功能,但是它的目的是 通过简单的RESTful API来隐藏Lucene的复杂性,从而让全文搜索变得简单。
Solr 是Apache下的一个顶级开源项目,采用Java开发,它是基于Lucene的全文搜索服务器。Solr提供了 比Lucene更为丰富的查询语言,同时实现了可配置、可扩展,并对索引、搜索性能进行了优化
Solr可以独立运行,运行在Jetty、Tomcat等这些Servlet容器中,Solr 索引的实现方法很简单,用 POST 方法向 Solr 服务器发送一个描述 Field 及其内容的 XML 文档,Solr根据xml文档添加、删除、更新索引 。Solr 搜索只需要发送 HTTP GET 请求,然后对 Solr 返回Xml、json等格式的查询结果进行解析,组织 页面布局。Solr不提供构建UI的功能,Solr提供了一个管理界面,通过管理界面可以查询Solr的配置和运 行情况。
solr是基于lucene开发企业级搜索服务器,实际上就是封装了lucene。
Solr是一个独立的企业级搜索应用服务器,它对外提供类似于Web-service的API接口。用户可以通过 http请求,向搜索引擎服务器提交一定格式的文件,生成索引;也可以通过提出查找请求,并得到返回 结果。
Lucene是apache软件基金会4 jakarta项目组的一个子项目,是一个开放源代码的全文检索引擎工具 包,但它不是一个完整的全文检索引擎,而是一个全文检索引擎的架构,提供了完整的查询引擎和索引 引擎,部分文本分析引擎(英文与德文两种西方语言)。Lucene的目的是为软件开发人员提供一个简单 易用的工具包,以方便的在目标系统中实现全文检索的功能,或者是以此为基础建立起完整的全文检索 引擎。Lucene是一套用于全文检索和搜寻的开源程式库,由Apache软件基金会支持和提供。Lucene提 供了一个简单却强大的应用程式接口,能够做全文索引和搜寻。**在Java开发环境里Lucene是一个成熟的 免费开源工具。就其本身而言,Lucene是当前以及最近几年最受欢迎的免费Java信息检索程序库。**人们 经常提到信息检索程序库,虽然与搜索引擎有关,但不应该将信息检索程序库与搜索引擎相混淆。
Lucene是一个全文检索引擎的架构。那什么是全文搜索引擎?
全文搜索引擎是名副其实的搜索引擎,国外具代表性的有Google、Fast/AllTheWeb、AltaVista、 Inktomi、Teoma、WiseNut等,国内著名的有百度(Baidu)。它们都是通过从互联网上提取的各个网 站的信息(以网页文字为主)而建立的数据库中,检索与用户查询条件匹配的相关记录,然后按一定的 排列顺序将结果返回给用户,因此他们是真正的搜索引擎。
从搜索结果来源的角度,全文搜索引擎又可细分为两种,一种是拥有自己的检索程序(Indexer),俗称 “蜘蛛”(Spider)程序或“机器人”(Robot)程序,并自建网页数据库,搜索结果直接从自身的数据库中 调用,如上面提到的7家引擎;另一种则是租用其他引擎的数据库,并按自定的格式排列搜索结果,如 Lycos引擎。
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-8qhmxBId-1596360717786)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723114503417.png)]
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-irDJcVFc-1596360717790)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723114512171.png)]
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-W7wgXXQZ-1596360717792)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723114527867.png)][外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-BCFsEXug-1596360717796)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723114535736.png)]
ElasticSearch vs Solr 总结
1、es基本是开箱即用(解压就可以用 ! ),非常简单。Solr安装略微复杂一丢丢!
2、Solr 利用 Zookeeper 进行分布式管理,而 Elasticsearch 自身带有分布式协调管理功能。
3、Solr 支持更多格式的数据,比如JSON、XML、CSV,而 Elasticsearch 仅支持json文件格式。
4、Solr 官方提供的功能更多,而 Elasticsearch 本身更注重于核心功能,高级功能多有第三方插件提 供,例如图形化界面需要kibana友好支撑~!
5、Solr 查询快,但更新索引时慢(即插入删除慢),用于电商等查询多的应用;
ES建立索引快(即查询慢),即实时性查询快,用于facebook新浪等搜索。
Solr 是传统搜索应用的有力解决方案,但 Elasticsearch 更适用于新兴的实时搜索应用。
6、Solr比较成熟,有一个更大,更成熟的用户、开发和贡献者社区,而 Elasticsearch相对开发维护者 较少,更新太快,学习使用成本较高。(趋势!)
声明:jdk1.8,最低要求!ElasticSearch客户端,界面工具!
Java开发,ElasticSearch的版本和我们之后对应的java的核心jar包!版本对应!JDK环境是正常!
下载
官网:https://www.elastic.co/cn/
window解压即可使用
2、熟悉目录!
bin 启动文件
config 配置文件
log4j2.properties 日志配置文件
jvm.options java虚拟机相关配置
elasticsearch.yml es的配置文件!默认端口9200
lib 相关jar包
logs 日志
modeles 功能模块
plugins 插件!
3、启动,访问http://localhost:9200/
{
"name" : "LH",
"cluster_name" : "elasticsearch",
"cluster_uuid" : "BK7Wse65SgeHydMMLu42tg",
"version" : {
"number" : "7.8.0",
"build_flavor" : "default",
"build_type" : "zip",
"build_hash" : "757314695644ea9a1dc2fecd26d1a43856725e65",
"build_date" : "2020-06-14T19:35:50.234439Z",
"build_snapshot" : false,
"lucene_version" : "8.5.1",
"minimum_wire_compatibility_version" : "6.8.0",
"minimum_index_compatibility_version" : "6.0.0-beta1"
},
"tagline" : "You Know, for Search"
}
安装可视化界面es head插件
1、下载地址:https://github.com/mobz/elasticsearch-head
2、启动,解压elasticsearch-head项目,然后进入项目 一下流程。
cd elasticsearch-head
npm install
npm run start
open http://localhost:9100/
3、发现连接http://localhost:9200/存在跨域问题,修改config里面的elasticsearch.yml配置文件
#添加
http.cors.enabled: true
http.cors.allow-origin: "*"
4、重启es服务、再次在http://localhost:9100/连接
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-9kUq1mci-1596360717800)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723111100297.png)]
把索引当成一个数据库!
这个head我们就把他当做数据展示的工具!我们后面所有的查询.
了解ELK
ELK是Elasticsearch、Logstash、Kibana三大开源框架首字母大写简称。市面上也被成为ElasticStack。其中Elasticsearch是一个基于Lucene、分布式、通过Restful方式进行交互的近实时搜索平台框 架。像类似百度、谷歌这种大数据全文搜索引擎的场景都可以使用Elasticsearch作为底层支持框架,可 见Elasticsearch提供的搜索能力确实强大,市面上很多时候我们简称Elasticsearch为es。Logstash是ELK 的中央数据流引擎,用于从不同目标(文件/数据存储/MQ)收集的不同格式数据,经过过滤后支持输出 到不同目的地(文件/MQ/redis/elasticsearch/kafka等)。Kibana可以将elasticsearch的数据通过友好 的页面展示出来,提供实时分析的功能。
市面上很多开发只要提到ELK能够一致说出它是一个日志分析架构技术栈总称,但实际上ELK不仅仅适用 于日志分析,它还可以支持其它任何数据分析和收集的场景,日志分析和收集只是更具有代表性。并非 唯一性。
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-7tz0dXDM-1596360717803)(https://www.pianshen.com/images/342/77d89d54fd6a64042c0f4c37bf379de6.png)]
安装Kibana
Kibana是一个针对Elasticsearch的开源分析及可视化平台,用来搜索、查看交互存储在Elasticsearch索 引中的数据。使用Kibana,可以通过各种图表进行高级数据分析及展示。Kibana让海量数据更容易理 解。它操作简单,基于浏览器的用户界面可以快速创建仪表板(dashboard)实时显示Elasticsearch查 询动态。设置Kibana非常简单。无需编码或者额外的基础架构,几分钟内就可以完成Kibana安装并启动 Elasticsearch索引监测。
官网:https://www.elastic.co/cn/kibana
Kibana 版本要和 Es 一致!
下载完毕后,解压也需要一些时间!是一个标准的工程!
好处:ELK 基本上都是拆箱即用!
启动测试:
1、解压后端的目录
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-OPppXOrv-1596360717805)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723170743984.png)]
2、启动bin/kibana.bat
3、访问测试http://localhost:5601/
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-8XNoQmuz-1596360717807)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723170935644.png)]
4、开发工具!(Post 、curl、head、谷歌浏览器插件测试!)
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-WpATUqJQ-1596360717810)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723171513800.png)]
我们之后的所有操作都是在这里进行编写!
5、汉化,修改配置
i18n.locale: "zh-CN"
1、索引
2、字段类型(mapping)
3、文档(documents)
概述
在前面的学习中,我们已经掌握了es是什么,同时也把es的服务已经安装启动,那么es是如何去存储数 据,数据结构是什么,又是如何实现搜索的呢?我们先来聊聊ElasticSearch的相关概念吧!
集群,节点,索引,类型,文档,分片,映射是什么?
elasticsearch是面向文档,关系行数据库 和 elasticsearch 客观的对比!一切都是JSON!
Relational DB | Elasticsearch |
---|---|
数据库(database) | 索引(indices) |
表(tables) | types |
行(rows) | documents |
字段(columns) | fields |
elasticsearch(集群)中可以包含多个索引(数据库),每个索引中可以包含多个类型(表),每个类型下又包 含多 个文档(行),每个文档中又包含多个字段(列)。
物理设计:
elasticsearch 在后台把每个索引划分成多个分片,每分分片可以在集群中的不同服务器间迁移 一个人就是一个集群!
默认的集群名称就是 elaticsearh
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-rz7UCaBo-1596360717812)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723173045149.png)]
逻辑设计:
一个索引类型中,包含多个文档,比如说文档1,文档2。 当我们索引一篇文档时,可以通过这样的一各 顺序找到 它: 索引 ▷ 类型 ▷ 文档ID ,通过这个组合我们就能索引到某个具体的文档。 注意:ID不必是整 数,实际上它是个字 符串。
文档
文档就是我们的一条条数据
user
1 zhangsan 18
2 kuangshen 3
之前说elasticsearch是面向文档的,那么就意味着索引和搜索数据的最小单位是文档,elasticsearch 中,文档有几个 重要属性 :
自我包含,一篇文档同时包含字段和对应的值,也就是同时包含 key:value!
可以是层次型的,一个文档中包含自文档,复杂的逻辑实体就是这么来的! {就是一个json对象! fastjson进行自动转换!}
灵活的结构,文档不依赖预先定义的模式,我们知道关系型数据库中,要提前定义字段才能使用, 在elasticsearch中,对于字段是非常灵活的,有时候,我们可以忽略该字段,或者动态的添加一个 新的字段。
尽管我们可以随意的新增或者忽略某个字段,但是,每个字段的类型非常重要,比如一个年龄字段类 型,可以是字符 串也可以是整形。因为elasticsearch会保存字段和类型之间的映射及其他的设置。这种 映射具体到每个映射的每种类型,这也是为什么在elasticsearch中,类型有时候也称为映射类型。
类型
类型是文档的逻辑容器,就像关系型数据库一样,表格是行的容器。 类型中对于字段的定义称为映射, 比如 name 映射为字符串类型。 我们说文档是无模式的,它们不需要拥有映射中所定义的所有字段, 比如新增一个字段,那么elasticsearch是怎么做的呢?elasticsearch会自动的将新字段加入映射,但是这 个字段的不确定它是什么类型,elasticsearch就开始猜,如果这个值是18,那么elasticsearch会认为它 是整形。 但是elasticsearch也可能猜不对, 所以最安全的方式就是提前定义好所需要的映射,这点跟关 系型数据库殊途同归了,先定义好字段,然后再使用,别 整什么幺蛾子。
索引
就是数据库!
索引是映射类型的容器,elasticsearch中的索引是一个非常大的文档集合。索引存储了映射类型的字段 和其他设置。 然后它们被存储到了各个分片上了。 我们来研究下分片是如何工作的。
物理设计 :节点和分片 如何工作
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-7va3Adl8-1596360717815)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723173948552.png)]
一个集群至少有一个节点,而一个节点就是一个elasricsearch进程,节点可以有多个索引默认的,如果 你创建索引,那么索引将会有个5个分片 ( primary shard ,又称主分片 ) 构成的,每一个主分片会有一个 副本 ( replica shard ,又称复制分片 )
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-PFt7WvEG-1596360717817)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723173811990.png)]
上图是一个有3个节点的集群,可以看到主分片和对应的复制分片都不会在同一个节点内,这样有利于某 个节点挂掉 了,数据也不至于丢失。 实际上,一个分片是一个Lucene索引,一个包含倒排索引的文件 目录,倒排索引的结构使 得elasticsearch在不扫描全部文档的情况下,就能告诉你哪些文档包含特定的 关键字。 不过,等等,倒排索引是什么鬼?
倒排索引
elasticsearch使用的是一种称为倒排索引的结构,采用Lucene倒排索作为底层。这种结构适用于快速的 全文搜索, 一个索引由文档中所有不重复的列表构成,对于每一个词,都有一个包含它的文档列表。 例 如,现在有两个文档, 每个文档包含如下内容:
Study every day, good good up to forever # 文档1包含的内容
To forever, study every day, good good up # 文档2包含的内容
为了创建倒排索引,我们首先要将每个文档拆分成独立的词(或称为词条或者tokens),然后创建一个包 含所有不重 复的词条的排序列表,然后列出每个词条出现在哪个文档 :
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-vNPBH99w-1596360717821)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723174126925.png)]
现在,我们试图搜索 to forever,只需要查看包含每个词条的文档 score
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-yDlTf13J-1596360717825)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723174139382.png)]
两个文档都匹配,但是第一个文档比第二个匹配程度更高。如果没有别的条件,现在,这两个包含关键 字的文档都将返回。
再来看一个示例,比如我们通过博客标签来搜索博客文章。那么倒排索引列表就是这样的一个结构 :
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-kL2s0fKM-1596360717827)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723174157463.png)]
如果要搜索含有 python 标签的文章,那相对于查找所有原始数据而言,查找倒排索引后的数据将会快 的多。只需要 查看标签这一栏,然后获取相关的文章ID即可。完全过滤掉无关的所有数据,提高效率!
elasticsearch的索引和Lucene的索引对比
在elasticsearch中, 索引 (库)这个词被频繁使用,这就是术语的使用。 在elasticsearch中,索引被 分为多个分片,每份 分片是一个Lucene的索引。所以一个elasticsearch索引是由多个Lucene索引组成的。别问为什么,谁让elasticsearch使用Lucene作为底层呢! 如无特指,说起索引都是指elasticsearch 的索引。
接下来的一切操作都在kibana中Dev Tools下的Console里完成。基础操作!
什么是IK分词器
分词:即把一段中文或者别的划分成一个个的关键字,我们在搜索时候会把自己的信息进行分词,会把 数据库中或者索引库中的数据进行分词,然后进行一个匹配操作,默认的中文分词是将每个字看成一个 词,比如 “我爱狂神” 会被分为"我",“爱”,“狂”,“神”,这显然是不符合要求的,所以我们需要安装中文分词 器ik来解决这个问题。
如果要使用中文,建议使用ik分词器!
IK提供了两个分词算法:ik_smart 和 ik_max_word,其中 ik_smart 为最少切分,ik_max_word为最细 粒度划分!一会我们测试!
安装
1、https://github.com/medcl/elasticsearch-analysis-ik
2、下载完毕之后,放入到我们的elasticsearch 插件即可!
3、重启ElasticSearch观察,可以看到ik分词器被加载了
4、elasticSearch-plugin可以通过这个命令来查看加载的插件,Ik
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-kYwyUVfs-1596360717833)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723181053638.png)]
5、使用Kibana测试分别测试ik_smart模式和ik_max_word模式
#ik_smart模式
GET _analyze
{
"analyzer": "ik_smart",
"text": "中国共产党"
}
#结果
{
"tokens" : [
{
"token" : "中国共产党",
"start_offset" : 0,
"end_offset" : 5,
"type" : "CN_WORD",
"position" : 0
}
]
}
#ik_max_word模式
GET _analyze
{
"analyzer": "ik_max_word",
"text": "中国共产党"
}
#结果,穷尽词库的可能
{
"tokens" : [
{
"token" : "中国",
"start_offset" : 0,
"end_offset" : 2,
"type" : "CN_WORD",
"position" : 1
},
{
"token" : "国共",
"start_offset" : 1,
"end_offset" : 3,
"type" : "CN_WORD",
"position" : 2
},
{
"token" : "共产党",
"start_offset" : 2,
"end_offset" : 5,
"type" : "CN_WORD",
"position" : 3
},
{
"token" : "共产",
"start_offset" : 2,
"end_offset" : 4,
"type" : "CN_WORD",
"position" : 4
},
{
"token" : "党",
"start_offset" : 4,
"end_offset" : 5,
"type" : "CN_CHAR",
"position" : 5
}
]
}
我们输入 卢航喜欢马可
GET _analyze
{
"analyzer": "ik_smart",
"text": "卢航喜欢马可"
}
{
"tokens" : [
{
"token" : "卢",
"start_offset" : 0,
"end_offset" : 1,
"type" : "CN_CHAR",
"position" : 0
},
{
"token" : "航",
"start_offset" : 1,
"end_offset" : 2,
"type" : "CN_CHAR",
"position" : 1
},
{
"token" : "喜欢",
"start_offset" : 2,
"end_offset" : 4,
"type" : "CN_WORD",
"position" : 2
},
{
"token" : "马可",
"start_offset" : 4,
"end_offset" : 6,
"type" : "CN_WORD",
"position" : 3
}
]
}
发现问题:卢航 被拆开了
这种自己需要的词,需要自己加到我们的分词器的字典中!
1、在路径 D:\Environment\elasticsearch\elasticsearch-7.8.0\plugins\ik\config 下创建luhang.dic,在里面输入卢航
3、重启es
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-6BvxKiwo-1596360717837)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723182919930.png)]
重新测试
GET _analyze
{
"analyzer": "ik_smart",
"text": "卢航喜欢马可"
}
#结果
{
"tokens" : [
{
"token" : "卢航",
"start_offset" : 0,
"end_offset" : 2,
"type" : "CN_WORD",
"position" : 0
},
{
"token" : "喜欢",
"start_offset" : 2,
"end_offset" : 4,
"type" : "CN_WORD",
"position" : 1
},
{
"token" : "马可",
"start_offset" : 4,
"end_offset" : 6,
"type" : "CN_WORD",
"position" : 2
}
]
}
一种软件架构风格,而不是标准,只是提供了一组设计原则和约束条件。它主要用于客户端和服务器交 互类的软件。基于这个风格设计的软件可以更简洁,更有层次,更易于实现缓存等机制。
基本Rest命令说明:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-lTXNl1IO-1596360717840)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200724103424569.png)]
1、创建一个索引
put /索引名称/类型名/文档id
{
请求体
}
PUT /test/type1/1
{
"name":"luhang",
"age":3
}
#! Deprecation: [types removal] Specifying types in document index requests is deprecated, use the typeless endpoints instead (/{index}/_doc/{id}, /{index}/_doc, or /{index}/_create/{id}).
{
"_index" : "test",
"_type" : "type1",
"_id" : "1",
"_version" : 1,
"result" : "created",
"_shards" : {
"total" : 2,
"successful" : 1, #成功
"failed" : 0
},
"_seq_no" : 0,
"_primary_term" : 1
}
2、完成自动增加索引!数据也成功添加了,这就是我说初期可以把它当初数据库来学习的
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-1ZaN5gFH-1596360717847)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200724104853490.png)]
3、那么 name 这个字段用不用指定类型呢。毕竟我们关系型数据库 是需要指定类型的啊 !
字符串类型 text 、 keyword
数值类型 long, integer, short, byte, double, float, half_float, scaled_float
日期类型 date
布尔值类型 boolean
二进制类型 binary
等等…
4、指定字段的类型
#创建索引规则 name text类型 age integer类型 brithday date类型
PUT /test2
{
"mappings": {
"properties": {
"name":{
"type": "text"
},
"age":{
"type": "integer"
},
"brithday":{
"type": "date"
}
}
}
}
5、通过get请求获得test2的信息
get test2
#结果
{
"test2" : {
"aliases" : { },
"mappings" : {
"properties" : {
"age" : {
"type" : "integer"
},
"brithday" : {
"type" : "date"
},
"name" : {
"type" : "text"
}
}
},
"settings" : {
"index" : {
"creation_date" : "1595559213065",
"number_of_shards" : "1",
"number_of_replicas" : "1",
"uuid" : "DyFAbOb9QuKlp2J0Py1IbA",
"version" : {
"created" : "7080099"
},
"provided_name" : "test2"
}
}
}
}
6、查看默认的信息
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-s0M16LdN-1596360717850)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200724112741647.png)]
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-oQSGfbn8-1596360717851)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200724112845969.png)]
如果自己的文档字段没有指定,那么es就会默认配置字段类型
拓展:通过命令elasticSearch索引情况!
get _cat/indices?v
#结果
health status index uuid pri rep docs.count docs.deleted store.size pri.store.size
green open .kibana-event-log-7.8.0-000001 4LPuszRRTCuaWSbY0DWdZQ 1 0 8 0 41kb 41kb
yellow open test2 DyFAbOb9QuKlp2J0Py1IbA 1 1 0 0 208b 208b
yellow open test3 J6rA5yyhR7Wivh6o1B6j3A 1 1 1 0 4kb 4kb
yellow open test x-VKX35USOuv8GdwSYEAdw 1 1 1 0 3.8kb 3.8kb
green open .apm-custom-link n32ZCimvRbSzywZnV5K8dg 1 0 0 0 208b 208b
green open .kibana_task_manager_1 AtNk67nXS9CgLsHc-Sv3Iw 1 0 5 0 72.9kb 72.9kb
green open .apm-agent-configuration -StPZJQiTDuHr3Jc5sck5g 1 0 0 0 208b 208b
green open .kibana_1 Px3pP34bQd6VVNTzdaAk5A 1 0 42 0 46.8kb 46.8kb
修改 提交还是使用put
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-nQcxD4ZI-1596360717856)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200724113318094.png)]
修改后版本号会增加
post修改
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ueJbnWhW-1596360717860)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200724114241671.png)]
删除 delete
删除文档
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-IVjnFJpp-1596360717864)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200724114440748.png)]
删除索引index
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ZeFR1bit-1596360717866)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200724114459936.png)]
基本操作
1、添加数据
put /luhang/user/1
{
"name":"luhang",
"age":23,
"desc":"待业人员",
"tags":["帅","技术宅","直男"]
}
2、获取数据
get luhang/user/1
#结果
{
"_index" : "luhang",
"_type" : "user",
"_id" : "1",
"_version" : 1,
"_seq_no" : 0,
"_primary_term" : 1,
"found" : true,
"_source" : {
"name" : "luhang",
"age" : 23,
"desc" : "待业人员",
"tags" : [
"帅",
"技术宅",
"直男"
]
}
}
3、更新数据PUT
#PUT
put /luhang/user/1
{
"name":"luhangPlus",
"age":3,
"desc":"lol",
"tags":["爱玩","技术宅","直男"]
}
{
"_index" : "luhang",
"_type" : "user",
"_id" : "1",
"_version" : 2, #version就是被改动的次数
"result" : "updated",
"_shards" : {
"total" : 2,
"successful" : 1,
"failed" : 0
},
"_seq_no" : 3,
"_primary_term" : 1
}
4、POST _update,推荐使用这种方式,灵活性更好
POST /luhang/user/1/_update
{
"doc":{
"name":"luhang+"
}
}
#结果
{
"_index" : "luhang",
"_type" : "user",
"_id" : "1",
"_version" : 3,
"result" : "updated",
"_shards" : {
"total" : 2,
"successful" : 1,
"failed" : 0
},
"_seq_no" : 4,
"_primary_term" : 1
}
5、查找 Get
简单的查找
get luhang/user/1
简单的条件搜索
get luhang/user/_search?q=name:luhang
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-nb473ENm-1596360717869)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200728212809971.png)]
复杂查询(排序,分页,高亮,模糊查询,精准查询)
输出结果,不想要那么多
get luhang/user/_search
{
"query":{ #查询条件,name=luhang
"match": {
"name": "luhang"
}
},
"_source":["name","age"] #就是设置要查询出来的字段,过滤
}
#部分结果
"hits" : [
{
"_index" : "luhang",
"_type" : "user",
"_id" : "1",
"_score" : 0.35667494,
"_source" : {
"name" : "luhang+",
"age" : 3
}
},
我们之后用java操作es,所有的方法和对象都是这里的key。
排序
get luhang/user/_search
{
"query":{
"match": {
"name": "luhang"
}
},
"sort":[
{
"age":{ #设置age字段就可以了,升序
"order":"asc"
}
}]
}
分页查询
get luhang/user/_search
{
"query":{
"match": {
"name": "luhang"
}
},
"sort":[
{
"age":{
"order":"asc"
}
}
],
"from":0, #从第几条开始
"size":2 #每页显示多少数据
}
数据下边还是从0开始的,和学的数据结构是一样的
布尔查询
must就是条件必须都得满足,相当于and
should就是满足一个其中的条件即可,相当于or
must_not就是必须满足条件不是xxx
get luhang/user/_search
{
"query":{
"bool": {
"must": [ #两个条件都符合的数据才会被查询出来,好比and
{
"match": { #多条件查询
"name": "luhang"
}
},
{
"match": { #多条件查询
"age": 6
}
}
]
}
}
}
#should
get luhang/user/_search
{
"query":{
"bool": {
"should": [
{
"match": {
"name": "luhang"
}
},
{
"match": {
"age": 6
}
}
]
}
}
}
#must_not,满足名字不是卢航且年龄不等于6岁
get luhang/user/_search
{
"query":{
"bool": {
"must_not": [
{
"match": {
"name": "luhang"
}
},
{
"match": {
"age": 6
}
}
]
}
}
}
过滤器filter
#查询年龄小于7岁大于3岁的同学,
get luhang/user/_search
{
"query":{
"bool": {
"must": [
{
"match": {
"name": "luhang"
}
}
],
"filter": {
"range": {
"age": {
"gt": 3,
"lt": 7
}
}
}
}
}
}
匹配多个条件
#多个条件查询,用空格隔开,只要满足一个结果即可查出
get luhang/user/_search
{
"query":{
"match": {
"tags": "傻逼 男"
}
}
}
# "_score" : 2.0951896权重最大,匹配度最高
{
"_index" : "luhang",
"_type" : "user",
"_id" : "3",
"_score" : 2.0951896,
"_source" : {
"name" : "luhang+++",
"age" : 4,
"desc" : "拼多多",
"tags" : [
"傻逼",
"技术宅",
"直男"
]
}
},
精准查询!
term查询是直接通过倒排索引指定的词条进行精准的查找的!
关于分词:
term,直接查找精确的
match,会使用分词器解析!(先分析文档,通过分析的文档进行分析)
两个类型 keyword text
字段是keyword类型,会被当成一个整体去查询
字段是text类型,会被拆分去查询
#没有被分析
GET _analyze
{
"analyzer": "keyword",
"text": "卢航学java"
}
#结果
{
"tokens" : [
{
"token" : "卢航学java",
"start_offset" : 0,
"end_offset" : 7,
"type" : "word",
"position" : 0
}
]
}
#卢航学java被拆分
GET _analyze
{
"analyzer": "standard",
"text": "卢航学java"
}
#结果
{
"tokens" : [
{
"token" : "卢",
"start_offset" : 0,
"end_offset" : 1,
"type" : "" ,
"position" : 0
},
{
"token" : "航",
"start_offset" : 1,
"end_offset" : 2,
"type" : "" ,
"position" : 1
},
{
"token" : "学",
"start_offset" : 2,
"end_offset" : 3,
"type" : "" ,
"position" : 2
},
{
"token" : "java",
"start_offset" : 3,
"end_offset" : 7,
"type" : "" ,
"position" : 3
}
]
}
多个值精确查询
GET testdb/_search
{
"query": {
"bool": {
"should": [
{
"term": {
"t1": "33"
}
},
{
"term": {
"t1": "44"
}
}
]
}
}
}
1、浏览官网文档,点击elasticsearch Clients,然后点击Rest Client
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-bEui9lx9-1596360717872)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200801080933827.png)]
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-PR1vPKzh-1596360717874)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200801081009047.png)]
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-HAHUCf2v-1596360717877)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200801081055163.png)]
<properties>
<java.version>1.8java.version>
<elasticsearch.version>7.8.0elasticsearch.version>
properties>
<dependency>
<groupId>org.projectlombokgroupId>
<artifactId>lombokartifactId>
<version>1.18.10version>
dependency>
<dependency>
<groupId>org.springframework.bootgroupId>
<artifactId>spring-boot-devtoolsartifactId>
<version>2.1.5.RELEASEversion>
dependency>
<dependency>
<groupId>org.springframework.bootgroupId>
<artifactId>spring-boot-configuration-processorartifactId>
<version>2.1.1.RELEASEversion>
dependency>
<dependency>
<groupId>org.springframework.bootgroupId>
<artifactId>spring-boot-starterartifactId>
dependency>
<dependency>
<groupId>org.springframework.datagroupId>
<artifactId>spring-data-elasticsearchartifactId>
<version>3.1.6.RELEASEversion>
dependency>
<dependency>
<groupId>org.elasticsearch.clientgroupId>
<artifactId>elasticsearch-rest-high-level-clientartifactId>
<version>7.8.0version>
dependency>
<dependency>
<groupId>org.springframework.bootgroupId>
<artifactId>spring-boot-starter-testartifactId>
<scope>testscope>
<exclusions>
<exclusion>
<groupId>org.junit.vintagegroupId>
<artifactId>junit-vintage-engineartifactId>
exclusion>
exclusions>
dependency>
找对象
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-P25jq9Go-1596360717879)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200801081405046.png)]
分析这个这个类中的方法即可!
基本配置的项目!
问题:一定要保证我们导入的依赖和我们电脑上的es版本一致!
创建配置类
@Configuration
public class ElasticSearchConfig {
//注入es到spring
@Bean
public RestHighLevelClient getRestHighLevelClient(){
RestHighLevelClient client = new RestHighLevelClient(
RestClient.builder(
new HttpHost("127.0.0.1", 9200, "http")));
return client;
}
}
测试api
package com.lucas;
/**
* es7.8的高级客户端测试api
*/
@SpringBootTest
class SpringbootElasticsearchApplicationTests {
@Autowired
@Qualifier("restHighLevelClient") //写上对应的client的方法名称
private RestHighLevelClient client;
//测试索引的创建
@Test
public void testCreateIndex()throws Exception{
//1、创建索引请求
CreateIndexRequest lucas_index = new CreateIndexRequest("lucas_index");
//2、执行请求,请求后获得响应
CreateIndexResponse createIndexResponse = client.indices().create(lucas_index, RequestOptions.DEFAULT);
System.out.println(createIndexResponse);
}
//测试索引是否存在
@Test
public void testExistIndex()throws Exception{
GetIndexRequest request=new GetIndexRequest("lucas_index");
boolean exists = client.indices().exists(request, RequestOptions.DEFAULT);
System.out.println(exists);//返回true即存在
}
//测试删除索引
@Test
public void testDeleteIndex()throws Exception{
DeleteIndexRequest request = new DeleteIndexRequest("lucas_index");
AcknowledgedResponse delete = client.indices().delete(request, RequestOptions.DEFAULT);
System.out.println(delete.isAcknowledged());
}
//测试添加文档
@Test
public void testAddDocument()throws Exception{
//创建对象
User user = new User("卢航", 23);
//创建请求
IndexRequest request = new IndexRequest("lucas_index");
//规则 put/lucas_index/_doc/1
request.id("1");
request.timeout(TimeValue.timeValueSeconds(1));
//将数据放入请求
request.source(JSON.toJSONString(user), XContentType.JSON);
//客户端发送请求
IndexResponse index = client.index(request, RequestOptions.DEFAULT);
System.out.println(index.toString());
System.out.println(index.status());
}
//测试是否存在文档1
@Test
public void testGetDocument()throws Exception{
GetRequest getRequest = new GetRequest("lucas_index","1");
//不获取返回的_source的上下文
getRequest.fetchSourceContext(new FetchSourceContext(false));
getRequest.storedFields("_none_");
boolean exists = client.exists(getRequest, RequestOptions.DEFAULT);
System.out.println(exists);
}
//获取文档的信息
@Test
void getDocument()throws Exception{
GetRequest getRequest=new GetRequest("lucas_index","1");
GetResponse getResponse = client.get(getRequest, RequestOptions.DEFAULT);
String sourceAsString = getResponse.getSourceAsString();
System.out.println(sourceAsString); //打印 文档
System.out.println(getResponse); //打印获得的所有内容
}
//更新文档内容
@Test
void updateDocument()throws Exception{
UpdateRequest request = new UpdateRequest("lucas_index", "1");
request.timeout("1s");
User user = new User("卢航学java", 1);
request.doc(JSON.toJSONString(user),XContentType.JSON);
UpdateResponse update = client.update(request, RequestOptions.DEFAULT);
System.out.println(update.status());
}
//删除文档
@Test
void deleteDocument()throws Exception{
DeleteRequest request = new DeleteRequest("lucas_index", "1");
request.timeout("1s");
DeleteResponse delete = client.delete(request, RequestOptions.DEFAULT);
System.out.println(delete.status());
}
//特殊的,真项目一般会批量插入数据!
@Test
void testBulkRequest()throws Exception{
BulkRequest bulkRequest = new BulkRequest();
bulkRequest.timeout("10s");
ArrayList<User> users = new ArrayList<>();
users.add(new User("lucas1",1));
users.add(new User("lucas2",2));
users.add(new User("lucas3",3));
users.add(new User("lucas4",4));
users.add(new User("lucas5",5));
users.add(new User("lucas6",6));
//批量处理请求
for (int i = 0; i < users.size(); i++) {
bulkRequest.add(
new IndexRequest("lucas_index")
.id(""+(i+1))
.source(JSON.toJSONString(users.get(i)),XContentType.JSON));
}
BulkResponse bulk = client.bulk(bulkRequest, RequestOptions.DEFAULT);
System.out.println(bulk.hasFailures()); //是否失败,如果false就是成功了
}
//查询
@Test
void testSearch()throws Exception{
SearchRequest request=new SearchRequest("lucas_index");
//构建搜索的条件
SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
//我们可以用QueryBuilders工具来实现
TermQueryBuilder termQueryBuilder = QueryBuilders.termQuery("name", "lucas1");//匹配的查询条件
searchSourceBuilder.query(termQueryBuilder);
searchSourceBuilder.from();
searchSourceBuilder.size();
searchSourceBuilder.timeout(new TimeValue(60, TimeUnit.SECONDS));
request.source(searchSourceBuilder);
SearchResponse response = client.search(request, RequestOptions.DEFAULT);
SearchHits hits = response.getHits();
String string = JSON.toJSONString(hits);
System.out.println(string);
System.out.println("==============");
for (SearchHit hit : response.getHits().getHits()) {
System.out.println(hit.getSourceAsMap());
}
}
}
项目地址:https://github.com/LLLLucas/springboot_elasticsearch