ElasticSearch笔记

ElasticSearch笔记

ElasticSearch概述

Elaticsearch,简称为es, es是一个开源的高扩展的分布式全文检索引擎,它可以近乎实时的存储、检 索数据;本身扩展性很好,可以扩展到上百台服务器,处理PB级别(大数据时代)的数据。es也使用 Java开发并使用Lucene作为其核心来实现所有索引和搜索的功能,但是它的目的是通过简单的RESTful API来隐藏Lucene的复杂性,从而让全文搜索变得简单。 据国际权威的数据库产品评测机构DB Engines的统计,在2016年1月,ElasticSearch已超过Solr等,成 为排名第一的搜索引擎类应用。

历史

多年前,一个叫做Shay Banon的刚结婚不久的失业开发者,由于妻子要去伦敦学习厨师,他便跟着也去 了。在他找工作的过程中,为了给妻子构建一个食谱的搜索引擎,他开始构建一个早期版本的Lucene。 直接基于Lucene工作会比较困难,所以Shay开始抽象Lucene代码以便Java程序员可以在应用中添加搜 索功能。他发布了他的第一个开源项目,叫做“Compass”。 后来Shay找到一份工作,这份工作处在高性能和内存数据网格的分布式环境中,因此高性能的、实时 的、分布式的搜索引擎也是理所当然需要的。然后他决定重写Compass库使其成为一个独立的服务叫做 Elasticsearch。 第一个公开版本出现在2010年2月,在那之后Elasticsearch已经成为Github上最受欢迎的项目之一,代 码贡献者超过300人。一家主营Elasticsearch的公司就此成立,他们一边提供商业支持一边开发新功 能,不过Elasticsearch将永远开源且对所有人可用。 Shay的妻子依旧等待着她的食谱搜索…… 现在我们就知道了 elasticsearch 重要性!

谁在使用:

1、维基百科,类似百度百科,全文检索,高亮,搜索推荐/2 (权重,百度!)

2、The Guardian(国外新闻网站),类似搜狐新闻,用户行为日志(点击,浏览,收藏,评论)+社交 网络数据(对某某新闻的相关看法),数据分析,给到每篇新闻文章的作者,让他知道他的文章的公众 反馈(好,坏,热门,垃圾,鄙视,崇拜)

3、Stack Overflow(国外的程序异常讨论论坛),IT问题,程序的报错,提交上去,有人会跟你讨论和 回答,全文检索,搜索相关问题和答案,程序报错了,就会将报错信息粘贴到里面去,搜索有没有对应 的答案

4、GitHub(开源代码管理),搜索上千亿行代码

5、电商网站,检索商品

6、日志数据分析,logstash采集日志,ES进行复杂的数据分析,ELK技术, elasticsearch+logstash+kibana

7、商品价格监控网站,用户设定某商品的价格阈值,当低于该阈值的时候,发送通知消息给用户,比如 说订阅牙膏的监控,如果高露洁牙膏的家庭套装低于50块钱,就通知我,我就去买。

8、BI系统,商业智能,Business Intelligence。比如说有个大型商场集团,BI,分析一下某某区域最近 3年的用户消费金额的趋势以及用户群体的组成构成,产出相关的数张报表,**区,最近3年,每年消费 金额呈现100%的增长,而且用户群体85%是高级白领,开一个新商场。ES执行数据分析和挖掘, Kibana进行数据可视化

9、国内:站内搜索(电商,招聘,门户,等等),IT系统搜索(OA,CRM,ERP,等等),数据分析 (ES热门 的一个使用场景)

ES和solr的差别

架构选择!

Elasticsearch简介

Elasticsearch是一个实时分布式搜索和分析引擎。它让你以前所未有的速度处理大数据成为可能。

它用于全文搜索、结构化搜索、分析以及将这三者混合使用

维基百科使用Elasticsearch提供全文搜索并高亮关键字,以及输入实时搜索(search-asyou-type)和搜索 纠错(did-you-mean)等搜索建议功能。

英国卫报使用Elasticsearch结合用户日志和社交网络数据提供给他们的编辑以实时的反馈,以便及时了 解公众对新发表的文章的回应。

StackOverflow结合全文搜索与地理位置查询,以及more-like-this功能来找到相关的问题和答案。

Github使用Elasticsearch检索1300亿行的代码。

但是Elasticsearch不仅用于大型企业,它还让像DataDog以及Klout这样的创业公司将最初的想法变成可 扩展的解决方案。

Elasticsearch可以在你的笔记本上运行,也可以在数以百计的服务器上处理PB级别的数据 。

Elasticsearch是一个基于Apache Lucene™的开源搜索引擎。无论在开源还是专有领域,Lucene可以 被认为是迄今为止最先进、性能最好的、功能最全的搜索引擎库。

但是,Lucene只是一个库。想要使用它,你必须使用Java来作为开发语言并将其直接集成到你的应用 中,更糟糕的是,Lucene非常复杂,你需要深入了解检索的相关知识来理解它是如何工作的。

Elasticsearch也使用Java开发并使用Lucene作为其核心来实现所有索引和搜索的功能,但是它的目的是 通过简单的RESTful API来隐藏Lucene的复杂性,从而让全文搜索变得简单。

Solr简介

Solr 是Apache下的一个顶级开源项目,采用Java开发,它是基于Lucene的全文搜索服务器。Solr提供了 比Lucene更为丰富的查询语言,同时实现了可配置、可扩展,并对索引、搜索性能进行了优化

Solr可以独立运行,运行在Jetty、Tomcat等这些Servlet容器中,Solr 索引的实现方法很简单,用 POST 方法向 Solr 服务器发送一个描述 Field 及其内容的 XML 文档,Solr根据xml文档添加、删除、更新索引 。Solr 搜索只需要发送 HTTP GET 请求,然后对 Solr 返回Xml、json等格式的查询结果进行解析,组织 页面布局。Solr不提供构建UI的功能,Solr提供了一个管理界面,通过管理界面可以查询Solr的配置和运 行情况。

solr是基于lucene开发企业级搜索服务器,实际上就是封装了lucene。

Solr是一个独立的企业级搜索应用服务器,它对外提供类似于Web-service的API接口。用户可以通过 http请求,向搜索引擎服务器提交一定格式的文件,生成索引;也可以通过提出查找请求,并得到返回 结果。

Lucene简介

Lucene是apache软件基金会4 jakarta项目组的一个子项目,是一个开放源代码的全文检索引擎工具 包,但它不是一个完整的全文检索引擎,而是一个全文检索引擎的架构,提供了完整的查询引擎和索引 引擎,部分文本分析引擎(英文与德文两种西方语言)。Lucene的目的是为软件开发人员提供一个简单 易用的工具包,以方便的在目标系统中实现全文检索的功能,或者是以此为基础建立起完整的全文检索 引擎。Lucene是一套用于全文检索和搜寻的开源程式库,由Apache软件基金会支持和提供。Lucene提 供了一个简单却强大的应用程式接口,能够做全文索引和搜寻。**在Java开发环境里Lucene是一个成熟的 免费开源工具。就其本身而言,Lucene是当前以及最近几年最受欢迎的免费Java信息检索程序库。**人们 经常提到信息检索程序库,虽然与搜索引擎有关,但不应该将信息检索程序库与搜索引擎相混淆。

Lucene是一个全文检索引擎的架构。那什么是全文搜索引擎?

全文搜索引擎是名副其实的搜索引擎,国外具代表性的有Google、Fast/AllTheWeb、AltaVista、 Inktomi、Teoma、WiseNut等,国内著名的有百度(Baidu)。它们都是通过从互联网上提取的各个网 站的信息(以网页文字为主)而建立的数据库中,检索与用户查询条件匹配的相关记录,然后按一定的 排列顺序将结果返回给用户,因此他们是真正的搜索引擎。

从搜索结果来源的角度,全文搜索引擎又可细分为两种,一种是拥有自己的检索程序(Indexer),俗称 “蜘蛛”(Spider)程序或“机器人”(Robot)程序,并自建网页数据库,搜索结果直接从自身的数据库中 调用,如上面提到的7家引擎;另一种则是租用其他引擎的数据库,并按自定的格式排列搜索结果,如 Lycos引擎。

Elasticsearch和Solr比较.

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-8qhmxBId-1596360717786)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723114503417.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-irDJcVFc-1596360717790)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723114512171.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-W7wgXXQZ-1596360717792)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723114527867.png)][外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-BCFsEXug-1596360717796)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723114535736.png)]

ElasticSearch vs Solr 总结

1、es基本是开箱即用(解压就可以用 ! ),非常简单。Solr安装略微复杂一丢丢!

2、Solr 利用 Zookeeper 进行分布式管理,而 Elasticsearch 自身带有分布式协调管理功能。

3、Solr 支持更多格式的数据,比如JSON、XML、CSV,而 Elasticsearch 仅支持json文件格式。

4、Solr 官方提供的功能更多,而 Elasticsearch 本身更注重于核心功能,高级功能多有第三方插件提 供,例如图形化界面需要kibana友好支撑~!

5、Solr 查询快,但更新索引时慢(即插入删除慢),用于电商等查询多的应用;

  • ES建立索引快(即查询慢),即实时性查询快,用于facebook新浪等搜索。

  • Solr 是传统搜索应用的有力解决方案,但 Elasticsearch 更适用于新兴的实时搜索应用。

6、Solr比较成熟,有一个更大,更成熟的用户、开发和贡献者社区,而 Elasticsearch相对开发维护者 较少,更新太快,学习使用成本较高。(趋势!)

ElasticSearch安装

声明:jdk1.8,最低要求!ElasticSearch客户端,界面工具!

Java开发,ElasticSearch的版本和我们之后对应的java的核心jar包!版本对应!JDK环境是正常!

下载

官网:https://www.elastic.co/cn/

window解压即可使用

2、熟悉目录!

bin	启动文件
config 配置文件
	log4j2.properties	日志配置文件
	jvm.options			java虚拟机相关配置
	elasticsearch.yml	es的配置文件!默认端口9200
lib	相关jar包
logs	日志
modeles	功能模块
plugins	插件!
	
	

3、启动,访问http://localhost:9200/

{
  "name" : "LH",
  "cluster_name" : "elasticsearch",
  "cluster_uuid" : "BK7Wse65SgeHydMMLu42tg",
  "version" : {
    "number" : "7.8.0",
    "build_flavor" : "default",
    "build_type" : "zip",
    "build_hash" : "757314695644ea9a1dc2fecd26d1a43856725e65",
    "build_date" : "2020-06-14T19:35:50.234439Z",
    "build_snapshot" : false,
    "lucene_version" : "8.5.1",
    "minimum_wire_compatibility_version" : "6.8.0",
    "minimum_index_compatibility_version" : "6.0.0-beta1"
  },
  "tagline" : "You Know, for Search"
}

安装可视化界面es head插件

1、下载地址:https://github.com/mobz/elasticsearch-head

2、启动,解压elasticsearch-head项目,然后进入项目 一下流程。

cd elasticsearch-head
npm install
npm run start
open http://localhost:9100/

3、发现连接http://localhost:9200/存在跨域问题,修改config里面的elasticsearch.yml配置文件

#添加
http.cors.enabled: true
http.cors.allow-origin: "*"

4、重启es服务、再次在http://localhost:9100/连接

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-9kUq1mci-1596360717800)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723111100297.png)]

把索引当成一个数据库!

这个head我们就把他当做数据展示的工具!我们后面所有的查询.

了解ELK

ELK是Elasticsearch、Logstash、Kibana三大开源框架首字母大写简称。市面上也被成为ElasticStack。其中Elasticsearch是一个基于Lucene、分布式、通过Restful方式进行交互的近实时搜索平台框 架。像类似百度、谷歌这种大数据全文搜索引擎的场景都可以使用Elasticsearch作为底层支持框架,可 见Elasticsearch提供的搜索能力确实强大,市面上很多时候我们简称Elasticsearch为es。Logstash是ELK 的中央数据流引擎,用于从不同目标(文件/数据存储/MQ)收集的不同格式数据,经过过滤后支持输出 到不同目的地(文件/MQ/redis/elasticsearch/kafka等)。Kibana可以将elasticsearch的数据通过友好 的页面展示出来,提供实时分析的功能。

市面上很多开发只要提到ELK能够一致说出它是一个日志分析架构技术栈总称,但实际上ELK不仅仅适用 于日志分析,它还可以支持其它任何数据分析和收集的场景,日志分析和收集只是更具有代表性。并非 唯一性。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-7tz0dXDM-1596360717803)(https://www.pianshen.com/images/342/77d89d54fd6a64042c0f4c37bf379de6.png)]

安装Kibana

Kibana是一个针对Elasticsearch的开源分析及可视化平台,用来搜索、查看交互存储在Elasticsearch索 引中的数据。使用Kibana,可以通过各种图表进行高级数据分析及展示。Kibana让海量数据更容易理 解。它操作简单,基于浏览器的用户界面可以快速创建仪表板(dashboard)实时显示Elasticsearch查 询动态。设置Kibana非常简单。无需编码或者额外的基础架构,几分钟内就可以完成Kibana安装并启动 Elasticsearch索引监测。

官网:https://www.elastic.co/cn/kibana

Kibana 版本要和 Es 一致!

下载完毕后,解压也需要一些时间!是一个标准的工程!

好处:ELK 基本上都是拆箱即用!

启动测试:

1、解压后端的目录

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-OPppXOrv-1596360717805)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723170743984.png)]

2、启动bin/kibana.bat

3、访问测试http://localhost:5601/

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-8XNoQmuz-1596360717807)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723170935644.png)]

4、开发工具!(Post 、curl、head、谷歌浏览器插件测试!)

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-WpATUqJQ-1596360717810)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723171513800.png)]

我们之后的所有操作都是在这里进行编写!

5、汉化,修改配置

i18n.locale: "zh-CN"

ES核心概念

1、索引

2、字段类型(mapping)

3、文档(documents)

概述

在前面的学习中,我们已经掌握了es是什么,同时也把es的服务已经安装启动,那么es是如何去存储数 据,数据结构是什么,又是如何实现搜索的呢?我们先来聊聊ElasticSearch的相关概念吧!

集群,节点,索引,类型,文档,分片,映射是什么?

elasticsearch是面向文档,关系行数据库 和 elasticsearch 客观的对比!一切都是JSON!

Relational DB Elasticsearch
数据库(database) 索引(indices)
表(tables) types
行(rows) documents
字段(columns) fields

elasticsearch(集群)中可以包含多个索引(数据库),每个索引中可以包含多个类型(表),每个类型下又包 含多 个文档(行),每个文档中又包含多个字段(列)。

物理设计:

elasticsearch 在后台把每个索引划分成多个分片,每分分片可以在集群中的不同服务器间迁移 一个人就是一个集群!

默认的集群名称就是 elaticsearh

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-rz7UCaBo-1596360717812)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723173045149.png)]

逻辑设计:

一个索引类型中,包含多个文档,比如说文档1,文档2。 当我们索引一篇文档时,可以通过这样的一各 顺序找到 它: 索引 ▷ 类型 ▷ 文档ID ,通过这个组合我们就能索引到某个具体的文档。 注意:ID不必是整 数,实际上它是个字 符串。

文档

文档就是我们的一条条数据

user
1 zhangsan 18
2 kuangshen 3

之前说elasticsearch是面向文档的,那么就意味着索引和搜索数据的最小单位是文档,elasticsearch 中,文档有几个 重要属性 :

  • 自我包含,一篇文档同时包含字段和对应的值,也就是同时包含 key:value!

  • 可以是层次型的,一个文档中包含自文档,复杂的逻辑实体就是这么来的! {就是一个json对象! fastjson进行自动转换!}

  • 灵活的结构,文档不依赖预先定义的模式,我们知道关系型数据库中,要提前定义字段才能使用, 在elasticsearch中,对于字段是非常灵活的,有时候,我们可以忽略该字段,或者动态的添加一个 新的字段。

尽管我们可以随意的新增或者忽略某个字段,但是,每个字段的类型非常重要,比如一个年龄字段类 型,可以是字符 串也可以是整形。因为elasticsearch会保存字段和类型之间的映射及其他的设置。这种 映射具体到每个映射的每种类型,这也是为什么在elasticsearch中,类型有时候也称为映射类型。

类型

类型是文档的逻辑容器,就像关系型数据库一样,表格是行的容器。 类型中对于字段的定义称为映射, 比如 name 映射为字符串类型。 我们说文档是无模式的,它们不需要拥有映射中所定义的所有字段, 比如新增一个字段,那么elasticsearch是怎么做的呢?elasticsearch会自动的将新字段加入映射,但是这 个字段的不确定它是什么类型,elasticsearch就开始猜,如果这个值是18,那么elasticsearch会认为它 是整形。 但是elasticsearch也可能猜不对, 所以最安全的方式就是提前定义好所需要的映射,这点跟关 系型数据库殊途同归了,先定义好字段,然后再使用,别 整什么幺蛾子。

索引

就是数据库!

索引是映射类型的容器,elasticsearch中的索引是一个非常大的文档集合。索引存储了映射类型的字段 和其他设置。 然后它们被存储到了各个分片上了。 我们来研究下分片是如何工作的。

物理设计 :节点和分片 如何工作

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-7va3Adl8-1596360717815)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723173948552.png)]

一个集群至少有一个节点,而一个节点就是一个elasricsearch进程,节点可以有多个索引默认的,如果 你创建索引,那么索引将会有个5个分片 ( primary shard ,又称主分片 ) 构成的,每一个主分片会有一个 副本 ( replica shard ,又称复制分片 )

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-PFt7WvEG-1596360717817)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723173811990.png)]

上图是一个有3个节点的集群,可以看到主分片和对应的复制分片都不会在同一个节点内,这样有利于某 个节点挂掉 了,数据也不至于丢失。 实际上,一个分片是一个Lucene索引,一个包含倒排索引的文件 目录,倒排索引的结构使 得elasticsearch在不扫描全部文档的情况下,就能告诉你哪些文档包含特定的 关键字。 不过,等等,倒排索引是什么鬼?

倒排索引

elasticsearch使用的是一种称为倒排索引的结构,采用Lucene倒排索作为底层。这种结构适用于快速的 全文搜索, 一个索引由文档中所有不重复的列表构成,对于每一个词,都有一个包含它的文档列表。 例 如,现在有两个文档, 每个文档包含如下内容:

Study every day, good good up to forever # 文档1包含的内容
To forever, study every day, good good up # 文档2包含的内容

为了创建倒排索引,我们首先要将每个文档拆分成独立的词(或称为词条或者tokens),然后创建一个包 含所有不重 复的词条的排序列表,然后列出每个词条出现在哪个文档 :

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-vNPBH99w-1596360717821)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723174126925.png)]

现在,我们试图搜索 to forever,只需要查看包含每个词条的文档 score

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-yDlTf13J-1596360717825)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723174139382.png)]

两个文档都匹配,但是第一个文档比第二个匹配程度更高。如果没有别的条件,现在,这两个包含关键 字的文档都将返回。

再来看一个示例,比如我们通过博客标签来搜索博客文章。那么倒排索引列表就是这样的一个结构 :

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-kL2s0fKM-1596360717827)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723174157463.png)]

如果要搜索含有 python 标签的文章,那相对于查找所有原始数据而言,查找倒排索引后的数据将会快 的多。只需要 查看标签这一栏,然后获取相关的文章ID即可。完全过滤掉无关的所有数据,提高效率!

elasticsearch的索引和Lucene的索引对比

在elasticsearch中, 索引 (库)这个词被频繁使用,这就是术语的使用。 在elasticsearch中,索引被 分为多个分片,每份 分片是一个Lucene的索引。所以一个elasticsearch索引是由多个Lucene索引组成的。别问为什么,谁让elasticsearch使用Lucene作为底层呢! 如无特指,说起索引都是指elasticsearch 的索引。

接下来的一切操作都在kibana中Dev Tools下的Console里完成。基础操作!

IK分词器

什么是IK分词器

分词:即把一段中文或者别的划分成一个个的关键字,我们在搜索时候会把自己的信息进行分词,会把 数据库中或者索引库中的数据进行分词,然后进行一个匹配操作,默认的中文分词是将每个字看成一个 词,比如 “我爱狂神” 会被分为"我",“爱”,“狂”,“神”,这显然是不符合要求的,所以我们需要安装中文分词 器ik来解决这个问题。

如果要使用中文,建议使用ik分词器!

IK提供了两个分词算法:ik_smartik_max_word,其中 ik_smart 为最少切分,ik_max_word为最细 粒度划分!一会我们测试!

安装

1、https://github.com/medcl/elasticsearch-analysis-ik

2、下载完毕之后,放入到我们的elasticsearch 插件即可!

3、重启ElasticSearch观察,可以看到ik分词器被加载了

4、elasticSearch-plugin可以通过这个命令来查看加载的插件,Ik

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-kYwyUVfs-1596360717833)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723181053638.png)]

5、使用Kibana测试分别测试ik_smart模式和ik_max_word模式

#ik_smart模式
GET _analyze
{
  "analyzer": "ik_smart",
  "text": "中国共产党"
  
}
#结果
{
  "tokens" : [
    {
      "token" : "中国共产党",
      "start_offset" : 0,
      "end_offset" : 5,
      "type" : "CN_WORD",
      "position" : 0
    }
  ]
}

#ik_max_word模式
GET _analyze
{
  "analyzer": "ik_max_word",
  "text": "中国共产党"
  
}
#结果,穷尽词库的可能
{
  "tokens" : [
    {
      "token" : "中国",
      "start_offset" : 0,
      "end_offset" : 2,
      "type" : "CN_WORD",
      "position" : 1
    },
    {
      "token" : "国共",
      "start_offset" : 1,
      "end_offset" : 3,
      "type" : "CN_WORD",
      "position" : 2
    },
    {
      "token" : "共产党",
      "start_offset" : 2,
      "end_offset" : 5,
      "type" : "CN_WORD",
      "position" : 3
    },
    {
      "token" : "共产",
      "start_offset" : 2,
      "end_offset" : 4,
      "type" : "CN_WORD",
      "position" : 4
    },
    {
      "token" : "党",
      "start_offset" : 4,
      "end_offset" : 5,
      "type" : "CN_CHAR",
      "position" : 5
    }
  ]
}

我们输入 卢航喜欢马可

GET _analyze
{
  "analyzer": "ik_smart",
  "text": "卢航喜欢马可"
  
}


{
  "tokens" : [
    {
      "token" : "卢",
      "start_offset" : 0,
      "end_offset" : 1,
      "type" : "CN_CHAR",
      "position" : 0
    },
    {
      "token" : "航",
      "start_offset" : 1,
      "end_offset" : 2,
      "type" : "CN_CHAR",
      "position" : 1
    },
    {
      "token" : "喜欢",
      "start_offset" : 2,
      "end_offset" : 4,
      "type" : "CN_WORD",
      "position" : 2
    },
    {
      "token" : "马可",
      "start_offset" : 4,
      "end_offset" : 6,
      "type" : "CN_WORD",
      "position" : 3
    }
  ]
}

发现问题:卢航 被拆开了

这种自己需要的词,需要自己加到我们的分词器的字典中!

1、在路径 D:\Environment\elasticsearch\elasticsearch-7.8.0\plugins\ik\config 下创建luhang.dic,在里面输入卢航

3、重启es

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-6BvxKiwo-1596360717837)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200723182919930.png)]

重新测试

GET _analyze
{
  "analyzer": "ik_smart",
  "text": "卢航喜欢马可"
  
}
#结果
{
  "tokens" : [
    {
      "token" : "卢航",
      "start_offset" : 0,
      "end_offset" : 2,
      "type" : "CN_WORD",
      "position" : 0
    },
    {
      "token" : "喜欢",
      "start_offset" : 2,
      "end_offset" : 4,
      "type" : "CN_WORD",
      "position" : 1
    },
    {
      "token" : "马可",
      "start_offset" : 4,
      "end_offset" : 6,
      "type" : "CN_WORD",
      "position" : 2
    }
  ]
}

Rest风格

一种软件架构风格,而不是标准,只是提供了一组设计原则和约束条件。它主要用于客户端和服务器交 互类的软件。基于这个风格设计的软件可以更简洁,更有层次,更易于实现缓存等机制。

基本Rest命令说明:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-lTXNl1IO-1596360717840)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200724103424569.png)]

关于索引的基本操作

1、创建一个索引

put /索引名称/类型名/文档id
{
请求体
}
PUT /test/type1/1
{
  "name":"luhang",
  "age":3
}

#! Deprecation: [types removal] Specifying types in document index requests is deprecated, use the typeless endpoints instead (/{index}/_doc/{id}, /{index}/_doc, or /{index}/_create/{id}).
{
  "_index" : "test",
  "_type" : "type1",
  "_id" : "1",
  "_version" : 1,
  "result" : "created",
  "_shards" : {
    "total" : 2,
    "successful" : 1,		#成功
    "failed" : 0
  },
  "_seq_no" : 0,
  "_primary_term" : 1
}

2、完成自动增加索引!数据也成功添加了,这就是我说初期可以把它当初数据库来学习的

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-1ZaN5gFH-1596360717847)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200724104853490.png)]

3、那么 name 这个字段用不用指定类型呢。毕竟我们关系型数据库 是需要指定类型的啊 !

  • 字符串类型 text 、 keyword

  • 数值类型 long, integer, short, byte, double, float, half_float, scaled_float

  • 日期类型 date

  • 布尔值类型 boolean

  • 二进制类型 binary

  • 等等…

4、指定字段的类型

#创建索引规则 name text类型 age integer类型 brithday date类型
PUT /test2
{
  "mappings": {
    "properties": {
      "name":{
        "type": "text"
      },
      "age":{
        "type": "integer"
      },
      "brithday":{
        "type": "date"
      }
    }
  }
}

5、通过get请求获得test2的信息

get test2
#结果
{
  "test2" : {
    "aliases" : { },
    "mappings" : {
      "properties" : {
        "age" : {
          "type" : "integer"
        },
        "brithday" : {
          "type" : "date"
        },
        "name" : {
          "type" : "text"
        }
      }
    },
    "settings" : {
      "index" : {
        "creation_date" : "1595559213065",
        "number_of_shards" : "1",
        "number_of_replicas" : "1",
        "uuid" : "DyFAbOb9QuKlp2J0Py1IbA",
        "version" : {
          "created" : "7080099"
        },
        "provided_name" : "test2"
      }
    }
  }
}

6、查看默认的信息

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-s0M16LdN-1596360717850)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200724112741647.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-oQSGfbn8-1596360717851)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200724112845969.png)]

如果自己的文档字段没有指定,那么es就会默认配置字段类型

拓展:通过命令elasticSearch索引情况!

get _cat/indices?v
#结果
health status index                          uuid                   pri rep docs.count docs.deleted store.size pri.store.size
green  open   .kibana-event-log-7.8.0-000001 4LPuszRRTCuaWSbY0DWdZQ   1   0          8            0       41kb           41kb
yellow open   test2                          DyFAbOb9QuKlp2J0Py1IbA   1   1          0            0       208b           208b
yellow open   test3                          J6rA5yyhR7Wivh6o1B6j3A   1   1          1            0        4kb            4kb
yellow open   test                           x-VKX35USOuv8GdwSYEAdw   1   1          1            0      3.8kb          3.8kb
green  open   .apm-custom-link               n32ZCimvRbSzywZnV5K8dg   1   0          0            0       208b           208b
green  open   .kibana_task_manager_1         AtNk67nXS9CgLsHc-Sv3Iw   1   0          5            0     72.9kb         72.9kb
green  open   .apm-agent-configuration       -StPZJQiTDuHr3Jc5sck5g   1   0          0            0       208b           208b
green  open   .kibana_1                      Px3pP34bQd6VVNTzdaAk5A   1   0         42            0     46.8kb         46.8kb

修改 提交还是使用put

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-nQcxD4ZI-1596360717856)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200724113318094.png)]

修改后版本号会增加

post修改

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ueJbnWhW-1596360717860)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200724114241671.png)]

删除 delete

  • 删除文档

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-IVjnFJpp-1596360717864)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200724114440748.png)]

  • 删除索引index

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ZeFR1bit-1596360717866)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200724114459936.png)]

关于文档的基本操作(重点)

基本操作

1、添加数据

put /luhang/user/1
{
  "name":"luhang",
  "age":23,
  "desc":"待业人员",
  "tags":["帅","技术宅","直男"]
}

2、获取数据

get luhang/user/1
#结果
{
  "_index" : "luhang",
  "_type" : "user",
  "_id" : "1",
  "_version" : 1,
  "_seq_no" : 0,
  "_primary_term" : 1,
  "found" : true,
  "_source" : {
    "name" : "luhang",
    "age" : 23,
    "desc" : "待业人员",
    "tags" : [
      "帅",
      "技术宅",
      "直男"
    ]
  }
}

3、更新数据PUT

#PUT
put /luhang/user/1
{
  "name":"luhangPlus",
  "age":3,
  "desc":"lol",
  "tags":["爱玩","技术宅","直男"]
}

{
  "_index" : "luhang",
  "_type" : "user",
  "_id" : "1",
  "_version" : 2,				#version就是被改动的次数
  "result" : "updated",
  "_shards" : {
    "total" : 2,
    "successful" : 1,
    "failed" : 0
  },
  "_seq_no" : 3,
  "_primary_term" : 1
}

4、POST _update,推荐使用这种方式,灵活性更好

POST /luhang/user/1/_update
{
  "doc":{
    "name":"luhang+"
  }
}
#结果
{
  "_index" : "luhang",
  "_type" : "user",
  "_id" : "1",
  "_version" : 3,
  "result" : "updated",
  "_shards" : {
    "total" : 2,
    "successful" : 1,
    "failed" : 0
  },
  "_seq_no" : 4,
  "_primary_term" : 1
}

5、查找 Get

简单的查找

get luhang/user/1

简单的条件搜索

get luhang/user/_search?q=name:luhang

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-nb473ENm-1596360717869)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200728212809971.png)]

复杂查询(排序,分页,高亮,模糊查询,精准查询)

输出结果,不想要那么多

get luhang/user/_search
{	
  "query":{							#查询条件,name=luhang
    "match": {
      "name": "luhang"
    }
  },
  "_source":["name","age"]			#就是设置要查询出来的字段,过滤
}


#部分结果
 "hits" : [
      {
        "_index" : "luhang",
        "_type" : "user",
        "_id" : "1",
        "_score" : 0.35667494,
        "_source" : {
          "name" : "luhang+",
          "age" : 3
        }
      },

我们之后用java操作es,所有的方法和对象都是这里的key。

排序

get luhang/user/_search
{
  "query":{
    "match": {
      "name": "luhang"
    }
  },
  "sort":[
    {
      "age":{						#设置age字段就可以了,升序
        "order":"asc"
      }
    }]
}

分页查询

get luhang/user/_search
{
  "query":{
    "match": {
      "name": "luhang"
    }
  },
  "sort":[
    {
      "age":{
        "order":"asc"
      }
    }
    ],
    "from":0,			#从第几条开始	
    "size":2			#每页显示多少数据
}

数据下边还是从0开始的,和学的数据结构是一样的

布尔查询

must就是条件必须都得满足,相当于and

should就是满足一个其中的条件即可,相当于or

must_not就是必须满足条件不是xxx

get luhang/user/_search
{
  "query":{
    "bool": {
      "must": [						#两个条件都符合的数据才会被查询出来,好比and
        {
          "match": {				#多条件查询
            "name": "luhang"
          }
        },
        {
          "match": {				#多条件查询
            "age": 6
          }
        }
      ]
    }
  }
}

#should
get luhang/user/_search
{
  "query":{
    "bool": {
      "should": [
        {
          "match": {
            "name": "luhang"
          }
        },
        {
          "match": {
            "age": 6
          }
        }
      ]
    }
  }
}

#must_not,满足名字不是卢航且年龄不等于6get luhang/user/_search
{
  "query":{
    "bool": {
      "must_not": [
        {
          "match": {
            "name": "luhang"
          }
        },
        {
          "match": {
            "age": 6
          }
        }
      ]
    }
  }
}

过滤器filter

#查询年龄小于7岁大于3岁的同学, 
get luhang/user/_search
{
  "query":{
    "bool": {
      "must": [
        {
          "match": {
            "name": "luhang"
          }
        }
      ],
      "filter": {			
        "range": {
          "age": {
            "gt": 3,
            "lt": 7
          }
        }
      }
    }
  }
}
  • “gte”——大于等于,
  • “lte”——小于等于
  • “gt”——大于
  • “lt”——小于

匹配多个条件

#多个条件查询,用空格隔开,只要满足一个结果即可查出
get luhang/user/_search
{
  "query":{
    "match": {
      "tags": "傻逼 男"
    }
  }
}

# "_score" : 2.0951896权重最大,匹配度最高
{
        "_index" : "luhang",
        "_type" : "user",
        "_id" : "3",
        "_score" : 2.0951896,
        "_source" : {
          "name" : "luhang+++",
          "age" : 4,
          "desc" : "拼多多",
          "tags" : [
            "傻逼",
            "技术宅",
            "直男"
          ]
        }
      },

精准查询!

term查询是直接通过倒排索引指定的词条进行精准的查找的!

关于分词:

  • term,直接查找精确的

  • match,会使用分词器解析!(先分析文档,通过分析的文档进行分析)

两个类型 keyword text

  • 字段是keyword类型,会被当成一个整体去查询

  • 字段是text类型,会被拆分去查询

#没有被分析
GET _analyze
{
  "analyzer": "keyword",
  "text": "卢航学java"
}
#结果
{
  "tokens" : [
    {
      "token" : "卢航学java",
      "start_offset" : 0,
      "end_offset" : 7,
      "type" : "word",
      "position" : 0
    }
  ]
}


#卢航学java被拆分
GET _analyze
{
  "analyzer": "standard",
  "text": "卢航学java"
}
#结果
{
  "tokens" : [
    {
      "token" : "卢",
      "start_offset" : 0,
      "end_offset" : 1,
      "type" : "",
      "position" : 0
    },
    {
      "token" : "航",
      "start_offset" : 1,
      "end_offset" : 2,
      "type" : "",
      "position" : 1
    },
    {
      "token" : "学",
      "start_offset" : 2,
      "end_offset" : 3,
      "type" : "",
      "position" : 2
    },
    {
      "token" : "java",
      "start_offset" : 3,
      "end_offset" : 7,
      "type" : "",
      "position" : 3
    }
  ]
}

多个值精确查询

GET testdb/_search
{
  "query": {
    "bool": {
      "should": [
        {
          "term": {
            "t1":  "33"
          }
        },
        {
          "term": {
            "t1": "44"
          }
        }
      ]
    }
  }
}

集成Springboot

1、浏览官网文档,点击elasticsearch Clients,然后点击Rest Client

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-bEui9lx9-1596360717872)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200801080933827.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-PR1vPKzh-1596360717874)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200801081009047.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-HAHUCf2v-1596360717877)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200801081055163.png)]

  • pom.xml
<properties>
        <java.version>1.8java.version>
        <elasticsearch.version>7.8.0elasticsearch.version>
    properties>

<dependency>
            <groupId>org.projectlombokgroupId>
            <artifactId>lombokartifactId>
            <version>1.18.10version>
        dependency>
        <dependency>
            <groupId>org.springframework.bootgroupId>
            <artifactId>spring-boot-devtoolsartifactId>
            <version>2.1.5.RELEASEversion>
        dependency>
        <dependency>
            <groupId>org.springframework.bootgroupId>
            <artifactId>spring-boot-configuration-processorartifactId>
            <version>2.1.1.RELEASEversion>
        dependency>
        <dependency>
            <groupId>org.springframework.bootgroupId>
            <artifactId>spring-boot-starterartifactId>
        dependency>
		
        <dependency>
            <groupId>org.springframework.datagroupId>
            <artifactId>spring-data-elasticsearchartifactId>
            <version>3.1.6.RELEASEversion>
        dependency>
        <dependency>
            <groupId>org.elasticsearch.clientgroupId>
            <artifactId>elasticsearch-rest-high-level-clientartifactId>
            <version>7.8.0version>
        dependency>

        <dependency>
            <groupId>org.springframework.bootgroupId>
            <artifactId>spring-boot-starter-testartifactId>
            <scope>testscope>
            <exclusions>
                <exclusion>
                    <groupId>org.junit.vintagegroupId>
                    <artifactId>junit-vintage-engineartifactId>
                exclusion>
            exclusions>
        dependency>
  • 找对象

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-P25jq9Go-1596360717879)(C:\Users\Administrator\AppData\Roaming\Typora\typora-user-images\image-20200801081405046.png)]

  • 分析这个这个类中的方法即可!

    基本配置的项目!

问题:一定要保证我们导入的依赖和我们电脑上的es版本一致!

  • 创建配置类

    @Configuration
    public class ElasticSearchConfig {
        //注入es到spring
        @Bean
        public RestHighLevelClient getRestHighLevelClient(){
            RestHighLevelClient client = new RestHighLevelClient(
                    RestClient.builder(
                            new HttpHost("127.0.0.1", 9200, "http")));
            return client;
        }
    }
    
  • 测试api

    package com.lucas;
    /**
     * es7.8的高级客户端测试api
     */
    @SpringBootTest
    class SpringbootElasticsearchApplicationTests {
        @Autowired
        @Qualifier("restHighLevelClient")        //写上对应的client的方法名称
        private RestHighLevelClient client;
    
    
        //测试索引的创建
        @Test
        public void testCreateIndex()throws Exception{
            //1、创建索引请求
            CreateIndexRequest lucas_index = new CreateIndexRequest("lucas_index");
            //2、执行请求,请求后获得响应
            CreateIndexResponse createIndexResponse = client.indices().create(lucas_index, RequestOptions.DEFAULT);
            System.out.println(createIndexResponse);
        }
    
        //测试索引是否存在
        @Test
        public void testExistIndex()throws Exception{
            GetIndexRequest request=new GetIndexRequest("lucas_index");
            boolean exists = client.indices().exists(request, RequestOptions.DEFAULT);
            System.out.println(exists);//返回true即存在
        }
        //测试删除索引
        @Test
        public void testDeleteIndex()throws Exception{
            DeleteIndexRequest request = new DeleteIndexRequest("lucas_index");
            AcknowledgedResponse delete = client.indices().delete(request, RequestOptions.DEFAULT);
            System.out.println(delete.isAcknowledged());
        }
    
      //测试添加文档
        @Test
        public void testAddDocument()throws Exception{
            //创建对象
            User user = new User("卢航", 23);
            //创建请求
            IndexRequest request = new IndexRequest("lucas_index");
            //规则 put/lucas_index/_doc/1
            request.id("1");
            request.timeout(TimeValue.timeValueSeconds(1));
            //将数据放入请求
            request.source(JSON.toJSONString(user), XContentType.JSON);
            //客户端发送请求
            IndexResponse index = client.index(request, RequestOptions.DEFAULT);
            System.out.println(index.toString());
            System.out.println(index.status());
        }
    
        //测试是否存在文档1
        @Test
        public void testGetDocument()throws Exception{
            GetRequest getRequest = new GetRequest("lucas_index","1");
    
            //不获取返回的_source的上下文
            getRequest.fetchSourceContext(new FetchSourceContext(false));
            getRequest.storedFields("_none_");
    
            boolean exists = client.exists(getRequest, RequestOptions.DEFAULT);
            System.out.println(exists);
    
        }
    
        //获取文档的信息
        @Test
        void getDocument()throws Exception{
            GetRequest getRequest=new GetRequest("lucas_index","1");
            GetResponse getResponse = client.get(getRequest, RequestOptions.DEFAULT);
            String sourceAsString = getResponse.getSourceAsString();
            System.out.println(sourceAsString);     //打印 文档
            System.out.println(getResponse);        //打印获得的所有内容
        }
        //更新文档内容
        @Test
        void updateDocument()throws Exception{
            UpdateRequest request = new UpdateRequest("lucas_index", "1");
            request.timeout("1s");
            User user = new User("卢航学java", 1);
            request.doc(JSON.toJSONString(user),XContentType.JSON);
    
            UpdateResponse update = client.update(request, RequestOptions.DEFAULT);
            System.out.println(update.status());
    
        }
        //删除文档
        @Test
        void deleteDocument()throws Exception{
            DeleteRequest request = new DeleteRequest("lucas_index", "1");
            request.timeout("1s");
            DeleteResponse delete = client.delete(request, RequestOptions.DEFAULT);
            System.out.println(delete.status());
        }
        //特殊的,真项目一般会批量插入数据!
        @Test
        void testBulkRequest()throws Exception{
            BulkRequest bulkRequest = new BulkRequest();
            bulkRequest.timeout("10s");
            ArrayList<User> users = new ArrayList<>();
            users.add(new User("lucas1",1));
            users.add(new User("lucas2",2));
            users.add(new User("lucas3",3));
            users.add(new User("lucas4",4));
            users.add(new User("lucas5",5));
            users.add(new User("lucas6",6));
            //批量处理请求
            for (int i = 0; i < users.size(); i++) {
                bulkRequest.add(
                        new IndexRequest("lucas_index")
                                .id(""+(i+1))
                                .source(JSON.toJSONString(users.get(i)),XContentType.JSON));
            }
            BulkResponse bulk = client.bulk(bulkRequest, RequestOptions.DEFAULT);
            System.out.println(bulk.hasFailures()); //是否失败,如果false就是成功了
    
        }
    
        //查询
        @Test
        void testSearch()throws Exception{
            SearchRequest request=new SearchRequest("lucas_index");
            //构建搜索的条件
            SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();
    
            //我们可以用QueryBuilders工具来实现
            TermQueryBuilder termQueryBuilder = QueryBuilders.termQuery("name", "lucas1");//匹配的查询条件
            searchSourceBuilder.query(termQueryBuilder);
            searchSourceBuilder.from();
            searchSourceBuilder.size();
            searchSourceBuilder.timeout(new TimeValue(60, TimeUnit.SECONDS));
    
            request.source(searchSourceBuilder);
            SearchResponse response = client.search(request, RequestOptions.DEFAULT);
            SearchHits hits = response.getHits();
            String string = JSON.toJSONString(hits);
            System.out.println(string);
            System.out.println("==============");
            for (SearchHit hit : response.getHits().getHits()) {
                System.out.println(hit.getSourceAsMap());
    
            }
    
        }
    
    }
    

项目地址:https://github.com/LLLLucas/springboot_elasticsearch

你可能感兴趣的:(springboot,ElasticSearch,搜索引擎)