Elaticsearch
,简称为es
, es
是一个开源的高扩展的分布式全文检索引擎,它可以近乎实时的存储、检
索数据;本身扩展性很好,可以扩展到上百台服务器,处理PB级别(大数据时代)的数据。es
也使用
Java开发并使用Lucene
作为其核心来实现所有索引和搜索的功能,但是它的目的是通过简单的RESTful
API
来隐藏Lucene
的复杂性,从而让全文搜索变得简单。
环境搭建地址: ElasticSearch环境搭建
3.1. 通过docker pull
拉取镜像
docker pull mobz/elasticsearch-head:5
3.2. 启动elasticsearch-head
docker run -p 9100:9100 mobz/elasticsearch-head:5
3.3. 浏览器访问IP:9100
3.4. 链接elasticsearch
3.5. 注意事项
http.cors.enabled: true # 开启跨域
http.cors.allow-origin: "*" # 允许所有源进行访问
3.6. 重启es服务器
连接成功
搭建完成
docker run --restart=no -p 9100:9100 mobz/elasticsearch-head:5
1、索引
2、字段类型(mapping)
3、文档(documents)
elasticsearch是面向文档,关系行数据库 和 elasticsearch 客观的对比!一切都是JSON!
Relational DB | Elasticsearch |
---|---|
数据库(database) | 索引(indices) |
表(tables) | types |
行(rows) | documents |
字段(columns) | fields |
elasticsearch(集群)
中可以包含多个索引(数据库),每个索引中可以包含多个类型(表),每个类型下又包
含多 个文档(行),每个文档中又包含多个字段(列)。
当我们索引一篇文档时,可以通过这样的一各
顺序找到 它: 索引 ▷ 类型 ▷ 文档ID ,通过这个组合我们就能索引到某个具体的文档。 注意:ID不必是整
数,实际上它是个字 符串。
文档就是我们的一条条数据
之前说elasticsearch
是面向文档的,那么就意味着索引和搜索数据的最小单位是文档,elasticsearch
中,文档有几个 重要属性 :
自我包含,一篇文档同时包含字段和对应的值,也就是同时包含key:value
可以是层次型的,一个文档中包含自文档,复杂的逻辑实体就是这么来的! {就是一个json
对象!fastjson
进行自动转换}
灵活的结构,文档不依赖预先定义的模式,我们知道关系型数据库中,要提前定义字段才能使用,在elasticsearch
中,对于字段是非常灵活的,有时候,我们可以忽略该字段,或者动态的添加一个新的字段。
尽管我们可以随意的新增或者忽略某个字段,但是,每个字段的类型非常重要,比如一个年龄字段类
型,可以是字符 串也可以是整形。因为elasticsearch
会保存字段和类型之间的映射及其他的设置。这种映射具体到每个映射的每种类型,这也是为什么在elasticsearch
中,类型有时候也称为映射类型。
类型是文档的逻辑容器,就像关系型数据库一样,表格是行的容器。 类型中对于字段的定义称为映射, 比如name
映射为字符串类型。
我们说文档是无模式的,它们不需要拥有映射中所定义的所有字段, 比如新增一个字段,那么elasticsearch
是怎么做的呢?elasticsearch
会自动的将新字段加入映射,但是这 个字段的不确定它是什么类型,elasticsearch
就开始猜,如果这个值是18,那么elasticsearch
会认为它 是整形。
但是elasticsearch
也可能猜不对, 所以最安全的方式就是提前定义好所需要的映射,这点跟关系型数据库殊途同归了,先定义好字段,然后再使用,别 整什么幺蛾子。
就是数据库!
索引是映射类型的容器,elasticsearch
中的索引是一个非常大的文档集合。索引存储了映射类型的字段 和其他设置。 然后它们被存储到了各个分片上了。 我们来研究下分片是如何工作的。
*elasricsearch
进程,节点可以有多个索引默认primary shard
,又称主分片 ) 构成的,每一个主分片会有一个副本 ( replica shard
,又称复制分片 )上图是一个有3个节点的集群,可以看到主分片和对应的复制分片都不会在同一个节点内,这样有利于某 个节点挂掉 了,数据也不至于丢失。 实际上,一个分片是一个Lucene索引
,一个包含倒排索引的文件目录,倒排索引的结构使 得elasticsearch
在不扫描全部文档的情况下,就能告诉你哪些文档包含特定的关键字。 不过,等等,倒排索引是什 么鬼?
elasticsearch
使用的是一种称为倒排索引的结构,采用 Lucene
倒排索作为底层。这种结构适用于快速的 全文搜索, 一个索引由文档中所有不重复的列表构成,对于每一个词,都有一个包含它的文档列表。 例如,现在有两个文档, 每个文档包含如下内容:
为了创建倒排索引,我们首先要将每个文档拆分成独立的词(或称为词条或者tokens),然后创建一个包 含所有不重 复的词条的排序列表,然后列出每个词条出现在哪个文档 :
Study every day, good good up to forever # 文档1包含的内容
To forever, study every day, good good up # 文档2包含的内容
为了创建倒排索引,我们首先要将每个文档拆分成独立的词(或称为词条或者tokens),然后创建一个包 含所有不重 复的词条的排序列表,然后列出每个词条出现在哪个文档 :
term | doc_1 | doc_2 |
---|---|---|
Study | √ | × |
To | x | × |
every | √ | √ |
forever | √ | √ |
day | √ | √ |
study | × | √ |
good | √ | √ |
every | √ | √ |
to | √ | × |
up | √ | √ |
to | √ | × |
forever | √ | √ |
total | 2 | 1 |
现在,我们试图搜索 to forever
,只需要查看包含每个词条的文档 score
两个文档都匹配,但是第一个文档比第二个匹配程度更高。如果没有别的条件,现在,这两个包含关键 字的文档都将返回。
再来看一个示例,比如我们通过博客标签来搜索博客文章。那么倒排索引列表就是这样的一个结构 :
如果要搜索含有 python
标签的文章,那相对于查找所有原始数据而言,查找倒排索引后的数据将会快的多。只需要 查看标签这一栏,然后获取相关的文章ID即可。完全过滤掉无关的所有数据,提高效率!
elasticsearch
的索引和Lucene的索引对比
在 elasticsearch
中, 索引 (库)这个词被频繁使用,这就是术语的使用。 在 elasticsearch
中,索引被分为多个分片,每份 分片是一个 Lucene
的索引。所以一个 elasticsearch
索引是由多个 Lucene
索引组成的。别问为什么,谁让 elasticsearch
使用 Lucene
作为底层呢! 如无特指,说起索引都是指 elasticsearch
的索引。
接下来的一切操作都在 kibana
中 Dev Tools
下的 Console
里完成。基础操作!
1.创建文件夹
# 递归创建ik文件夹
mkdir /usr/local/docker/ELK/Kibana/ik
# 移动到ik目录
cd /usr/local/docker/ELK/Kibana/ik
2.下载镜像包
wget https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.4.2/elasticsearch-analysis-ik-7.4.2.zip
3.给文件权限
chmod -R 777 ik
4.重启Elasticsearch即可
docker restart elasticsearch
5.使用Kibana
其中 ik_smart 为最少切分
ik_max_word为最细粒度划分!穷尽词库的可能!字典!
发现问题:师文远被拆开了!这种自己需要的词,需要自己加到我们的分词器的字典中!
6.ik分词器
config目录文件解析
xxx.dic # 为ik内置的词库 打开即为一个一个的词
IKAnalyzer.cfg.xml # 这个是 ik 分词器的配置文件
自定义词库
在config目录里新建你的 xxx.pic 文件
打开你新建的文件 直接写入需要的词语
ik词典
7.重启ElasticSearch容器查看运行结果
GET _analyze
{
"analyzer": "ik_smart", # 最少切分
"text": "Redis中国网站" #要切分的文本
}
GET _analyze
{
"analyzer": "ik_max_word", # 最细粒度切分 穷尽词库的可能!字典!
"text": "Redis中国网站" # 要切分的文本
}
通过以上测试结果可以看到 不管是哪种切分方式 都会根据你的词库来进行切分
method | url地址 | 描述 |
---|---|---|
PUT | localhost:9200/索引名称/类型名称/文档id | 创建文档(指定文档id) |
POST | localhost:9200/索引名称/类型名称 | 创建文档(随机文档id) |
POST | localhost:9200/索引名称/类型名称/文档id/_update | 修改文档 |
DELETE | localhost:9200/索引名称/类型名称/文档id | 删除文档 |
GET | localhost:9200/索引名称/类型名称/文档id | 查询文档通过文档id |
POST | localhost:9200/索引名称/类型名称/_search | 查询所有数据 |
1.创建一个索引!
PUT /swy_test/user/1 (/索引名/类型/文档id)
{
"name":"swy",
"age":21
} # 如果这个索引不存在则会自动创建该索引
完成了自动增加了索引!数据也成功的添加了,这就是我说大家在初期可以把它当做数据库学习的原因
那么name
这个字段用不用指定类型呢。毕竟我们关系型数据库 是需要指定类型的啊 !
字符串类型
text 、 keyword
数值类型
long, integer, short, byte, double, float, half_float, scaled_float
日期类型
date
te布尔值类型
boolean
二进制类型
binary
等等…
2.指定字段的类型
PUT /swy # /索引名/类型/文档id
{
"mappings": { # 字段映射
"properties": { # 存放所有字段的属性
"name":{ # 字段1
"type": "text" # 类型
},
"age":{ # 字段 2
"type":"integer" # 类型
},
"birthday":{ # 字段3
"type": "date" # 类型
}
}
}
}
6.1获取es所有的索引信息
通过命令elasticsearch
索引情况! 通过get _cat/ 可以获得es的当前的很多信息!
6.2删除索引
DELETE /swy_test2 # 通过 DELETE请求来删除某个索引
7.1创建文档
PUT /swy/usr/1
{
"name":"swy",
"age":21,
"desc": "一顿操作猛如虎,一看工资2500"
}
7.2获取数据
GET /swy/usr/1
7.3 修改数据
PUT /swy/usr/1
{
"name":"swy",
"age":21,
"desc": "一顿操作猛如虎,一看工资2500",
"js": "Javak开发工程师"
}
7.3.2 POST方式修改
POST /swy/usr/1
{
"name":"swy",
"age":21,
"desc": "一顿操作猛如虎,一看工资2500",
"js": "Javak开发工程师",
"school" : "河南财经政法大学"
}
GET /swy/_search?q=name:swy
2.1 mathc 查询
match query 知道分词器的存在 他会根据分词器进行拆分
如果查询的数据没有在分词器中配置的话 那么就会进行精确查询
分词器中配置了该词的结果
GET /yufire/_doc/_search
{
"query":{
"match":{
"name":"中国中央电视"
}
}
}
2.2结果过滤
GET swy/usr/_search
{
"query": {
"match": {
"name": "swy"
}
}
, "_source": ["name","age","desc","js","school"]
}
2.3 排序
GET /swy/usr/_search
{
"query":{
"match":{
"name":"中央"
}
},
"_source":["age"],
"sort":{
"age":{
"order":"asc"
}
}
}
2.4 分页查询
GET /swy/usr/_search
{
"query":{
"match":{
"name":"中央"
}
},
"_source":["age"],
"sort":{
"age":{
"order":"asc"
}
},
"from":0,
"size":2
}
# limit from,size
2.5 布尔值查询 and
多条件查询
must (and),所有的条件都要符合 where name=xxx1 and age= xxx
GET /swy/usr/_search
{
"query": {
"bool": {
"must": [ # 存放条件的数组
{ # 一个个的条件对象
"match": {
"name": "中央电视台"
}
},
{ # 一个个的条件对象
"match": {
"age": 17
}
}
]
}
}
}
2.6 布尔值查询 or
GET
{
"query": {
"bool": {
"should": [
{
"match": {
"name": "中央电视台"
}
},
{
"match": {
"age": 17
}
}
]
}
}
}
2.7 布尔值查询 not
GET /swy/usr/_search
{
"query": {
"bool": {
"must_not": [
{
"match": {
"age": 17
}
}
]
}
}
}
2.8 过滤器 filter
GET /swy/usr/_search
{
"query": {
"bool": {
"must_not": [
{
"match": {
"age": 17
}
}
],
"filter": {
"range": {
"age": {
"gte": 1,
"lte": 3
}
}
}
}
}
}
2.9 匹配数组
如果文档中的数据有数组的话 可以直接用match关键字进行匹配
GET /swy/usr/_search
{
"query":{
"match":{
"tags":"唱 跳 rap"
}
}
}