Elasticsearch(中文译为“弹性搜索”)是一个开源的分布式搜索引擎,它用于全文检索、结构化搜索和分析。它是Elastic公司的一个产品,基于Apache Lucene搜索库构建而成。Elasticsearch提供了一个RESTful API,使其易于集成到各种应用程序中。
该搜索引擎被广泛用于构建实时搜索和分析引擎,适用于各种用例,包括网站搜索、日志和事件数据分析、企业应用程序搜索等。Elasticsearch能够处理大量数据,并在分布式环境中进行水平扩展,使其适用于大规模数据存储和检索。
除了搜索功能外,Elasticsearch还具备聚合、过滤、排序等强大的分析能力。它通常与Logstash(用于数据收集和日志处理)以及Kibana(用于数据可视化和管理)一起使用,构成ELK堆栈,用于全面的日志和事件数据处理。
# 创建docker网络,使elasticsearch和kibana在同一网段
docker network create es-net
# 拉取es镜像,es最后一个7.x版本
docker pull elsaticsearch:7.17.16
# 启动es容器
# -e "ES_JAVA_OPTS=-Xms512m -Xmx512m"设置内存大小
# -e "discovery.type=single-node"设置单机版
# 将数据和插件路径挂载出来
# 设置加入之前创建的网络es-net 暴露9200 9300端口
docker run -d \
--name elasticsearch \
-e "ES_JAVA_OPTS=-Xms512m -Xmx512m" \
-e "discovery.type=single-node" \
-v es-data:/usr/share/elasticsearch/data \
-v es-plugins:/usr/share/elasticsearch/plugins \
--privileged \
--network es-net \
-p 9200:9200 \
-p 9300:9300 \
elasticsearch:7.17.16
启动后访问: http://localhost:9200 可以看到以下信息
{
"name": "758d042e95ca",
"cluster_name": "docker-cluster",
"cluster_uuid": "yPh8v3ySTcCk8lOrTT1aIA",
"version": {
"number": "7.17.16",
"build_flavor": "default",
"build_type": "docker",
"build_hash": "2b23fa076334f8d4651aeebe458a955a2ae23218",
"build_date": "2023-12-08T10:06:54.672540567Z",
"build_snapshot": false,
"lucene_version": "8.11.1",
"minimum_wire_compatibility_version": "6.8.0",
"minimum_index_compatibility_version": "6.0.0-beta1"
},
"tagline": "You Know, for Search"
}
docker inspect elasticsearch
将分词器解压到es-plugins的挂载出来的目录中即可
docker pull kibana:7.17.16
docker run -d \
--name mykibana \
-p 5601:5601 \
--network es-net \
-e "ELASTICSEARCH_HOSTS=http://elasticsearch:9200" \
kibana:7.17.16
安装后,访问 http://localhost:5601
在Dev tools中执行默认的语句,可以得到es详细信息
GET _search
{
"query": {
"match_all": {}
}
}
{
"took" : 6,
"timed_out" : false,
"_shards" : {
"total" : 7,
"successful" : 7,
"skipped" : 0,
"failed" : 0
},
"hits" : {
"total" : {
"value" : 86,
"relation" : "eq"
},
"max_score" : 1.0,
"hits" : [
{
"_index" : ".kibana_7.17.16_001",
"_type" : "_doc",
"_id" : "canvas-workpad-template:workpad-template-061d7868-2b4e-4dc8-8bf7-3772b52926e5",
..........................
执行 GET /
GET /
{
"name" : "758d042e95ca",
"cluster_name" : "docker-cluster",
"cluster_uuid" : "yPh8v3ySTcCk8lOrTT1aIA",
"version" : {
"number" : "7.17.16",
"build_flavor" : "default",
"build_type" : "docker",
"build_hash" : "2b23fa076334f8d4651aeebe458a955a2ae23218",
"build_date" : "2023-12-08T10:06:54.672540567Z",
"build_snapshot" : false,
"lucene_version" : "8.11.1",
"minimum_wire_compatibility_version" : "6.8.0",
"minimum_index_compatibility_version" : "6.0.0-beta1"
},
"tagline" : "You Know, for Search"
}
es | mysql |
---|---|
Index | Database |
DSL | SQL |
Document | Row |
Field | Column |
Mapping | Schema |
mapping属性: 对索引库中文档的约束
创建索引库
PUT /索引库名称
{
"mappings":{
"properties":{
"字段名":{
"type": "text",
"analyzer": "ik_smart"
},
"字段名2":{
"type":"keyword",
"index": "false"
},
"字段名3":{
"type":"object",
"properties":{
"子字段":{
"type":"keyword"
}
}
},
...
}
}
}
PUT /person
{
"mappings": {
"properties": {
"name":{
"type": "text",
"analyzer": "ik_smart"
},
"age":{
"type": "integer",
"index": false
}
}
}
}
响应:
{
"acknowledged" : true,
"shards_acknowledged" : true,
"index" : "person"
}
查询索引库
GET /索引库名
GET /person
删除索引库
DELETE /索引库名
DELETE /zbq
{
"acknowledged" : true
}
修改: 索引库和mapping一旦创建不可修改!!!
但是可以新增新的字段
PUT /person/_mapping
{
"properties": {
"weight": {
"type": "double",
"index": false
}
}
}
新增文档 DSL
POST /索引库名/_doc/文档id
{
"字段1":"value1",
"字段2":"value2",
...
}
POST /person/_doc/1
{
"name":"alex",
"age":12,
"weight":48.20
}
查询文档
GET /索引库名/_doc/文档id
GET /person/_doc/1
删除文档
DELETE /索引库名/_doc/文档id
DELETE /person/_doc/1
修改文档:
分为两种: 全量修改和局部修改
全量修改, 删除原先文档再新增
POST /person/_doc/2
{
"name":"albert",
"age":12,
"weight":48.20
}
局部修改: 只修改指定字段
POST /person/_update/1
{
"doc": {
"age":23
}
}
基本语法:
GET /索引库名/_search
{
"query":{
"查询类型":{
"查询条件":"条件值"
}
}
}
分类:
GET /indexName/_search
{
"query":{
"match_all":{}
}
}
GET /indexName/_search
{
"query":{
"match":{
"字段名": "值"
}
}
}
GET /indexName/_search
{
"query":{
"multi_match":{
"query":"值",
"fields":["字段1","字段2",...]
}
}
}
精确查询: keyword 数值 日期等等类型查询
GET /indexName/_search
{
"query":{
"term":{
"字段名":{
"value":"取值"
}
}
}
}
GET /indexName/_search
{
"query":{
"range":{
"字段名":{
"gte":10,
"lte":20
}
}
}
}
地理查询
GET /indexName/_search
{
"query":{
"geo_bounding_box":{
"字段名":{
"top_left":{
"lat":值1,
"lon":值2
},
"bottom_right":{
"lat":值3,
"lon":值4
}
}
}
}
}
GET /indexName/_search
{
"query":{
"geo_distance":{
"distance":"15km",
"字段名":"经度,纬度"
}
}
}
复合查询
T F = 词条出现次数 文档中词条总数 TF = \frac{词条出现次数}{文档中词条总数} TF=文档中词条总数词条出现次数
一个或多个查询子句组合
GET /indexName/_search
{
"query":{
"bool":{
"must":[
{
全文检索,精确查询,地理查询等
}
],
"must_not":[
{
全文检索,精确查询,地理查询等
}
],
"should":[{}],
"filter":[{}]
}
}
}
默认按照相关度算分排序
可排序字段:
GET /indexName/_search
{
"query":{
"match_all":{}
},
"sort":{
"字段1":"asc / desc",
"字段2":"asc / desc"
}
}
默认返回10条结果
通过from和size返回结果
和mysql中limit a,b 相似
from=10 size=10时,es会查询所有结果再从中截取想要的数据,单点时问题不太突出.当es集群部署时,要将所有的结果先聚合,在内存中排序后截取结果返回.数据量百万千万时非常恐怖的操作.es限制上限为10000条
如果非要获取10000条以后的数据:
es提供了解决方案, search after
GET /indexName/_search
{
"query":{
"match_all":{}
},
"sort":{
"字段1":"asc / desc",
"字段2":"asc / desc"
},
"from": 100,
"size": 10
}
将搜索关键字突出显示
GET /indexName/_search
{
"query":{
"match":{
"字段":"值"
}
},
"highlight":{
"fields":{
"字段1":{
"pre_tags":"",
"post_tags":""
},
"字段2":...
}
}
}
es数据来自mysql
个人机器情况: windows10 物理主机 配置虚拟网卡 ip为 192.168.85.200 网关 192.168.85.2
3台centos7.9.2009 配置静态ip
3台机器ip分别为: 192.168.85.201 192.168.85.202 192.168.85.203
能做到任意节点相互ping通
搭建3节点的es集群:
将下方配置保存为elasticsearch.yml, 挂载数据卷时使用,作为es配置
192.168.85.201:
cluster.name: es
# 当前该节点的名称,每个节点不能重复es-node-1,es-node-2,es-node-3
node.name: es01
# # 当前该节点是不是有资格竞选主节点
node.master: true
# # 当前该节点是否存储数据
node.data: true
# # 设置为公开访问
network.host: 0.0.0.0
# # 设置其它节点和该节点交互的本机器的ip地址,三台各自为
network.publish_host: 192.168.85.201
# # 设置映射端口
http.port: 9200
# # 内部节点之间沟通端口
transport.tcp.port: 9300
#
# # 支持跨域访问
http.cors.enabled: true
http.cors.allow-origin: "*"
#
# # 配置集群的主机地址
discovery.seed_hosts: ["192.168.85.201","192.168.85.202","192.168.85.203"]
# # 初始主节点,使用一组初始的符合主条件的节点引导集群
cluster.initial_master_nodes: ["es01","es02","es03"]
# # 节点等待响应的时间,默认值是30秒,增加这个值,从一定程度上会减少误判导致脑裂
discovery.zen.ping_timeout: 30s
# # 配置集群最少主节点数目,通常为 (可成为主节点的主机数目 / 2) + 1
discovery.zen.minimum_master_nodes: 2
# # 禁用交换内存,提升效率
bootstrap.memory_lock: false
然后使用docker启动容器
docker run --name=es01 -p 9200:9200 -p 9300:9300 \
-e ES_JAVA_OPTS="-Xms512m -Xmx512m" \
-v /root/es/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \
-v es01-data:/usr/share/elasticsearch/data \
-v es01-plugins:/usr/share/elasticsearch/plugins \
--restart=always \
-d elasticsearch:7.17.16
第二台: 192.168.85.202
cluster.name: es
# 当前该节点的名称,每个节点不能重复es-node-1,es-node-2,es-node-3
node.name: es02
# # # 当前该节点是不是有资格竞选主节点
node.master: true
# # # 当前该节点是否存储数据
node.data: true
# # # 设置为公开访问
network.host: 0.0.0.0
# # # 设置其它节点和该节点交互的本机器的ip地址,三台各自为
network.publish_host: 192.168.85.202
# # # 设置映射端口
http.port: 9200
# # # 内部节点之间沟通端口
transport.tcp.port: 9300
# #
# # # 支持跨域访问
http.cors.enabled: true
#
http.cors.allow-origin: "*"
# #
# # # 配置集群的主机地址
discovery.seed_hosts: ["192.168.85.201","192.168.85.202","192.168.85.203"]
# # # 初始主节点,使用一组初始的符合主条件的节点引导集群
cluster.initial_master_nodes: ["es01","es02","es03"]
# # # 节点等待响应的时间,默认值是30秒,增加这个值,从一定程度上会减少误判导致脑裂
discovery.zen.ping_timeout: 30s
# # # 配置集群最少主节点数目,通常为 (可成为主节点的主机数目 / 2) + 1
discovery.zen.minimum_master_nodes: 2
# # # 禁用交换内存,提升效率
bootstrap.memory_lock: false
docker run --name=es02 -p 9200:9200 -p 9300:9300 \
-e ES_JAVA_OPTS="-Xms512m -Xmx512m" \
-v /root/es/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \
-v es02-data:/usr/share/elasticsearch/data \
-v es02-plugins:/usr/share/elasticsearch/plugins \
--restart=always \
-d elasticsearch:7.17.16
第三台: 192.168.85.203
cluster.name: es
# 当前该节点的名称,每个节点不能重复es-node-1,es-node-2,es-node-3
node.name: es03
# # # 当前该节点是不是有资格竞选主节点
node.master: true
# # # 当前该节点是否存储数据
node.data: true
# # # 设置为公开访问
network.host: 0.0.0.0
# # # 设置其它节点和该节点交互的本机器的ip地址,三台各自为
network.publish_host: 192.168.85.203
# # # 设置映射端口
http.port: 9200
# # # 内部节点之间沟通端口
transport.tcp.port: 9300
# #
# # # 支持跨域访问
http.cors.enabled: true
#
http.cors.allow-origin: "*"
# #
# # # 配置集群的主机地址
discovery.seed_hosts: ["192.168.85.201","192.168.85.202","192.168.85.203"]
# # # 初始主节点,使用一组初始的符合主条件的节点引导集群
cluster.initial_master_nodes: ["es01","es02","es03"]
# # # 节点等待响应的时间,默认值是30秒,增加这个值,从一定程度上会减少误判导致脑裂
discovery.zen.ping_timeout: 30s
# # # 配置集群最少主节点数目,通常为 (可成为主节点的主机数目 / 2) + 1
discovery.zen.minimum_master_nodes: 2
# # # 禁用交换内存,提升效率
bootstrap.memory_lock: false
docker run --name=es03 -p 9200:9200 -p 9300:9300 \
-e ES_JAVA_OPTS="-Xms512m -Xmx512m" \
-v /root/es/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \
-v es03-data:/usr/share/elasticsearch/data \
-v es03-plugins:/usr/share/elasticsearch/plugins \
--restart=always \
-d elasticsearch:7.17.16
安装 cerebro https://github.com/lmenezes/cerebro/releases/tag/v0.9.4
启动bin目录下 cerebro.bat
登陆界面连接任意一台即可:
成功界面:
可以看到3个节点工作正常, es02为master节点
使用nginx配置反向代理
在nginx.conf中添加:
upstream es-cluster {
server 192.168.85.201:9200;
server 192.168.85.202:9200;
server 192.168.85.203:9200;
}
server {
listen 8000;
server_name localhost;
location / {
proxy_pass http://es-cluster;
}
}
访问 http://localhost:8000 即可