ES的版本7.8.0
Elasticsearch 是一个分布式、可扩展、近乎实时搜索与数据分析的引擎。它和Solr一样是基于lucene进行封装的搜索引擎,能够进行近乎实时的全文检索和结构化数据的实时统计。下面主要围绕全文检索这个功能来展开。
要想体验下Elasticsearch
的功能则需要先在服务器上安装好软件,这里就简单说说安装的步骤,首先需要在服务器上面安装好JDK8以上的版本
,下面介绍安装Elasticsearch
步骤
# 下载
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.8.0-linux-x86_64.tar.gz
# 解压tar包
tar -xzvf elasticsearch-7.8.0-linux-x86_64.tar.gz
# 编辑文件
vim /etc/security/limits.conf
# 新增下面的参数,如果有的话需要修改,然后保存退出
* soft nofile 65536
* hard nofile 131072
* soft nproc 2048
* hard nproc 4096
vim /etc/sysctl.conf
#新增
vm.max_map_count = 262144
# 保存文件推出并执行下面的命令加载参数
sysctl -p
# 集群名称,后续会用到这里先配置
cluster.name: es-frank
# 节点名称
node.name: es-node1
# 数据文件 index 的目录
path.data: /usr/local/app/elasticsearch-7.9.0/data
# 运行日志的目录
path.logs: /usr/local/app/elasticsearch-7.9.0/logs
# 绑定的ip,0.0.0.0监听所有的ip
network.host: 0.0.0.0
# http的端口
http.port: 9200
# 集群初始master节点,跟上面的 node.name保持一致即可
cluster.initial_master_nodes: ["es-node1"]
jvm.opitions
,修改启动时候内存配置,默认-Xms2g -Xmx2g
,如果土豪机器另当别论esuser
,因为ES
不能用root用户启动,# 创建用户
useradd esuser
# 在es安装目录,给所有的目录授予esuser用户的读写执行 rwx 的权限
chown -R esuser *
IK
分词器,因为默认情况ES对英文是按照单词来分词,中文是按照一个字符来分词,而且不能定制自己的词汇。具体的配置可以参考IK中文分词,需要注意要按照本地的ES的版本来按照分词器su esuser
,cd到ES的安装目录,第一次执行./bin/elasticsearch
观察控制台的日志看是否有报错,后续启动可以使用./bin/elasticsearch -d
让进程在后台运行。启动完成后在浏览器访问应用http://ip:9200/
其中ip是服务器的IP,根据自己的IP配置即可,如果能够返回类似下面的信息则说明启动成功{
"name" : "es-node2",
"cluster_name" : "frank-es-cluster",
"cluster_uuid" : "Vkb9d3KIRVKYny7y3mHuAw",
"version" : {
"number" : "7.8.0",
"build_flavor" : "default",
"build_type" : "tar",
"build_hash" : "757314695644ea9a1dc2fecd26d1a43856725e65",
"build_date" : "2020-06-14T19:35:50.234439Z",
"build_snapshot" : false,
"lucene_version" : "8.5.1",
"minimum_wire_compatibility_version" : "6.8.0",
"minimum_index_compatibility_version" : "6.0.0-beta1"
},
"tagline" : "You Know, for Search"
}
jps
获取进程号,然后kill
掉本着好读书不求甚解的原则,这里先来探索下API的使用,后面再来大致下解析下索引的结构和原理,这里的一些例子只是点到为止,如果大家要深入学习需要结合官网和平常在实践过程中的不断积累来对各个API有更加深入的理解,废话不多说操起Postman
开拔。
索引
同时创建映射
Mapping(我这里安装了IK
分词器),下面单独当然也可以单独的创建索引和创建映射// 单独创建的方式
// 单独创建创建索引
PUT http://localhost:9202/product1
// 单独创建创建映射Mapping
PUT http://localhost:9202/product1/_mapping
// 同时创建索引和映射
PUT http://localhost:9202/product
{
"settings": {
"index": {
"number_of_shards": 3,
"number_of_replicas": 1
}
},
"mappings": {
"properties": {
"id": {
"type": "long"
},
"prod_id": {
"type": "long"
},
"prod_name": {
"type": "text",
"analyzer": "ik_max_word"
},
"price": {
"type": "float"
},
"prod_desc": {
"type": "text",
"analyzer": "ik_max_word"
},
"stock": {
"type": "integer"
},
"create_date": {
"type": "date"
}
}
}
}
_id
为1,下面展示的创建一条数据,可以多创建几条数据。POST http://localhost:9202/product/_doc/1
{
"id":1,
"prod_id":1001,
"prod_name":"真我Q2",
"prod_desc":"realme 真我Q2 4800万像素 120Hz畅速屏 双5G天玑800U 冲浪蓝孩 6GB+128GB 30W闪充 手机 OPPO提供售后支持",
"price":1238,
"stock":1000,
"create_date":"2021-03-10"
}
_id
的属性// 更新文档为5的记录
POST http://localhost:9202/product/_doc/5/_update
{
"doc":{
"stock":1701
}
}
// 删除 _id 为5的记录
DELETE http://localhost:9202/product/_doc/5
多个条件同时满足,相当于and
),should(多个条件相当于用or连接
),must_not(多个条件都不能满足
),filter(过滤掉不符合条件的数据多个条件
),前面的关键字都是数组查询。通过指定boost
来提高排名,使得某个查询结果能够展示在结果的前面(跟竞价排名类似)。must
和multi_match
区别:must
是每个查询条件必须同时满足,multi_match
是多个字段中有个满足即可查询出结果# must+boost查询示例
POST /product/_search
{
"query":{
"bool":{
"should":[
{
"match":{
"prod_name": {
"query": "小米Note9",
"boost": "50"
}
}
},
{
"match":{
"prod_name": {
"query": "小米9A",
"boost": "30"
}
}
}
]
}
}
}
影响性能
。可以通过scroll
来优化分页,scroll
通过生成镜像的方式来支持大数据量的查询处理,可用于导出查询# 分页+排序+返回特定的字段。查询条件可以自己指定
POST /product/_search
{
"query":{
"match_all":{
}
},
"sort":{
"price":"asc",
"stock":"asc"
},
"from": 0,
"size": 10,
"_source":["id", "prod_name", "price"]
}
# scroll查询,第一次查询生成镜像数据,后面根据生成的数据继续查询,注意后面的scroll_id是上次查询你返回的scroll_id,相当于一个游标,每次都要携带
# 第一次查询通过scroll的方式查询,3m表示镜像保存三分钟,body中的size表示每个镜像的大小
POST /product/_search?scroll=3m
{
"query":{
"match_all":{
}
},
"size": 2
}
# 第二次查询通过 scroll 查询,携带上次的scroll_id,这样性能上有很大的提升
POST /_search/scroll
{
"scroll_id": "FGluY2x1ZGVfY29udGV4dF91dWlkDnF1ZXJ5VGhlbkZldGNoAxRxRTRKSUhnQkEwWldSRjk2b0lxcgAAAAAAAABnFlNMWnlNVzVWVG91NjcyMW5aTlZOUFEUcVU0SklIZ0JBMFpXUkY5Nm9JcXMAAAAAAAAAaBZTTFp5TVc1VlRvdTY3MjFuWk5WTlBRFHFrNEpJSGdCQTBaV1JGOTZvSXF0AAAAAAAAAGkWU0xaeU1XNVZUb3U2NzIxblpOVk5QUQ==",
"scroll": "3m"
}
POST http://localhost:9201/product/_search
{
"query":{
"match_phrase":{
"prod_name":{
"query": "小米9A",
"slop": 4
}
}
}
}
ES
中做聚合操作和大数据量的分页是要尽量避免的,因为针对ES
的分片结构,需要冲每个分片中获取最大的数据量来进行排序然后得出结果,这样需要大量的内存和计算,影响ES
的性能,聚合操作尽量在生成Index
的时候就写好# 查询平均数据
POST /product/_search
{
"aggs":{
"avg_price": {
"avg": {
"field": "price"
}
}
}
}
Index
有了一个大致的印象了,那Index
到底是什么结果呢?
Index
相当于数据库的表,一个索引相当于一个表,Type
,7.x版本这个已经弱化了,有一个默认的_doc
,后面的版本会删掉这个功能Mapping
,定义了Index的结果,各个属性的类型,是否是关键字,分词类型,相当于表结构Field
,Index
中的每一个字段,相当于表的字段Document
,一个文档就是一条记录,相当于数据库的一条记录Canal提供增量数据的订阅和消费,代码开源在github,详细的介绍可以查看github。总共有三个组件canal.deployer
,canal.adapter
,canal.admin
mysql.cnf
中开启MySQL数据库binlog
#开启 binlog
log-bin=mysql-bin
# 选择行模式
binlog-format=ROW
# 服务器的id,不能和salve_id重复,任何监听的机器都是slave
server_id=1
# 结果是不是on
show variabes like 'log_bin';
# 看binary log的文件信息
show binary logs;
canal1
# 创建用户canal1
create user canal1 identified by 'Canal1@123';
# 给canal1授权访问
GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal1'@'%';
# 刷新权限
flush privileges;
instance.properties
文件conf
├── canal_local.properties
├── canal.properties
├── example
│ ├── instance.properties
# 同步的数据库地址
canal.instance.master.address=127.0.0.1:3306
# 同步的数据库名称密码
canal.instance.dbUsername=canal1
canal.instance.dbPassword=Canal1@123
canal.instance.connectionCharset = UTF-8
# 同步product库的所有表,这里使用了正则表达式
canal.instance.filter.regex=product\\..*
-Xms和-Xmx
配置,如果需要也要修改配置,最后启动canal.developer,查看logs目录下面的服务器日志和example目录下的实例日志看是否启动成功./bin/startup.sh
connector.subscribe(".*\\..*");
,可以改成指定的数据库,例如我们指定的数据库connector.subscribe("product\\..*");
,运行之后出现下面的日志,说明同步成功================>; binlog[mysql-bin.000001:9841] , name[product,es_product] , eventType : INSERT
id : 4 update=true
prod_id : 2004 update=true
prod_name : 测试数据 update=true
prod_desc : 测试数据描述 update=true
price : 3500.0 update=true
stock : 1000 update=true
create_date : 2021-03-16 08:21:50 update=true
canal.adapter
需要使用zookeeper
所以需要先开启zookeeper,可以自行下载zookeeper并启动。需要注意,adapter中配置默认-Xms2g
,修改配置在bin目录的启动脚本startup.sh
canal.adapter
中两个地方的配置文件,如下所示,一个是application.yml
,另外一个新增product.yml
,对应在elasticsearch中创建的product
索引conf/
├── application.yml
├── es7
│ └── product.yml
application.yml
server:
port: 8081
spring:
jackson:
date-format: yyyy-MM-dd HH:mm:ss
time-zone: GMT+8
default-property-inclusion: non_null
canal.conf:
mode: tcp #tcp kafka rocketMQ rabbitMQ
flatMessage: true
zookeeperHosts:
syncBatchSize: 1000
retries: 0
timeout:
accessKey:
secretKey:
consumerProperties:
# canal tcp consumer
canal.tcp.server.host: 127.0.0.1:11111 # canal通讯地址
canal.tcp.zookeeper.hosts: 127.0.0.1:2181
canal.tcp.batch.size: 500
canal.tcp.username:
canal.tcp.password:
srcDataSources:
defaultDS:
url: jdbc:mysql://127.0.0.1:3306/product?useUnicode=true&serverTimezone=GMT
username: root
password: Root@123
canalAdapters:
- instance: example # canal 中实例名称
groups:
- groupId: g1
outerAdapters:
- name: es7 # es7版本
key: productKey
hosts: 81.68.176.190:9201 # canal的ip和端口
properties:
mode: rest # or rest
cluster.name: frank-es-cluster # es集群名称
yml
配置文件dataSourceKey: defaultDS
outerAdapterKey: productKey # 对应application.yml中es配置的key
destination: example
groupId: g1
esMapping:
_index: product
_id: _id
upsert: true
sql: "select id as _id,id,prod_id,prod_name,prod_desc,stock,price,create_date from es_product"
commitBatch: 3000
_id
映射,把表中的id映射到_id
。不然在同步数据的数据的时候会报错./bin/startup.sh
,可以在logs下查看日志看是否启动成功,这个时候可以增加或者修改数据的时候会触发同步操作官方推荐使用Logstash
来同步数据,可以把MySQL、日志数据同步到Elasticsearch。如果内存不够的,配置的时候注意要修改conf
目录下的jvm.options,接下来就是要创建同步的文件了,这里使用Input JDBC
的方式来同步MySQL的数据到ES,前提是先创建好product
索引
logstash-sync.conf
文件,内容如下input {
jdbc {
jdbc_connection_string => "jdbc:mysql://localhost:3306/product?useUnicode=true&characterEncoding=utf-8&useSSL=false&serverTimezone=UTC"
jdbc_user => "root"
jdbc_password => "xxx"
jdbc_driver_library => "/usr/local/app/logstash-7.8.0/sync/mysql-connector-java-8.0.18.jar"
jdbc_driver_class => "com.mysql.jdbc.Driver"
jdbc_paging_enabled => "true"
jdbc_page_size => "10000"
# 脚本执行路径,在sync目录中配置,注意里面的条件updated_at := sql_last_value
statement_filepath => "/usr/local/app/logstash-7.8.0/sync/product.sql"
schedule => "* * * * *"
# 索引类型
type => "_doc"
# 开启记录追踪,上次执行的时间,这个记录会保存到下面指定的文件中去
use_column_value => true
# 跟踪文件的路径,记录最后一次同步 create_date的时间
last_run_metadata_path => "/usr/local/app/logstash-7.8.0/sync/trace_time"
#跟踪的列
tracking_column => "create_date"
tracking_column_type => "timestamp"
#是否清除 last_run_metadata_path 中的内容,不需要清空
clean_run => false
lowercase_column_names => false
}
}
output {
elasticsearch {
# 多个需要写多个地址
hosts => ["127.0.0.1:9200"]
# 索引名称
index => "product"
# 设置document 的id和数据的id一致
document_id => "%{id}"
}
stdout {
codec => json_lines
}
}
logstash-sync.conf
指定了SQL文件,所以这里需要创建statement_filepath
SQL文件,:sql_last_value
跟上面的tracetime中的一致select id,prod_id,prod_name,prod_desc,stock,price,create_date from es_product where create_date > :sql_last_value
mysql-connector-java-8.0.18.jar
复制到logstash-sync.conf
文件中指定的地方./bin/logstash -f sync/logstash-sync.conf
启动同步,-f
参数是指定同步的配置文件,可以观察日志查看同步的情况Elasticsearch
的安装,特别注意文件句柄的调整和jvm.options
文件中内存参数的调整,接下来简述了几个比较重要的API的使用分页
、排序
、排名
、DSL查询
等等,接下来有Elasticsearch和SpringBoot结合后API的使用以及集群,欢迎大家继续关注