docker搭建ElasticSearch 5.6.8 集群

一、Elastic Search简介

       Elastic Search:全文检索引擎。它可以快速的存储、搜索和分析海量数据。ElasticSearch是一个分布式搜索框架,提供RestfulAPI,底层基于Lucene,采用多shard(分片)的方式保证数据安全,并且提供自动resharding的功能。

二、搭建ElasticSearch集群

 1、拉取 elasticsearch:5.6.8 镜像  并修改镜像标签

docker pull elasticsearch:5.6.8
docker tag imageId 192.168.140.141:5000/elasticsearch:5.6.8

 2、  创建数据挂在目录(data*)及配置文件目录(config)  并目录777权限

   docker搭建ElasticSearch 5.6.8 集群_第1张图片    

chmod 777 data1 data2 data3

3、开放服务器三个端口(9300,9301,9302)

root@tj007:/data/cloud2/ES/config# firewall-cmd --add-port=9300/tcp
root@tj007:/data/cloud2/ES/config# firewall-cmd --add-port=9301/tcp
root@tj007:/data/cloud2/ES/config# firewall-cmd --add-port=9302/tcp

4、在 config 目录下创建配置文件(es1.yml,es2.yml,es3.yml)

① es1.yml

cluster.name: elasticsearch-cluster
node.name: es-node1
network.bind_host: 0.0.0.0
network.publish_host: 192.168.140.141
http.port: 9200
transport.tcp.port: 9300
http.cors.enabled: true
http.cors.allow-origin: "*"
node.master: true 
node.data: true  
discovery.zen.ping.unicast.hosts: ["192.168.140.141:9300","192.168.140.141:9301","192.168.140.141:9302"]
discovery.zen.minimum_master_nodes: 2

② es2.yml

cluster.name: elasticsearch-cluster
node.name: es-node2
network.bind_host: 0.0.0.0
network.publish_host: 192.168.140.141
http.port: 9201
transport.tcp.port: 9301
http.cors.enabled: true
http.cors.allow-origin: "*"
node.master: true 
node.data: true  
discovery.zen.ping.unicast.hosts: ["192.168.140.141:9300","192.168.140.141:9301","192.168.140.141:9302"]
discovery.zen.minimum_master_nodes: 2

③ es3.yml

cluster.name: elasticsearch-cluster
node.name: es-node3
network.bind_host: 0.0.0.0
network.publish_host: 192.168.140.141
http.port: 9202
transport.tcp.port: 9302
http.cors.enabled: true
http.cors.allow-origin: "*"
node.master: true 
node.data: true  
discovery.zen.ping.unicast.hosts: ["192.168.140.141:9300","192.168.140.141:9301","192.168.140.141:9302"]
discovery.zen.minimum_master_nodes: 2

5、调高JVM线程数限制数量

     ① vim /etc/sysctl.conf

     ②在sysctl.conf中加入 vm.max_map_count=262144 

     ③使其生效:sysctl -p
      注:解决如下错误:
bootstrap checks failed max virtual memory areas vm.max_map_count [65530] likely too low, increase to at least [262144]

6、启动ElasticSearch集群容器

docker run -e ES_JAVA_OPTS="-Xms256m -Xmx256m" -d -p 9200:9200 -p 9300:9300 -v /data/cloud2/ES/config/es1.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /data/cloud2/ES/data1:/usr/share/elasticsearch/data --name ES01 192.168.140.141:5000/elasticsearch:5.6.8
docker run -e ES_JAVA_OPTS="-Xms256m -Xmx256m" -d -p 9201:9201 -p 9301:9301 -v /data/cloud2/ES/config/es2.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /data/cloud2/ES/data2:/usr/share/elasticsearch/data --name ES02 192.168.140.141:5000/elasticsearch:5.6.8
docker run -e ES_JAVA_OPTS="-Xms256m -Xmx256m" -d -p 9202:9202 -p 9302:9302 -v /data/cloud2/ES/config/es3.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /data/cloud2/ES/data3:/usr/share/elasticsearch/data --name ES03 192.168.140.141:5000/elasticsearch:5.6.8


注:设置-e ES_JAVA_OPTS="-Xms256m -Xmx256m" 是因为/etc/elasticsearch/jvm.options 默认jvm最大最小内存是2G,读者启动容器后 可用docker stats命令查看

7、验证集群是否搭建成功
     在浏览器地址栏访问http://192.168.140.141:9200/_cat/nodes?pretty 查看节点状态

     docker搭建ElasticSearch 5.6.8 集群_第2张图片

      注:节点名称带表示为主节点*

8、使用elasticsearch-head前端框架
    ① 拉取前端框架镜像并tag 

docker pull mobz/elasticsearch-head:5
docker tag imageId 192.168.140.141:5000/elasticsearch-head:5

    ② 启动容器

docker run -d -p 9100:9100 --name es-manager  192.168.140.141:5000/elasticsearch-head:5

    ③ 浏览器访问http://192.168.140.141:9100/

      写在最后,这里要多提一点索引分片设置以及副本,官方推荐设置,读者根据自身需要进行修改:
           curl -XPUT ‘http://localhost:9200/_all/_settings?preserve_existing=true’ -d ‘{
              “index.number_of_replicas” : “1”,
              “index.number_of_shards” : “10”
           }’

附录:
1、查看容器内存

      docker stats $(docker ps --format={{.Names}})
2、查看容器日志

      docker logs 容器名/容器ID
3、ElasticSearch配置文件说明

cluster.name: elasticsearch-cluster
node.name: es-node1
#index.number_of_shards: 2
#index.number_of_replicas: 1
network.bind_host: 0.0.0.0
network.publish_host: 192.168.140.141
http.port: 9200
transport.tcp.port: 9300
http.cors.enabled: true
http.cors.allow-origin: "*"
node.master: true 
node.data: true  
discovery.zen.ping.unicast.hosts: ["es-node1:9300","es-node2:9301","es-node3:9302"]
discovery.zen.minimum_master_nodes: 2
注:

cluster.name:用于唯一标识一个集群,不同的集群,其 cluster.name 不同,集群名字相同的所有节点自动组成一个集群。如果                          不配置改属性,默认值是:elasticsearch。

node.name:节点名,默认随机指定一个name列表中名字。集群中node名字不能重复

index.number_of_shards: 默认的配置是把索引分为5个分片

index.number_of_replicas:设置每个index的默认的冗余备份的分片数,默认是1

通过 index.number_of_shards,index.number_of_replicas默认设置索引将分为5个分片,每个分片1个副本,共10个结点。
禁用索引的分布式特性,使索引只创建在本地主机上:
index.number_of_shards: 1
index.number_of_replicas: 0
但随着版本的升级 将不在配置文件中配置而实启动ES后,再进行配置

bootstrap.memory_lock: true 当JVM做分页切换(swapping)时,ElasticSearch执行的效率会降低,推荐把ES_MIN_MEM和ES_MAX_MEM两个环境变量设置成同一个值,并且保证机器有足够的物理内存分配给ES,同时允许ElasticSearch进程锁住内存

network.bind_host: 设置可以访问的ip,可以是ipv4或ipv6的,默认为0.0.0.0,这里全部设置通过

network.publish_host:设置其它结点和该结点交互的ip地址,如果不设置它会自动判断,值必须是个真实的ip地址

同时设置bind_host和publish_host两个参数可以替换成network.host
network.bind_host: 192.168.140.141
network.publish_host: 192.168.140.141
=>network.host: 192.168.140.141

http.port:设置对外服务的http端口,默认为9200

transport.tcp.port: 设置节点之间交互的tcp端口,默认是9300

http.cors.enabled: 是否允许跨域REST请求

http.cors.allow-origin: 允许 REST 请求来自何处

node.master: true 配置该结点有资格被选举为主结点(候选主结点),用于处理请求和管理集群。如果结点没有资格成为主结点,那么该结点永远不可能成为主结点;如果结点有资格成为主结点,只有在被其他候选主结点认可和被选举为主结点之后,才真正成为主结点。

node.data: true 配置该结点是数据结点,用于保存数据,执行数据相关的操作(CRUD,Aggregation);

discovery.zen.minimum_master_nodes: //自动发现master节点的最小数,如果这个集群中配置进来的master节点少于这个数目,es的日志会一直报master节点数目不足。(默认为1)为了避免脑裂,个数请遵从该公式 => (totalnumber of master-eligible nodes / 2 + 1)。 * 脑裂是指在主备切换时,由于切换不彻底或其他原因,导致客户端和Slave误以为出现两个active master,最终使得整个集群处于混乱状态*

discovery.zen.ping.unicast.hosts: 集群个节点IP地址,也可以使用es-node等名称,需要各节点能够解析

你可能感兴趣的:(ElasticSearch)