好了,下面我先简单说两句。
之前我们生产用的是elasticsearch5.x ,现在要加一个新版本的elasticsearch7…2.0 ,因此记录以下 elasticsearch7.x 和之前 5.x 的配置有改变的地方。
1、x-pack 在es里自带了,不用另外安装。
2、配置文件中,集群发现有改动
3、不用安装 jdk ,这个版本自带的 openjdk12.0.1
还是老套路,先来个服务器分配
ip | 部署服务 |
---|---|
192.168.7.41 | Elasticsearch |
192.168.7.42 | Elasticsearch、kibana |
192.168.7.43 | Elasticsearch |
以下集群为 masternode 、datanode混用型,masternode 和 datanode 要分开的话,请见别人的文档,我这里目前用不到,就懒得记录了。
一、安装路径还是老地方,各节点解压elasticsearch-7.2.0-linux-x86_64.tar.gz 到 /data/ 目录下,然后整一个系统环境
tar xvf elasticsearch-7.2.0-linux-x86_64.tar.gz -C /data/
cd /data/elasticsearch-7.2.0
echo "* soft nofile 65535" >> /etc/security/limits.conf
echo "* hard nofile 65535" >> /etc/security/limits.conf
echo "vm.max_map_count=262144" >> /etc/sysctl.conf
sysctl -p
jdk环境变量加一下,加es包里自带的。jdk1.8我试了一下,启动不了
cat >> /etc/profile.d/java.sh <
二、各节点修改配置文件 config/elasticsearch.yml ,我书读的少,是个粗人,老的配置文件我直接删除,自个儿写一个
在 192.168.7.41 上
rm -fr config/elasticsearch.yml
cat >> config/elasticsearch.yml <
在 192.168.7.42 上
rm -fr config/elasticsearch.yml
cat >> config/elasticsearch.yml <
在 192.168.7.43 上
rm -fr config/elasticsearch.yml
cat >> config/elasticsearch.yml <
三、各节点修改 config/jvm.options 文件的 -Xms4g 和 -Xmx4g 为服务器的内存一半,我的服务器时 8G 内存,所以这里改成了 4G 。当然,这个值最大不要超过 32G 。
四、每个节点添加完后,先启动主节点。
1、生成TLS 和身份验证,将会在config下生成elastic-certificates.p12文件,将此文件传到其他两个节点的config目录,注意文件权限。
bin/elasticsearch-certutil cert -out config/elastic-certificates.p12 -pass ""
2、启动集群,es 集群不启动,下面的添加密码操作执行不了。每个节点执行(我是在root用户下指定适用 elastic 用户启动的,如果是在elastic 用户下执行,请直接启动)
useradd elastic
chown -R elastic. /data/elasticsearch-7.2.0
su - elastic -c "/data/elasticsearch-7.2.0/bin/elasticsearch -d"
3、创建Elasticsearch 集群密码,有两种方式,使用第二种。在主节点上执行,我所有的密码都设置成了 test_elastic
第一种: bin/elasticsearch-setup-passwords auto 各用户生成随机密码。
第二种: bin/elasticsearch-setup-passwords interactive 手动定义密码,可以设置如下图所示的用户密码。
bin/elasticsearch-setup-passwords interactive
设置完毕后测试一下密码是否可用
如果不适用用户密码访问,会报错
加上用户密码访问
curl -u "elastic:test_elastic" http://192.168.7.41:9200/_cat/nodes
192.168.7.42 13 96 1 0.00 0.01 0.05 mdi - node_42
192.168.7.41 65 95 10 0.00 0.01 0.05 mdi * node_41
192.168.7.43 68 88 0 0.00 0.01 0.05 mdi - node_43
五、启动kibana-7.2.0-linux-x86_64 ,随便找个节点,我是在 192.168.7.42 启动的kibana,连接了es的 192.168.7.43 节点
下载和此版本es对应的kibana包, kibana-7.2.0-linux-x86_64.tar.gz
1.修改 config/kibana.yml ,elasticsearch.username 和 elasticsearch.password 添写创建 elasticsearch 时创建的用户密码。
vim config/kibana.yml
server.port: 5601
server.host: "192.168.7.42"
elasticsearch.hosts: ["http://192.168.7.43:9200"]
elasticsearch.username: "kibana"
elasticsearch.password: "test_elastic"
2、启动
使用root用户启动
nohup ./bin/kibana --allow-root &
3、浏览器访问kibana,输入用户密码,注意这里要用elastic用户登录,这是默认的管理员用户。elastic test_elastic ,如果用别的用户密码登录会报错。
192.168.7.42:5601
登录后可以看到,监控是自带的。
cluster.name: ES-Cluster
#ES集群名称,同一个集群内的所有节点集群名称必须保持一致
node.name: ES-master-10.150.55.94
#ES集群内的节点名称,同一个集群内的节点名称要具备唯一性
node.master: true
#允许节点是否可以成为一个master节点,ES是默认集群中的第一台机器成为master,如果这台机器停止就会重新选举
node.data: false
#允许该节点存储索引数据(默认开启)
#关于Elasticsearch节点的角色功能详解,请看:https://www.dockerc.com/elasticsearch-master-or-data/
path.data: /data/ES-Cluster/master/ES-master-10.150.55.94/data1,/data/ES-Cluster/master/ES-master-10.150.55.94/data2
#ES是搜索引擎,会创建文档,建立索引,此路径是索引的存放目录,如果我们的日志数据较为庞大,那么索引所占用的磁盘空间也是不可小觑的
#这个路径建议是专门的存储系统,如果不是存储系统,最好也要有冗余能力的磁盘,此目录还要对elasticsearch的运行用户有写入权限
#path可以指定多个存储位置,分散存储,有助于性能提升,以至于怎么分散存储请看详解https://www.dockerc.com/elk-theory-elasticsearch/
path.logs: /data/ES-Cluster/master/ES-master-10.150.55.94/logs
#elasticsearch专门的日志存储位置,生产环境中建议elasticsearch配置文件与elasticsearch日志分开存储
bootstrap.memory_lock: true
#在ES运行起来后锁定ES所能使用的堆内存大小,锁定内存大小一般为可用内存的一半左右;锁定内存后就不会使用交换分区
#如果不打开此项,当系统物理内存空间不足,ES将使用交换分区,ES如果使用交换分区,那么ES的性能将会变得很差
network.host: 10.150.55.94
#es绑定地址,支持IPv4及IPv6,默认绑定127.0.0.1;es的HTTP端口和集群通信端口就会监听在此地址上
network.tcp.no_delay: true
#是否启用tcp无延迟,true为启用tcp不延迟,默认为false启用tcp延迟
network.tcp.keep_alive: true
#是否启用TCP保持活动状态,默认为true
network.tcp.reuse_address: true
#是否应该重复使用地址。默认true,在Windows机器上默认为false
network.tcp.send_buffer_size: 128mb
#tcp发送缓冲区大小,默认不设置
network.tcp.receive_buffer_size: 128mb
#tcp接收缓冲区大小,默认不设置
transport.tcp.port: 9301
#设置集群节点通信的TCP端口,默认就是9300
transport.tcp.compress: true
#设置是否压缩TCP传输时的数据,默认为false
http.max_content_length: 200mb
#设置http请求内容的最大容量,默认是100mb
http.cors.enabled: true
#是否开启跨域访问
http.cors.allow-origin: “*”
#开启跨域访问后的地址限制,*表示无限制
http.port: 9201
#定义ES对外调用的http端口,默认是9200
discovery.zen.ping.unicast.hosts: [“10.150.55.94:9301”, “10.150.55.95:9301”,“10.150.30.246:9301”] #在Elasticsearch7.0版本已被移除,配置错误
#写入候选主节点的设备地址,来开启服务时就可以被选为主节点
#默认主机列表只有127.0.0.1和IPV6的本机回环地址
#上面是书写格式,discover意思为发现,zen是判定集群成员的协议,unicast是单播的意思,ES5.0版本之后只支持单播的方式来进行集群间的通信,hosts为主机
#总结下来就是:使用zen协议通过单播方式去发现集群成员主机,在此建议将所有成员的节点名称都写进来,这样就不用仅靠集群名称cluster.name来判别集群关系了
discovery.zen.minimum_master_nodes: 2 #在Elasticsearch7.0版本已被移除,配置无效
#为了避免脑裂,集群的最少节点数量为,集群的总节点数量除以2加一
discovery.zen.fd.ping_timeout: 120s #在Elasticsearch7.0版本已被移除,配置无效
#探测超时时间,默认是3秒,我们这里填120秒是为了防止网络不好的时候ES集群发生脑裂现象
discovery.zen.fd.ping_retries: 6 #在Elasticsearch7.0版本已被移除,配置无效
#探测次数,如果每次探测90秒,连续探测超过六次,则认为节点该节点已脱离集群,默认为3次
discovery.zen.fd.ping_interval: 15s #在Elasticsearch7.0版本已被移除,配置无效
#节点每隔15秒向master发送一次心跳,证明自己和master还存活,默认为1秒太频繁,
discovery.seed_hosts: [“10.150.55.94:9301”, “10.150.55.95:9301”,“10.150.30.246:9301”]
#Elasticsearch7新增参数,写入候选主节点的设备地址,来开启服务时就可以被选为主节点,由discovery.zen.ping.unicast.hosts:参数改变而来
cluster.initial_master_nodes: [“10.150.55.94:9301”, “10.150.55.95:9301”,“10.150.30.246:9301”]
#Elasticsearch7新增参数,写入候选主节点的设备地址,来开启服务时就可以被选为主节点
cluster.fault_detection.leader_check.interval: 15s
#Elasticsearch7新增参数,设置每个节点在选中的主节点的检查之间等待的时间。默认为1秒
discovery.cluster_formation_warning_timeout: 30s
#Elasticsearch7新增参数,启动后30秒内,如果集群未形成,那么将会记录一条警告信息,警告信息未master not fount开始,默认为10秒
cluster.join.timeout: 30s
#Elasticsearch7新增参数,节点发送请求加入集群后,在认为请求失败后,再次发送请求的等待时间,默认为60秒
cluster.publish.timeout: 90s
#Elasticsearch7新增参数,设置主节点等待每个集群状态完全更新后发布到所有节点的时间,默认为30秒
cluster.routing.allocation.cluster_concurrent_rebalance: 32
#集群内同时启动的数据任务个数,默认是2个
cluster.routing.allocation.node_concurrent_recoveries: 32
#添加或删除节点及负载均衡时并发恢复的线程个数,默认4个
cluster.routing.allocation.node_initial_primaries_recoveries: 32
#初始化数据恢复时,并发恢复线程的个数,默认4个