利用kibana 快照备份es数据库

环境

主机名 ip地址 组件
ambari-hadoop1 192.168.10.101
ambari-hadoop2 192.168.10.102 kibana
ambari-hadoop3 192.168.10.103 es

        这里我们利用共享文件系统,存储快照,所以需要利用到nfs(NFS(Network File System)是一种分布式文件系统协议,允许网络上的计算机通过网络共享文件和目录)。

        备注:但是由于我是单节点只有ambari-hadoop3上有es所以,三节点都做nfs共享文件,只是为了其余两节点能够通过拷贝nfs共享目录下的文件至本地做本地备份。

        setp1:三个节点创建名为user-es,uid为1021(自定义)的用户,确保三节点上的用户名、用户id一致:

利用kibana 快照备份es数据库_第1张图片

 step2:三节点均安装nfs

yum -y install nfs-utils

在ambari-hadoop1上创建要共享的目录/data/es_backup

[root@ambari-hadoop1 ~]# cd /home/
[root@ambari-hadoop1 home]# mkdir ./es_data_backup
[root@ambari-hadoop1 home]# cd ./es_data_backup/
[root@ambari-hadoop1 es_data_backup]# pwd
/home/es_data_backup

利用chmod和chown命令,确保共享目录能被其他节点正常访问 

step3:配置 NFS 服务器: 编辑 NFS 服务器的配置文件 /etc/exports,将共享目录添加到配置中。打开文件并添加以下行:

/data/es_backup *(rw,sync,no_root_squash,no_all_squash)

  • rw: 读写权限。
  • sync: 同步写入,确保数据同步写入到磁盘。
  • no_root_squash: 允许 root 用户以其实际的 UID 和 GID 访问共享。
  • no_all_squash: 不将所有用户映射到匿名用户。

 重启nfs服务,并设置为开机自启

sudo systemctl restart nfs-server
sudo systemctl enable nfs-server

step3:配置nfs客户端,挂载共享目录

在ambari-hadoop2和ambari-hadoop3上安装nfs客户端

yum install nfs-utils

在ambari-hadoop2、ambari-hadoop3节点上创建/hom/es_data_backup目录

均执行挂载命令:

mount -t nfs ambari-hadoop1:/home/es_data_backup /home/es_data_backup

并执行以下命令生效:

sudo mount -a

修改ambari-hadoop3上的es配置文件中path.repo配置项,

 重启es服务

step4:注册存储库

利用kibana 快照备份es数据库_第2张图片

 利用kibana 快照备份es数据库_第3张图片

需要验证状态 

利用kibana 快照备份es数据库_第4张图片

step5:创建快照

利用kibana 快照备份es数据库_第5张图片

利用kibana 快照备份es数据库_第6张图片

利用kibana 快照备份es数据库_第7张图片

创建完策略后,可以看见相关信息并且可以立即执行备份快照策略:

利用kibana 快照备份es数据库_第8张图片

你可能感兴趣的:(kibana,Elasticsearch,elasticsearch,大数据,搜索引擎)