目录
实验要求
实验环境
1、部署静态页面
2、部署负载均衡
3、搭建动态网页
4、 nginx反向代理
5、部署NFS
7、mysql
安装mysql
安装mha
准备主从复制
开启mha
架构的部署
完成用户访问时虚拟IP由LVS负责高可用,静态交给nginx处理,动态交给tomcat处理,再将数据放入数据库,并对数据库进行mha搭建
主机名 | IP地址 | 安装服务 |
---|---|---|
master01 | 192.168.247.99 | NFS、mysql |
slave01 | 192.168.247.100 | nginx-1、tomcat-1、mysql |
slave02 | 192.168.247.110 | nginx-2、tomcat-2、mysql |
ha01 | 192.168.247.120 | lvs-master |
ha02 | 192.168.247.130 | lvs-slave |
slave01-nginx-1 slave02-nginx2
systemctl stop firewalld
sentenforce 0
#关闭防火墙及selinux安全验证
yum install epel-release -y
#安装epel源
yum install nginx -y
#安装nginx
systemctl start nginx
#启动nginx
echo nginx01 test >/usr/share/nginx/html/index.html
echo nginx02 test >/usr/share/nginx/html/index.html
#修改nginx主页内容,nginx01修改为nginx01 test,nginx02修改nginx02 test
curl 192.168.30.12
curl 192.168.30.13
#分别在俩台主机测试能否互相访问到定义的静态内容
两台节点添加虚拟网卡并设置虚拟IP
添加路由经过虚拟网卡
ifconfig ens33:1 192.168.247.244 netmask 255.255.255.0
route add -host 192.168.247.244 dev ens33:1
编辑内核参数,添加以下内容
vim /etc/sysctl.conf
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
net.ipv4.conf.default.arp_ignore = 1
net.ipv4.conf.default.arp_announce = 2
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
sysctl -p
#查看参数是否配置完成
ha01-lvs ha02-lvs
yum install ipvsadm -y
#yum安装ipvsadm服务,即LVS负载均衡的真实服务名
systemctl start ipvsadm.service
#开启ipvsadm服务,此步骤启动服务报错
systemctl status ipvsadm.service>1
cat 1
#将ipvsadm服务启动报错提示导给1文件并查看
ipvsadm-save>/etc/sysconfig/ipvsadm
#报错信息提示是没有/etc/sysconfig/ipvsadm文件,解决方法是将ipvsadm保存到/etc/sysconfig/ipvsadm文件下。
systemctl restart ipvsadm.service
#重新启动ipvsadm成功
yum install keepalived.x86_64 -y
#安装keepalived.x86_64
vim /etc/sysctl.conf
#编辑内核文件
添加内容:
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0
#保存退出
sysctl -p
#查看添加内核内容有则成功
vim keepalived.conf
#编辑配置文件
修改内容:
global_defs模块中
smtp_server 127.0.0.1
#改为127.0.0.1即改为本机
router_id LVS_01
#第一条LVS名称改为LVS_01
#vrrp_skip_check_adv_addr
#vrrp_strict
#vrrp_garp_interval 0
#vrrp_gna_interval 0
#以上4行安全机制添加#号注释掉
vrrp_instance VI_1 {
state MASTER
interface ens33
#修改网卡名
virtual_ipaddress {
192.168.247.244
}
#虚拟主机地址改为要配置的虚拟ip,可配置多个,若只写一个将模板的其他2个删除。
virtual_server 192.168.247.244 80 {
#虚拟ip地址改为配置的虚拟ip和web服务端口号
delay_loop 6
lb_algo rr
lb_kind DR
#模式改为DR模式即直连模式
persistence_timeout 50
protocol TCP
real_server 192.168.247.100 80 {
#第一台真实ip地址和web服务端口号
weight 1
TCP_CHECK {
#添加TCP_check 注意分号前有空格,检测真实服务器健康状态,即检测后端服务器80端口,若不正常则访问其他台服务器
connect_port 80
#添加连接端口80
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
real_server 192.168.247.110 80 {
#第二台真实ip地址和web服务端口号
weight 1
TCP_CHECK {
#添加TCP_check 注意分号前有空格,检测真实服务器健康状态,即检测后端服务器80端口,若不正常则访问其他台服务器
connect_port 80
#添加连接端口80
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
}
#俩台真实服务器后的所有内容删除即可,修改完成后保存退出。完整配置文件如下图
scp keepalived.conf 192.168.247.130:/etc/keepalived/
LVS_02配置文件修改:
#将配置好的配置文件传到LVS_02服务器上
#第一步修改 router_id LVS_02 名称改为LVS_02
#第二步要修改vrrp_instance VI_1模块中的state为BACKUP,interface 改网卡为ens33和priority 90改为比主LVS优先级低的等级
vrrp_instance VI_1 {
state BACKUP
interface ens33
priority 90
#其他不用修改保存即可
systemctl restart ipvsadm keepalived
#重启服务
ipvsadm -ln
显示内容:
TCP 192.168.247.244:80 rr persistent 50
-> 192.168.247.100:80 Route 1 0 0
-> 192.168.247.110:80 Route 1 0 1
#查看有2个真实服务器的ip即可,注意二台真实服务器的80端口必须开着才能都检测到
slave01-tomcat01 slave02-tomcat02
yum install tomcat -y
systemcat start tomcat
#安装并启动tomcat服务
cd /var/lib/tomcat/webapps
mkdir test
cd test
vim index.jsp
添加动态页面内容:
<%@ page language="java" import="java.util.*" pageEncoding="UTF-8"%>
test
<% out.println("动态页面:test tomcat01");%>
#页面输出内容为test tomcat01,tomcat02服务器上则将01改为02方便查看实验效果
#创建动态资源页面
vim /etc/tomcat/server.xml
#修改主配置文件内容125行,原有内容不需要更改,对比此段内容添加即可
systemctl restart tomcat
#重启服务在本机分别输入192.168.247.100:8080和192.168.247.110:8080测试能否访问到内容
slave01-nginx01 slave02-nginx02
vim /etc/nginx/conf.d/upstream.conf
#直接在nginx子配置文件夹中创建一个新的子配置文件,因为是yum安装无须在主配置文件中指定子配置文件
文件内容:
upstream nginxtest{
server 192.168.247.100:8080;
server 192.168.247.110:8080;
}
#反向代理模块,将2个tomcat的ip和端口号写入其中,反代模块名称为nginxtest
server {
location / {
root html;
index index.html index.htm;
}
#server模块中的第一个location模块,指定了根为html,支持主页文件类型三个,注意分号结尾
location ~ .*\.(gif|jpg|jpeg|png|bmp|swf|css)$ {
root /usr/share/nginx/html;
}
#server模块中第二个location模块,配置不区分大小写的任意开头只要以.()括号内的任意一个内容结尾则为静态资源访问/usr/share/nginx/html下的页面
location ~ .*\.jsp$ {
proxy_pass http://nginxtest;
proxy_set_header HOST $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
#server模块中第三个location模块,配置不区分大小写的任意开头只要.jsp结尾就由nginx反向代理模块nginxtest进行处理
}
动态页面验证
master01
yum install nfs-utils.x86_64 rpcbind -y
#安装软件包
mkdir /share
#创建共享目录
chmod -R 777 /share/
#修改权限
vim /etc/exports
#编辑配置文件
/share *
/share 192.168.91.0/24(rw,sync,no_root_squash)
#共享目录 网段 读写,同步,无root权限
systemctl start rpcbind
systemctl start nfs
exportfs -v
showmount -e
#查看本机发布的 NFS 共享目录
slave节点
将共享目录挂载到本地
vim /etc/fatab
tee /etc/yum.repos.d/mysql.repo <
查看
cat >/etc/yum.repos.d/mysql.repo <
安装
yum -y install mysql-community-server
systemctl start mysqld
ss -ntap |grep 3306
登录mysql
mysql -u root -p
grep password /var/log/mysqld.log
#过滤出mysql的密码
mysql -u root -p'密码'
#特殊符号用单引号
mysql> alter user root@'localhost' identified by 'Admin@123';
#进去后修改密码
vim /etc/my.cnf
[mysqld]
character-set-server=utf8mb4
#修改字符集
安装
有依赖性用yum安装 需要先安装 epel源
yum install epel-release.noarch -y
将安装包传到 /opt 下,下载并安装
主节点需要安装
yum install -y mha4mysql-node-0.58-0.el7.centos.noarch.rpm
yum install -y mha4mysql-manager-0.58-0.el7.centos.noarch.rpm
#先安装node再装manager
从节点安装
yum install mha4mysql-node-0.58-0.el7.centos.noarch.rpm -y
在主节点上,基于key验证
ssh-keygen
cd
ssh-copy-id 127.0.0.1
#自己和自己实现免密钥登录
rsync -a .ssh 192.168.247.100:/root/
rsync -a .ssh 192.168.247.110:/root/
#注意.ssh 后不能加/
建立mha 文件夹 和配置文件
mkdir /etc/mastermha
vim /etc/mastermha/app1.cnf
[server default]
user=mhauser
password=Admin@123
manager_workdir=/data/mastermha/app1/
manager_log=/data/mastermha/app1/manager.log
remote_workdir=/data/mastermha/app1/
ssh_user=root
repl_user=test
repl_password=Admin@123
ping_interval=1
master_ip_failover_script=/usr/local/bin/master_ip_failover
#report_script=/usr/local/bin/sendmail.sh 可以不加
check_repl_delay=0
master_binlog_dir=/data/mysql/
[server1]
hostname=192.168.247.99
candidate_master=1
[server2]
hostname=192.168.247.100
candidate_master=1
[server3]
hostname=192.168.247.110
vim master_ip_failover
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';
use Getopt::Long;
my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
my $vip = '192.168.247.188/24'; #设置Virtual IP 此处注释需要删除 *****
my $gateway = '192.168.247.2'; #网关Gateway IP 此处注释需要删除 *****
my $interface = 'ens33';
my $key = "1";
my $ssh_start_vip = "/sbin/ifconfig $interface:$key $vip;/sbin/arping -I $interface -c 3 -s $vip $gateway >/dev/null 2>&1";
my $ssh_stop_vip = "/sbin/ifconfig $interface:$key down";
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);
exit &main();
sub main {
print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";
if ( $command eq "stop" || $command eq "stopssh" ) {
# $orig_master_host, $orig_master_ip, $orig_master_port are passed.
# If you manage master ip address at global catalog database,
# invalidate orig_master_ip here.
my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {
# all arguments are passed.
# If you manage master ip address at global catalog database,
# activate new_master_ip here.
# You can also grant write access (create user, set read_only=0, etc) here.
my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
`ssh $ssh_user\@$orig_master_host \" $ssh_start_vip \"`;
exit 0;
}
else {
&usage();
exit 1;
}
}
# A simple system call that enable the VIP on the new master
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
# A simple system call that disable the VIP on the old_master
sub stop_vip() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}
sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}
mv master_ip_failover /usr/local/bin/
#脚本文件文件剪切到/usr/local/bin/目录下
chmod +x /usr/local/bin/master_ip_failover
#添加可执行权限使其可以执行
ifconfig ens33:1 192.168.247.188/24
#MHA配置虚拟ip,主挂掉后虚拟ip到备主上
master
Master执行:
vim /etc/my.cnf
[mysqld] #此行下添加内容,开启主从复制和二进制日志
server_id=99
log-bin=/data/mysql/mysql-bin
skip_name_resolve=1
general_log
#添加完毕保存退出
mkdir /data/mysql/ -p
#创建二进制日志保存路径文件
chown mysql.mysql /data/ -R
#修改文件夹权限
systemctl restart mysqld
#重启mysql服务
mysql -uroot -pAdmin@123
#登录数据库
show master status;
#查看记录二进制日志位置,一会从配置使用
grant replication slave on *.* to test@'192.168.247.%' identified by 'Admin@123';
#建立复制用户
grant all on *.* to mhauser@'192.168.247.%' identified by 'Admin@123';
#建立mha管理账户
两个slave
vim /etc/my.cnf
#[mysqld]此行下添加内容,开启主从复制和二进制日志
server_id=100 #两台ID不一样
log-bin=/data/mysql/mysql-bin
relay-log=relay-log-bin
relay-log-index=slave-relay-bin.index
skip_name_resolve=1
general_log
mkdir /data/mysql/ -p
#创建二进制日志保存路径文件
chown mysql.mysql /data/ -R
#修改文件夹权限
systemctl restart mysqld
#重启mysql服务
mysql -uroot -pAdmin@123
#登录数据库
CHANGE MASTER TO
MASTER_HOST='192.168.247.99',
MASTER_USER='test',
MASTER_PASSWORD='Admin@123',
MASTER_PORT=3306,
MASTER_LOG_FILE='mysql-bin.000001',
MASTER_LOG_POS=154;
#配置master信息
start slave
#开启主从复制
show slave status\G
#查看配置是否成功
MHA服务器上检查 mha 环境并启动mha
masterha_check_ssh --conf=/etc/mastermha/app1.cnf
#检查mha的ssh免密登录环境
masterha_check_repl --conf=/etc/mastermha/app1.cnf
#检查mha主从环境
MySQL Replication Health is OK.
#结尾行出现此信息表示无问题
masterha_check_status --conf=/etc/mastermha/app1.cnf
#查看mha状态,默认是停止状态stop
#开启MHA,默认是前台运行,生产环境一般为后台执行
nohup masterha_manager --conf=/etc/mastermha/app1.cnf &> /dev/null
#非后台需要等待较长时间启动成功,此过程为前台运行,需要重新开一个窗口去查看状态即可
masterha_manager --conf=/etc/mastermha/app1.cnf
#查看状态
masterha_check_status --conf=/etc/mastermha/app1.cnf