实验架构的部署

目录

实验要求

实验环境

1、部署静态页面

2、部署负载均衡

3、搭建动态网页

4、 nginx反向代理

5、部署NFS

7、mysql

安装mysql

安装mha

准备主从复制

 开启mha


 

架构的部署

实验要求

       完成用户访问时虚拟IP由LVS负责高可用,静态交给nginx处理,动态交给tomcat处理,再将数据放入数据库,并对数据库进行mha搭建

实验架构的部署_第1张图片

 

实验环境

主机名 IP地址 安装服务
master01 192.168.247.99 NFS、mysql
slave01 192.168.247.100

nginx-1、tomcat-1、mysql

slave02 192.168.247.110 nginx-2、tomcat-2、mysql
ha01 192.168.247.120 lvs-master
ha02 192.168.247.130 lvs-slave

1、部署静态页面

slave01-nginx-1     slave02-nginx2


 

systemctl stop firewalld 
sentenforce 0
#关闭防火墙及selinux安全验证
yum install epel-release -y
#安装epel源
yum install nginx -y
#安装nginx
systemctl start nginx  
#启动nginx
echo nginx01 test >/usr/share/nginx/html/index.html
echo nginx02 test >/usr/share/nginx/html/index.html
#修改nginx主页内容,nginx01修改为nginx01 test,nginx02修改nginx02 test
curl 192.168.30.12
curl 192.168.30.13
#分别在俩台主机测试能否互相访问到定义的静态内容

 两台节点添加虚拟网卡并设置虚拟IP

添加路由经过虚拟网卡

ifconfig ens33:1 192.168.247.244 netmask 255.255.255.0
route add -host 192.168.247.244 dev ens33:1

编辑内核参数,添加以下内容

vim /etc/sysctl.conf
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
net.ipv4.conf.default.arp_ignore = 1
net.ipv4.conf.default.arp_announce = 2
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2

sysctl -p
#查看参数是否配置完成

实验架构的部署_第2张图片

 

 

2、部署负载均衡

ha01-lvs       ha02-lvs



yum install ipvsadm  -y 
#yum安装ipvsadm服务,即LVS负载均衡的真实服务名
systemctl start ipvsadm.service
#开启ipvsadm服务,此步骤启动服务报错
systemctl status ipvsadm.service>1
cat 1
#将ipvsadm服务启动报错提示导给1文件并查看
ipvsadm-save>/etc/sysconfig/ipvsadm
#报错信息提示是没有/etc/sysconfig/ipvsadm文件,解决方法是将ipvsadm保存到/etc/sysconfig/ipvsadm文件下。

实验架构的部署_第3张图片

 

 

systemctl  restart ipvsadm.service 
#重新启动ipvsadm成功
yum install keepalived.x86_64 -y
#安装keepalived.x86_64
vim /etc/sysctl.conf
#编辑内核文件
添加内容:
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0
#保存退出
sysctl  -p
#查看添加内核内容有则成功
vim keepalived.conf
#编辑配置文件
修改内容:
global_defs模块中
smtp_server 127.0.0.1
#改为127.0.0.1即改为本机
router_id LVS_01
#第一条LVS名称改为LVS_01
   #vrrp_skip_check_adv_addr
   #vrrp_strict
   #vrrp_garp_interval 0
   #vrrp_gna_interval 0
#以上4行安全机制添加#号注释掉
vrrp_instance VI_1 {
    state MASTER
    interface ens33
#修改网卡名

virtual_ipaddress {
        192.168.247.244
    }
#虚拟主机地址改为要配置的虚拟ip,可配置多个,若只写一个将模板的其他2个删除。
virtual_server 192.168.247.244 80 {
#虚拟ip地址改为配置的虚拟ip和web服务端口号
    delay_loop 6
    lb_algo rr
    lb_kind DR
#模式改为DR模式即直连模式
    persistence_timeout 50
    protocol TCP
 
    real_server 192.168.247.100 80 {
#第一台真实ip地址和web服务端口号
        weight 1
        TCP_CHECK {
#添加TCP_check 注意分号前有空格,检测真实服务器健康状态,即检测后端服务器80端口,若不正常则访问其他台服务器
            connect_port 80
#添加连接端口80
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3
        }
    }
    real_server 192.168.247.110 80 {
#第二台真实ip地址和web服务端口号
        weight 1
        TCP_CHECK {
#添加TCP_check 注意分号前有空格,检测真实服务器健康状态,即检测后端服务器80端口,若不正常则访问其他台服务器
            connect_port 80
#添加连接端口80
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3
        }
    }
}
#俩台真实服务器后的所有内容删除即可,修改完成后保存退出。完整配置文件如下图
scp keepalived.conf 192.168.247.130:/etc/keepalived/ 
LVS_02配置文件修改:
#将配置好的配置文件传到LVS_02服务器上
#第一步修改 router_id LVS_02 名称改为LVS_02
#第二步要修改vrrp_instance VI_1模块中的state为BACKUP,interface 改网卡为ens33和priority 90改为比主LVS优先级低的等级
vrrp_instance VI_1 {
    state BACKUP
    interface ens33
    priority 90
#其他不用修改保存即可
systemctl restart ipvsadm  keepalived
#重启服务
ipvsadm  -ln
显示内容:
TCP  192.168.247.244:80 rr persistent 50
  -> 192.168.247.100:80             Route   1      0          0         
  -> 192.168.247.110:80             Route   1      0          1
#查看有2个真实服务器的ip即可,注意二台真实服务器的80端口必须开着才能都检测到

实验架构的部署_第4张图片

 实验架构的部署_第5张图片

实验架构的部署_第6张图片

 

3、搭建动态网页

slave01-tomcat01         slave02-tomcat02



yum install tomcat -y 
systemcat start tomcat
#安装并启动tomcat服务
cd /var/lib/tomcat/webapps
mkdir test
cd test
vim index.jsp
添加动态页面内容:
<%@ page language="java" import="java.util.*" pageEncoding="UTF-8"%>


test


<% out.println("动态页面:test tomcat01");%>
#页面输出内容为test tomcat01,tomcat02服务器上则将01改为02方便查看实验效果


#创建动态资源页面
vim /etc/tomcat/server.xml
#修改主配置文件内容125行,原有内容不需要更改,对比此段内容添加即可


systemctl restart tomcat
#重启服务在本机分别输入192.168.247.100:8080和192.168.247.110:8080测试能否访问到内容

实验架构的部署_第7张图片

 

实验架构的部署_第8张图片

 实验架构的部署_第9张图片

 实验架构的部署_第10张图片

 

4、 nginx反向代理

slave01-nginx01       slave02-nginx02


vim /etc/nginx/conf.d/upstream.conf
#直接在nginx子配置文件夹中创建一个新的子配置文件,因为是yum安装无须在主配置文件中指定子配置文件
文件内容:
upstream nginxtest{
server 192.168.247.100:8080;
server 192.168.247.110:8080;
}
#反向代理模块,将2个tomcat的ip和端口号写入其中,反代模块名称为nginxtest
server {
location / {
		root html; 
		index index.html index.htm;
}
#server模块中的第一个location模块,指定了根为html,支持主页文件类型三个,注意分号结尾
	location  ~ .*\.(gif|jpg|jpeg|png|bmp|swf|css)$ {
	root /usr/share/nginx/html;	
}
#server模块中第二个location模块,配置不区分大小写的任意开头只要以.()括号内的任意一个内容结尾则为静态资源访问/usr/share/nginx/html下的页面
	location ~ .*\.jsp$ {
	proxy_pass http://nginxtest;
	proxy_set_header HOST $host;    
	proxy_set_header X-Real-IP $remote_addr;            
	proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
#server模块中第三个location模块,配置不区分大小写的任意开头只要.jsp结尾就由nginx反向代理模块nginxtest进行处理
}

实验架构的部署_第11张图片

 

动态页面验证

实验架构的部署_第12张图片

实验架构的部署_第13张图片

5、部署NFS

master01


yum install nfs-utils.x86_64 rpcbind -y
#安装软件包
mkdir /share
#创建共享目录
chmod -R 777 /share/
#修改权限
vim /etc/exports
#编辑配置文件
/share *
/share 192.168.91.0/24(rw,sync,no_root_squash)
#共享目录  网段           读写,同步,无root权限
systemctl start rpcbind 
systemctl start nfs
exportfs -v
showmount -e 
#查看本机发布的 NFS 共享目录

 slave节点

将共享目录挂载到本地

vim /etc/fatab

 

 

7、mysql

安装mysql

tee /etc/yum.repos.d/mysql.repo <

查看

cat >/etc/yum.repos.d/mysql.repo <

安装

yum -y install mysql-community-server
systemctl start mysqld
ss -ntap |grep 3306

登录mysql

mysql -u root -p
grep password /var/log/mysqld.log
#过滤出mysql的密码
mysql -u root -p'密码'
#特殊符号用单引号
mysql> alter user root@'localhost' identified by 'Admin@123';
#进去后修改密码
vim /etc/my.cnf
[mysqld]
character-set-server=utf8mb4
#修改字符集

实验架构的部署_第14张图片

 

安装mha

安装

有依赖性用yum安装  需要先安装  epel源

yum install epel-release.noarch -y

 将安装包传到 /opt 下,下载并安装


 主节点需要安装

yum install -y mha4mysql-node-0.58-0.el7.centos.noarch.rpm

yum install -y mha4mysql-manager-0.58-0.el7.centos.noarch.rpm  

#先安装node再装manager


从节点安装

yum install mha4mysql-node-0.58-0.el7.centos.noarch.rpm -y


 在主节点上,基于key验证

ssh-keygen
cd
ssh-copy-id 127.0.0.1
#自己和自己实现免密钥登录

实验架构的部署_第15张图片

 

rsync -a .ssh   192.168.247.100:/root/
rsync -a .ssh   192.168.247.110:/root/
#注意.ssh 后不能加/

建立mha  文件夹  和配置文件

mkdir /etc/mastermha
vim /etc/mastermha/app1.cnf
[server default]
user=mhauser
password=Admin@123
manager_workdir=/data/mastermha/app1/
manager_log=/data/mastermha/app1/manager.log
remote_workdir=/data/mastermha/app1/
ssh_user=root
repl_user=test
repl_password=Admin@123
ping_interval=1
master_ip_failover_script=/usr/local/bin/master_ip_failover
#report_script=/usr/local/bin/sendmail.sh     可以不加
check_repl_delay=0
master_binlog_dir=/data/mysql/


[server1]
hostname=192.168.247.99
candidate_master=1

[server2]
hostname=192.168.247.100
candidate_master=1

[server3]
hostname=192.168.247.110

vim   master_ip_failover

#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';
use Getopt::Long;
my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
my $vip = '192.168.247.188/24';    #设置Virtual IP   此处注释需要删除   *****
my $gateway = '192.168.247.2';     #网关Gateway IP   此处注释需要删除   *****
my $interface = 'ens33';
my $key = "1";
my $ssh_start_vip = "/sbin/ifconfig $interface:$key $vip;/sbin/arping -I $interface -c 3 -s $vip $gateway >/dev/null 2>&1";
my $ssh_stop_vip = "/sbin/ifconfig $interface:$key down";
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);
exit &main();
sub main {
print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";
if ( $command eq "stop" || $command eq "stopssh" ) {
# $orig_master_host, $orig_master_ip, $orig_master_port are passed.
# If you manage master ip address at global catalog database,
# invalidate orig_master_ip here.
my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {
# all arguments are passed.
# If you manage master ip address at global catalog database,
# activate new_master_ip here.
# You can also grant write access (create user, set read_only=0, etc) here.
my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
`ssh $ssh_user\@$orig_master_host \" $ssh_start_vip \"`;
exit 0;
}
else {
&usage();
exit 1;
}
}
# A simple system call that enable the VIP on the new master
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
# A simple system call that disable the VIP on the old_master
sub stop_vip() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}
sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}


mv master_ip_failover  /usr/local/bin/
#脚本文件文件剪切到/usr/local/bin/目录下
chmod +x /usr/local/bin/master_ip_failover 
#添加可执行权限使其可以执行
ifconfig ens33:1 192.168.247.188/24
#MHA配置虚拟ip,主挂掉后虚拟ip到备主上

准备主从复制

master


Master执行:
vim  /etc/my.cnf
[mysqld]          #此行下添加内容,开启主从复制和二进制日志
server_id=99
log-bin=/data/mysql/mysql-bin
skip_name_resolve=1
general_log 
#添加完毕保存退出
mkdir /data/mysql/   -p
#创建二进制日志保存路径文件
chown mysql.mysql /data/ -R
#修改文件夹权限
systemctl restart mysqld
#重启mysql服务
mysql -uroot -pAdmin@123
#登录数据库
show master status;
#查看记录二进制日志位置,一会从配置使用
grant replication slave on *.* to test@'192.168.247.%' identified by 'Admin@123';
#建立复制用户
grant all on *.* to mhauser@'192.168.247.%' identified by 'Admin@123';
#建立mha管理账户
 

实验架构的部署_第16张图片

 

两个slave


vim  /etc/my.cnf
#[mysqld]此行下添加内容,开启主从复制和二进制日志
server_id=100       #两台ID不一样
log-bin=/data/mysql/mysql-bin
relay-log=relay-log-bin
relay-log-index=slave-relay-bin.index
skip_name_resolve=1
general_log 
mkdir /data/mysql/  -p
#创建二进制日志保存路径文件
chown mysql.mysql /data/ -R
#修改文件夹权限
systemctl restart mysqld
#重启mysql服务
mysql -uroot -pAdmin@123
#登录数据库
CHANGE MASTER TO
  MASTER_HOST='192.168.247.99',
  MASTER_USER='test',
  MASTER_PASSWORD='Admin@123',
  MASTER_PORT=3306,
  MASTER_LOG_FILE='mysql-bin.000001',
  MASTER_LOG_POS=154;
#配置master信息
start slave
#开启主从复制
show slave status\G
#查看配置是否成功

实验架构的部署_第17张图片

MHA服务器上检查 mha 环境并启动mha

masterha_check_ssh --conf=/etc/mastermha/app1.cnf
#检查mha的ssh免密登录环境

实验架构的部署_第18张图片

 

masterha_check_repl --conf=/etc/mastermha/app1.cnf
#检查mha主从环境
MySQL Replication Health is OK.
#结尾行出现此信息表示无问题

实验架构的部署_第19张图片

 开启mha

masterha_check_status --conf=/etc/mastermha/app1.cnf
#查看mha状态,默认是停止状态stop
#开启MHA,默认是前台运行,生产环境一般为后台执行
nohup masterha_manager --conf=/etc/mastermha/app1.cnf &> /dev/null 
#非后台需要等待较长时间启动成功,此过程为前台运行,需要重新开一个窗口去查看状态即可
masterha_manager --conf=/etc/mastermha/app1.cnf 

#查看状态
masterha_check_status --conf=/etc/mastermha/app1.cnf 

 

 

 

 

你可能感兴趣的:(mysql,数据库,java)