2020系统综合实践 第4次实践作业
一、使用Docker-compose实现Tomcat+Nginx负载均衡
要求:
- 理解nginx反向代理原理;
- nginx代理tomcat集群,代理2个以上tomcat;
- 了解nginx的负载均衡策略,并至少实现nginx的2种负载均衡策略;
参考资料:
- Nginx 配置详解
- Nginx服务器之负载均衡策略
1.nginx反向代理原理及相关概念:
-
反向代理概念:反向代理(Reverse Proxy)方式是指以代理服务器来接受Internet上的连接请求,然后将请求转发给内部网络上的服务器;并将从服务器上得到的结果返回给Internet上请求连接的客户端,此时代理服务器对外就表现为一个服务器。通常的代理服务器,只用于代理内部网络对Internet的连接请求,客户机必须指定代理服务器,并将本来要直接发送到Web服务器上的http请求发送到代理服务器中。当一个代理服务器能够代理外部网络上的主机,访问内部网络时,这种代理服务的方式称为反向代理服务。
-
反向代理服务器的工作原理:反向代理服务器通常有两种模型,它可以作为内容服务器的替身,也可以作为内容服务器集群的负载均衡器。Nginx在做反向代理时,提供性能稳定,并且能够提供配置灵活的转发功能。Nginx可以根据不同的正则匹配,采取不同的转发策略,并且Nginx对返回结果进行错误页跳转,异常判断等。如果被分发的服务器存在异常,他可以将请求重新转发给另外一台服务器,然后自动去除异常服务器。反向代理的原理图如下所示:
-
负载均衡:Nginx提供的负载均衡策略有2种:内置策略和扩展策略。内置策略为轮询,加权轮询,Ip hash等。其中轮询和加权轮询的算法实现如下所示:
2.nginx代理tomcat集群,代理2个以上tomcat:
2.编写相关配置文件:
首先使用的是轮询算法(默认情况下),具体配置内容如下:
- default.conf:
#使用轮询策略
upstream tomcats {
server cyk_tomcat1:8080;
server cyk_tomcat2:8080;
server cyk_tomcat3:8080;
}
server {
listen 2430;
server_name localhost;
location / {
proxy_pass http://tomcats; # 请求转向tomcats
}
}
- docker-compose.yml:
version: "3.8"
services:
nginx:
image: nginx
container_name: cyk_ngx
ports:
- 80:2430
volumes:
- ./nginx/default.conf:/etc/nginx/conf.d/default.conf # 挂载配置文件
depends_on:
- tomcat01
- tomcat02
- tomcat03
tomcat01:
image: tomcat
container_name: cyk_tomcat1
volumes:
- ./tomcat01:/usr/local/tomcat/webapps/ROOT # 挂载web目录
tomcat02:
image: tomcat
container_name: cyk_tomcat2
volumes:
- ./tomcat02:/usr/local/tomcat/webapps/ROOT
tomcat03:
image: tomcat
container_name: cyk_tomcat3
volumes:
- ./tomcat03:/usr/local/tomcat/webapps/ROOT
- index.html:
It is the tomcat 1! #为tomcat01文件夹下的index.html
It is the tomcat 2! #为tomcat02文件夹下的index.html
It is the tomcat 3! #为tomcat03文件夹下的index.html
3.在编写相关配置文件后,进入Tomcat文件夹下打开终端开始构建容器,如下所示:
sudo docker-compose up -d --build
在浏览器访问localhost可看到相关页面,并且刷新页面可看到结果会轮询:
3.实现nginx的2种负载均衡策略:
- 使用轮询策略测试负载均衡:
创建py文件test1.py来进行测试:
import requests
url = 'http://localhost'
for i in range(1,10):
response=requests.get(url)
print(response.text)
执行test1.py可发现是三个tomcat服务器是轮流执行的,即三个服务器出现的频率是一样的,如下所示:
- 使用权重策略测试负载均衡:
先更改default.conf文件:
#使用权重策略
upstream tomcats {
server cyk_tomcat1:8080 weight=2; #weight后面的数字表示权重
server cyk_tomcat2:8080 weight=4; #tomcat的默认端口号为8080
server cyk_tomcat3:8080 weight=6;
}
server {
listen 2430;
server_name localhost;
location / {
proxy_pass http://tomcats; #请求转向tomcats
}
}
重新构建容器并将容器重启一下:
sudo docker-compose up -d --build
在浏览器访问localhost,可看到tomcat3服务器出现的频率更高:
由于tomcat3所占的权重比较大,因此其出现的频率比较高,其次是tomcat2,出现频率最低的是tomcat1。
二、使用Docker-compose部署javaweb运行环境
要求:
- 分别构建tomcat、数据库等镜像服务;
- 成功部署Javaweb程序,包含简单的数据库操作;
- 为上述环境添加nginx反向代理服务,实现负载均衡。
参考资料:
- 使用docker-compose部署Javaweb项目
- tomcat+nginx-mysql
由于对javaweb程序的部署不是很懂,因此这里使用了老师给的javaweb参考项目。
2.编写相关配置文件:
- docker-compose.yml:
version: "3" #版本
services: #服务节点
tomcat: #tomcat 服务
image: tomcat #镜像
hostname: hostname #容器的主机名
container_name: tomcat00 #容器名
ports: #端口
- "5050:8080"
volumes: #数据卷
- "./webapps:/usr/local/tomcat/webapps"
- ./wait-for-it.sh:/wait-for-it.sh
networks: #网络设置静态IP
webnet:
ipv4_address: 15.22.0.15
mymysql: #mymysql服务
build: . #通过MySQL的Dockerfile文件构建MySQL
image: mymysql:test
container_name: mymysql
ports:
- "3309:3306"
#红色的外部访问端口不修改的情况下,要把Linux的MySQL服务停掉
#service mysql stop
#反之,将3306换成其它的
command: [
'--character-set-server=utf8mb4',
'--collation-server=utf8mb4_unicode_ci'
]
environment:
MYSQL_ROOT_PASSWORD: "123456"
networks:
webnet:
ipv4_address: 15.22.0.6
nginx:
image: nginx
container_name: "nginx-tomcat"
ports:
- 8080:8080
volumes:
- ./default.conf:/etc/nginx/conf.d/default.conf # 挂载配置文件
tty: true
stdin_open: true
networks:
webnet:
ipv4_address: 15.22.0.7
networks: #网络设置
webnet:
driver: bridge #网桥模式
ipam:
config:
-
subnet: 15.22.0.0/24 #子网
- default.conf:
upstream tomcat123{
server tomcat00:8080;
}
server {
listen 8080;
server_name localhost;
location / {
proxy_pass http://tomcat123;
}
}
- docker-entrypoint.sh:
#!/bin/bash
mysql -uroot -p123456 << EOF
source /usr/local/grogshop.sql;
- dockerfile:
# 这个是构建MySQL的dockerfile
FROM registry.saas.hand-china.com/tools/mysql:5.7.17
# mysql的工作位置
ENV WORK_PATH /usr/local/
# 定义会被容器自动执行的目录
ENV AUTO_RUN_DIR /docker-entrypoint-initdb.d
#复制gropshop.sql到/usr/local
COPY grogshop.sql /usr/local/
#把要执行的shell文件放到/docker-entrypoint-initdb.d/目录下,容器会自动执行这个shell
COPY docker-entrypoint.sh $AUTO_RUN_DIR/
#给执行文件增加可执行权限
RUN chmod a+x $AUTO_RUN_DIR/docker-entrypoint.sh
# 设置容器启动时执行的命令
#CMD ["sh", "/docker-entrypoint-initdb.d/import.sh"]
其他项目文件可参考老师所给的javaweb项目。
3.查看本机IP地址并修改连接数据库的IP:
-
通过命令ifconfig -a查看本机ip地址,ens32对应的IP(192.168.37.139)即为本机IP(当然也可通过虚拟机的连接信息来查看到本机的IP地址):
-
修改jdbc.properties文件对应的ip地址和对应的端口号:
vim ~/javaweb/webapps/ssmgrogshop_war/WEB-INF/classes/jdbc.properties
4.进入javaweb文件夹,打开终端来构建相应容器:
sudo docker-compose up -d
构建容器成功后,即可通过浏览器访问前端页面:
http://127.0.0.1:8080/ssmgrogshop_war
使用相关账号登录后即可进行简单的数据库操作:
5.添加nginx反向代理服务,实现负载均衡:
- 修改default.conf配置文件:
upstream tomcats{
server tt1:8080 ;
server tt2:8080 ;
server tt3:8080 ;
}
server {
listen 2508;
server_name localhost;
location / {
root /usr/share/nginx/html;
index index.html index.htm;
proxy_pass http://tomcats;
}
}
- 修改docker-compose.yml文件,新增如下内容:
tomcat01:
image: tomcat
hostname: hostname
container_name: tomcat01
ports:
- "5051:8080" #后面访问网页的时候要选择对应的端口号5050
volumes: #数据卷
- "./webapps:/usr/local/tomcat/webapps"
- ./wait-for-it.sh:/wait-for-it.sh
networks: #网络设置静态IP
webnet:
ipv4_address: 15.22.0.16
tomcat02:
image: tomcat
hostname: hostname
container_name: tomcat02
ports:
- "5052:8080" #后面访问网页的时候要选择对应的端口号5050
volumes: #数据卷
- "./webapps:/usr/local/tomcat/webapps"
- ./wait-for-it.sh:/wait-for-it.sh
networks: #网络设置静态IP
webnet:
ipv4_address: 15.22.0.17
nginx:
depends_on:
- tomcat00
- tomcat01
- tomcat02
- 重新构建容器,并通过浏览器查看结果:
sudo docker-compose up -d
重新运行容器后,可以发现在三个端口下都可以访问nginx,说明实现了负责均衡:
三、使用Docker搭建大数据集群环境
直接用机器搭建Hadoop集群,会因为不同机器配置等的差异,遇到各种各样的问题;也可以尝试用多个虚拟机搭建,但是这样对计算机的性能要求比较高,通常无法负载足够的节点数;使用Docker搭建Hadoop集群,将Hadoop集群运行在Docker容器中,使Hadoop开发者能够快速便捷地在本机搭建多节点的Hadoop集群。
要求:
- 完成hadoop分布式集群环境配置,至少包含三个节点(一个master,两个slave);
- 成功运行hadoop 自带的测试实例。
参考资料:
- Hadoop 参考文档
- 使用Docker搭建Hadoop分布式集群
1.搭建hadoop环境:
- 这里所使用的hadoop环境为:
ubuntu 18.04 LST
openjdk 1.8
hadoop 3.1.3
- 先拉取一个ubantu镜像(这里使用的是18.04版本):
sudo docker pull ubuntu:18.04
Dockerfile:
#Base images 基础镜像
FROM ubuntu:18.04
#MAINTAINER 维护者信息
MAINTAINER cyk2430
COPY ./sources.list /etc/apt/sources.list
source.list(改文件用于将镜像换源以提高速度):
# 默认注释了源码镜像以提高 apt update 速度,如有需要可自行取消注释
deb http://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal main restricted universe multiverse
# deb-src http://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal main restricted universe multiverse
deb http://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-updates main restricted universe multiverse
# deb-src http://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-updates main restricted universe multiverse
deb http://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-backports main restricted universe multiverse
# deb-src http://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-backports main restricted universe multiverse
deb http://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-security main restricted universe multiverse
# deb-src http://mirrors.tuna.tsinghua.edu.cn/ubuntu/ focal-security main restricted universe multiverse
- 创建并运行容器:
sudo docker build -t ubuntu:18.04 .
sudo docker run -it --name cyk_ ubuntu ubuntu:18. 04
2.对创建的容器进行初始化:
- 更新系统软件源:
apt-get update
- 安装vim:
apt-get install vim
- 安装ssh(在开启分布式Hadoop时,需要用到ssh连接slave):
apt-get install ssh
安装成功后开启sshd服务器:
/etc/init.d/ssh start
把启动命令写进~/.bashrc文件,实现进入Ubuntu系统时,都能自动启动sshd服务:
vim ~/.bashrc #通过vim修改bashrc文件
/etc/init.d/ssh start #在文件的最后一行添加此项内容
- 实现ssh无密码登陆:
获取密钥:
ssh-keygen -t rsa #用于获取密钥,执行后一直按回车键即可
免密登入sshd:
cd ~/.ssh
cat id_rsa.pub >> authorized_keys #这一步要在~/.ssh目录下进行
- 安装JDK:
1.下载java8版本:
apt install openjdk-8-jdk
2.安装成功后需要配置环境变量:
先打开配置文件:
vim ~/.bashrc #打开配置文件
在文件末尾添加以下两行,配置Java环境变量:
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/
export PATH=$PATH:$JAVA_HOME/bin
使配置环境生效:
source ~/.bashrc # 使.bashrc生效
查看java版本:
java -version
- 新打开一个终端,进行存档,以将该容器保存为镜像(可先查看当前正在运行的容器,然后获得刚刚使用的容器ID,以便对其存档):
sudo docker commit 55867a9bd8f9 ubuntu/ jdk8
- 安装Hadoop:
先下载好Hadoop,这里下载的是3.1.3的版本,然后通过cp复制到挂载的文件目录下,解压文件,并验证安装。具体步骤如下所示(其中第一步在桌面新开个终端运行,其余步骤在容器内运行):
1.挂载~/build目录,实现文件共享:
sudo docker run -it -v /home/cyk/build:/root/build --name ubuntu-jdk8 ubuntu/jdk8
2.通过cp将hadoop压缩包复制到挂载的文件目录下:
sudo cp /home/cyk/hadoop/build/hadoop-3.1.3.tar.gz /home/cyk/build
3.解压hadoop压缩包:
tar -zxvf hadoop-3.1.3.tar.gz -C /usr/local
4.验证hadoop是否安装成功:
cd /usr/local/hadoop-3.1.3
./bin/hadoop version
- 配置Hadoop集群:
1.进入配置文件存放目录:
cd /usr/local/hadoop-3.1.3/etc/hadoop #进入配置文件存放目录
2.修改环境变量:
vim hadoop-env.sh
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/ # 在任意位置添加
3.修改core-site.xml:
vim core-site.xml
hadoop.tmp.dir
file:/usr/local/hadoop-3.1.3/tmp
Abase for other temporary directories.
fs.defaultFS
hdfs://master:9000
4.修改hdfs-site.xml:
vim hdfs-site.xml
dfs.replication
1
dfs.namenode.name.dir
file:/usr/local/hadoop-3.1.3/tmp/dfs/name
dfs.datanode.data.dir
file:/usr/local/hadoop-3.1.3/tmp/dfs/data
dfs.permissions.enabled
false
5.修改mapred-site.xml:
vim mapred-site.xml
mapreduce.framework.name
yarn
yarn.app.mapreduce.am.env
HADOOP_MAPRED_HOME=/usr/local/hadoop-3.1.3
mapreduce.map.env
HADOOP_MAPRED_HOME=/usr/local/hadoop-3.1.3
mapreduce.reduce.env
HADOOP_MAPRED_HOME=/usr/local/hadoop-3.1.3
6.修改yarn-site.xml:
vim yarn-site.xml
yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.resourcemanager.hostname
Master
yarn.nodemanager.vmem-pmem-ratio
2.5
7.修改脚本文件:
先进入脚本文件存放目录:
cd /usr/local/hadoop-3.1.3/sbin
对于start-dfs.sh和stop-dfs.sh文件,添加下列参数:
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
对于start-yarn.sh和stop-yarn.sh,添加下列参数:
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
8.打开新的终端保存镜像:
sudo docker commit 容器ID ubuntu/hadoop
- 利用构建好的镜像运行Hadoop集群:
1.开启三个终端分别运行ubuntu/hadoop镜像,分别表示Hadoop集群中的master,slave01和slave02:
# 第一个终端
docker run -it -h master --name master ubuntu/hadoop
# 第二个终端
docker run -it -h slave01 --name slave01 ubuntu/hadoop
# 第三个终端
docker run -it -h slave02 --name slave02 ubuntu/hadoop
2.分别修改/etc/hosts(要注意根据容器的ip地址修改,可先通过vim /etc/hosts来查看容器各自的IP,然后再进行修改):
172.17.0.4 master
172.17.0.5 slave01
172.17.0.6 slave02
3.测试ssh:
在master结点测试ssh是否可以连接到slave01结点:
ssh slave01
在slave01结点测试ssh是否可以连接到master结点:
ssh master
4.在master主机上修改workers:
vim /usr/local/hadoop-3.1.3/etc/hadoop/workers
将里面的localhost替换为如下:
slave01
slave02
5.在master上测试hadoop集群:
cd /usr/local/hadoop-3.1.3
bin/hdfs namenode -format # 格式化文件系统
sbin/start-dfs.sh # 开启NameNode和DataNode服务
sbin/start-yarn.sh
使用jps查看服务是否开启成功:
jps
3.运行hadoop 自带的测试实例:
- 在master终端执行:
bin/hdfs dfs -mkdir -p /user/hadoop/input
bin/hdfs dfs -put ./etc/hadoop/*.xml /user/hadoop/input
bin/hdfs dfs -ls /user/hadoop/input
- 运行示例并在hdfs上的output目录下查看运行结果:
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar grep /user/hadoop/input output 'dfs[a-z.]+'
./bin/hdfs dfs -cat output/* #查看运行结果
四、记录完成作业所花的时间:
项目 | 时间(估算) |
---|---|
Tomcat+Nginx负载均衡 | 2h |
部署javaweb运行环境 | 6h |
用Docker搭建大数据集群环境 | 8h |
写博客 | 4h |
五、记录实验过程的主要问题和解决方法:
整个实验过程中第一部分完成的还是相对顺利,遇到的问题主要是第二部分和第三部分的内容:
1.在第三部分测试ssh时,出现了master结点无法连接到slave01结点的问题,如下所示:
解决办法:通过在班级询问,我知道了出现这个问题的原因主要是我之前忘记设置sshd服务自启动了,后面通过修改bashrc文件实现sshd服务自启动,然后再再commit镜像解决了这个问题。
2.在第三部分使用jps查看服务是否开启成功时,一直无法开启NameNode和DataNode服务,如下所示:
解决办法:这个问题困扰了我超级久,后面在网上查了很多资料,才发现了是之前在修改core-site.xml、hdfs-site.xml等配置文件时,由于配置时不小心出错了所导致了,最后重新将这些文件都配置了一下,然后再保存镜像解决了这个问题。
3.第二部分在构造镜像后,发现能访问到登录页面却一直登录不上那个酒店管理系统,登录时一直超时,后面报了一段错误,如下所示:
解决办法:这个问题在群里很多同学都反应过,有同学说是IP地址和端口号配置不对所导致的,但是我多次重新配了IP地址和端口号还是登录不上。最后我是把之前创建的mymysql等镜像都删了,然后重新修改配置文件(修改后的配置文件就在实验第二部分里),重新构造镜像后就能登录上了。
六、实验感想:
首先,先让我小小的吐槽一下,这次实验的第一部分相对简单,但第二部分和第三部分就真的是做的我自闭了,第三部分我从早上九点一直做到了晚上八点,主要是中间一直出现很多七七八八的问题错误,然后每一个问题都要花很长时间去解决,加上第三部分需要修改很多的配置文件,在这个过程中我就一个不小心,导致后面再测试ssh和测试hadoop集群上一直出错,最后直接返工再来一遍(真是辛酸o(╥﹏╥)o)。第二部分刚开始还算顺利,但最后能访问到登录页面却一直登录不上那个酒店管理系统,看了群里很多同学有和我一样的问题,但是却没有比较有效的办法,还好最后通过删了之前的容器再重新构建容器成功登录了上去,不然心态真的要炸了!虽然过程十分非常的艰辛,但是这次实验带给我的收获真的很多,让我接触和了解了第一个javaweb项目(虽然是老师给的参考,但是让我对其有了初步了解),同时,我还学会了如何使用Docker-compose实现Tomcat+Nginx负载均衡、使用Docker搭建大数据集群环境、部署javaweb运行环境等内容,不仅加深了相关理论基础,动手实践的能力也得到了很大的提高。但还是希望以后的实验能够相对简单一些,不然真的是太难了。。