A服务器IP :192.168.0.219 (主)
B服务器IP :192.168.0.119
C服务器IP :192.168.0.109
部署思路
A服务器做为主服务器,域名直接解析到A服务器(192.168.0.219)上,由A服务器负载均衡到B服务器(192.168.0.119)与C服务器(192.168.0.109)上。
在A服务器上,upstream指令——分配负载
vi /etc/nginx/conf.d/default.conf
upstream 192.168.0.219 {
server 192.168.0.119:80;
server 192.168.0.109:80;
}
server {
listen 80;
server_name 192.168.0.219;
charset utf8;
location / {
proxy_pass http://192.168.0.219;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
}
保存重启nginx
在B、C服务器上,
vi /etc/nginx/conf.d/default.conf
server {
listen 80;
server_name 192.168.0.219;
index index.html;
root /usr/share/nginx/html;
}
保存重启nginx
测试
当访问http://192.168.0.219的时候,为了区分是转向哪台服务器处理我分别在B、C服务器下写一个不同内容的index.html文件,以作区分。
打开浏览器访问a.com结果,刷新会发现所有的请求均分别被主服务器(192.168.5.149)分配到B服务器(192.168.0.119)与C服务器(192.168.0.109)上,实现了负载均衡效果。
主服务器不能提供服务吗?
以上例子中,我们都是应用到了主服务器负载均衡到其它服务器上,那么主服务器本身能不能也加在服务器列表中,这样就不会白白浪费拿一台服务器纯当做转发功能,而是也参与到提供服务中来。
怎么解决这个问题呢?因为80端口已经用来监听负载均衡的处理,那么本服务器上就不能再使用80端口来处理192.168.0.219的访问请求,得用一个新的。
于是我们在主服务器中编辑/etc/nginx/conf.d/default.conf,添加以下内容
server {
listen 8080;
server_name 192.168.0.219;
index index.html;
root /usr/share/nginx/html;
}
重启nginx
更多Nginx负载均衡配置相关教程见以下内容:
Nginx负载均衡配置说明 http://www.linuxidc.com/Linux/2016-03/129424.htm
Linux下Nginx+Tomcat负载均衡和动静分离配置要点 http://www.linuxidc.com/Linux/2016-01/127255.htm
Docker+Nginx+Tomcat7配置简单的负载均衡 http://www.linuxidc.com/Linux/2015-12/125907.htm
Nginx负载均衡(主备)+Keepalived http://www.linuxidc.com/Linux/2015-12/126865.htm
使用Nginx作为负载均衡器 http://www.linuxidc.com/Linux/2015-12/125789.htm
CentOS环境下Nginx实现3台虚拟机负载均衡 http://www.linuxidc.com/Linux/2015-12/125875.htm
Nginx反向代理负载均衡群集实战 http://www.linuxidc.com/Linux/2015-08/122111.htm
Nginx 的详细介绍:请点这里
Nginx 的下载地址:请点这里
本文永久更新链接地址:http://www.linuxidc.com/Linux/2015-12/125875.htm