使用 Nginx 配置负载均衡

    Nginx 是一款使用非常多的 Web 服务器,经典的 LNMP 中的一份子。当然 Apache 也是非常优秀的一款服务器,功能丰富,属于重量级产品,但是运行时所需的资源更多。而 Nginx 属于轻量级产品,消耗的资源少,支持高并发,所以在进行负载均衡时多会选择使用 Nginx 。接下来讲一下基础的负载均衡的实现,我在阿里云上购买了三台服务器,使用这三台服务器实现负载均衡。

    首先安装 Nginx 服务器,因为我们目前只是配置负载均衡,所以 Mysql,Php 等软件可以先不安装,安装 Nginx 可以参考我的博文Centos7.4 安装LNMP环境进行安装。首先,给这三台机器分别命令,负载均衡服务器为 App,项目服务器分别为 Server1 和 Server2 进行区分。使用 SSH 登录到 Server1 和 Server2,配置 Nginx 的默认首页,我使用的是 Centos7.4 发行版,其他的发行版可能部分操作不同,但是总体的实现思路是一致的。进入 /etc/nginx/conf.d,该目录下会默认存在一个 default.conf 的配置文件,打开进行修改:

server {
    listen       80;
    server_name  default;

    location / {
        root   /www;
        index  index.html index.htm index.php;

    }
}

由于我配置的项目运行目录在 /www 中,所以在根目录中新建 www 目录,在 www 目录中新建 index.html。在里面写入

there is server1

重新启动 Nginx:

$ service nginx restart

使用浏览器访问 Server1 服务器ip


server1

Server2 进行相同的配置,做好标识即可。

接下来配置 App 服务器,也就是负载均衡服务器。打开 /etc/nginx/conf.d/default.conf 进行编辑,作如下配置:

#配置负载均衡服务器,upstream 后面的字符可以自定义
upstream balance {
    # 配置被转发的服务器,其中的 ip 推荐使用内网 ip,可以提高访问速度,weight 为权重,数字越大,权越高,下面的配置代表请求中三分之一分发给第一台服务器,三分之二的请求分发给第二台服务器。
    server server1_ip weight=1;
    server server2_ip weight=2;
}

server {
    #监听的端口
    listen 80;     
    #域名,如果没有域名可以使用ip进行访问
    server_name default / 自己的域名;
        
    location / {
        add_header X-Content-Type-Options nosniff;
        proxy_set_header X-scheme $scheme;
    #作用是我们可以获取到客户端的真实ip
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_set_header Host $http_host;
        proxy_set_header X-Nginx-Proxy true;
        proxy_hide_header X-Powered-By;
        proxy_hide_header Vary;
      
            #重点是这里,将代理转发给上方 upstream 中配置的两台服务器去处理,这里的 http:// 后的值必须和 upstream 后面的值一致
        proxy_pass http://balance;

    }
}

配置完成后保存,重启 Nginx。使用浏览器访问 App 的 ip 地址,我们通过刷新可以看到不同的文字内容。'there is server1' 和 'there is server2',Server2 的内容出现的频率会比 Server1 的多出两倍。到此,最基础的负载均衡就配置完成。

最后,负载均衡有很多的分发方式,默认为轮训方式,即请求按照配置顺序在每个业务服务器中进行跳转。还有权重的方式,上面使用的就是这种方式,请求根据分配的权重进行分发处理。还有 ip_hash 方式,每个请求根据 IP 进行分发访问,后续的请求也会在同一服务器上进行处理,可以很好的解决 Session 的问题。每种方法都有优缺点,需要根据自己的业务场景选择合适的方式。

文章同步发布在我的个人博客中,传送门Hesunfly Blog

你可能感兴趣的:(使用 Nginx 配置负载均衡)