第12章 Nginx 配置实例

一、Nginx 常用操作命令和配置文件

1、启动命令

在/usr/local/nginx/sbin 目录下执行 ./nginx

2、关闭命令

在/usr/local/nginx/sbin 目录下执行 ./nginx -s stop

3、重新加载命令

在/usr/local/nginx/sbin 目录下执行 ./nginx -s reload

4、nginx.conf 配置文件

nginx 安装目录下,其默认的配置文件都放在这个目录的 conf 目录下,而主配置文件nginx.conf 也在其中,后续对 nginx 的使用基本上都是对此配置文件进行相应的修改。

配置文件中有很多#, 开头的表示注释内容,我们去掉所有以 # 开头的段落,精简之后的内容如下:

#user  nobody;

worker_processes  1;

#error_log  logs/error.log;

#error_log  logs/error.log  notice;

#error_log  logs/error.log  info;

#pid        logs/nginx.pid;

events {

    worker_connections  1024;

}

http {

    include      mime.types;

    default_type  application/octet-stream;

    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '

    #                  '$status $body_bytes_sent "$http_referer" '

    #                  '"$http_user_agent" "$http_x_forwarded_for"';

    #access_log  logs/access.log  main;

    sendfile        on;

    #tcp_nopush    on;

    #keepalive_timeout  0;

    keepalive_timeout  65;

    #gzip  on;

server {

        listen      80;

        server_name  localhost;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        location / {

            root  html;

            index  index.html index.htm;

        }

        #error_page  404              /404.html;

        # redirect server error pages to the static page /50x.html

        #

        error_page  500 502 503 504  /50x.html;

        location = /50x.html {

            root  html;

        }

        # proxy the PHP scripts to Apache listening on 127.0.0.1:80

        #

        #location ~ \.php$ {

        #    proxy_pass  http://127.0.0.1;

        #}

        # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000

        #

        #location ~ \.php$ {

        #    root          html;

        #    fastcgi_pass  127.0.0.1:9000;

        #    fastcgi_index  index.php;

        #    fastcgi_param  SCRIPT_FILENAME  /scripts$fastcgi_script_name;

        #    include        fastcgi_params;

        #}

        # deny access to .htaccess files, if Apache's document root

        # concurs with nginx's one

        #

        #location ~ /\.ht {

        #    deny  all;

        #}

}

    # another virtual host using mix of IP-, name-, and port-based configuration

    #

    #server {

    #    listen      8000;

    #    listen      somename:8080;

    #    server_name  somename  alias  another.alias;

    #    location / {

    #        root  html;

    #        index  index.html index.htm;

    #    }

    #}

    # HTTPS server

    #

    #server {

    #    listen      443 ssl;

    #    server_name  localhost;

    #    ssl_certificate      cert.pem;

    #    ssl_certificate_key  cert.key;

    #    ssl_session_cache    shared:SSL:1m;

    #    ssl_session_timeout  5m;

    #    ssl_ciphers  HIGH:!aNULL:!MD5;

    #    ssl_prefer_server_ciphers  on;

    #    location / {

    #        root  html;

    #        index  index.html index.htm;

    #    }

    #}

}

根据上述文件,我们可以很明显的将 nginx.conf 配置文件分为三部分:

第一部分:全局块

从配置文件开始到 events 块之间的内容,主要会设置一些影响 nginx 服务器整体运行的配置指令,主要包括:配置运行 Nginx 服务器的用户(组)、允许生成的 worker process 数,进程 PID 存放路径、日志存放路径和类型以及配置文件的引入等。

比如上面第一行配置的:

#user  nobody;

worker_processes  1;

#error_log  logs/error.log;

#error_log  logs/error.log  notice;

#error_log  logs/error.log  info;

#pid        logs/nginx.pid;

这是 Nginx 服务器并发处理服务的关键配置,worker_processes 值越大,可以支持的并发处理量也越多,但是会受到硬件、软件等设备的制约。

第二部分:events 块

比如上面的配置:

events {

    worker_connections  1024;

}

events 块涉及的指令主要影响 Nginx 服务器与用户的网络连接,常用的设置包括是否开启对多 work process 下的网络连接进行序列化,是否允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个 word process 可以同时支持的最大连接数等。

上述例子就表示每个 work process 支持的最大连接数为 1024。

这部分的配置对 Nginx 的性能影响较大,在实际中应该灵活配置。

第三部分:http 块

http {

    include      mime.types;

    default_type  application/octet-stream;

    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '

    #                  '$status $body_bytes_sent "$http_referer" '

    #                  '"$http_user_agent" "$http_x_forwarded_for"';

    #access_log  logs/access.log  main;

    sendfile        on;

    #tcp_nopush    on;

    #keepalive_timeout  0;

    keepalive_timeout  65;

    #gzip  on;

server {

        listen      80;

        server_name  localhost;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        location / {

            root  html;

            index  index.html index.htm;

        }

        #error_page  404              /404.html;

        # redirect server error pages to the static page /50x.html

        #

        error_page  500 502 503 504  /50x.html;

        location = /50x.html {

            root  html;

        }

        # proxy the PHP scripts to Apache listening on 127.0.0.1:80

        #

        #location ~ \.php$ {

        #    proxy_pass  http://127.0.0.1;

        #}

        # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000

        #

        #location ~ \.php$ {

        #    root          html;

        #    fastcgi_pass  127.0.0.1:9000;

        #    fastcgi_index  index.php;

        #    fastcgi_param  SCRIPT_FILENAME  /scripts$fastcgi_script_name;

        #    include        fastcgi_params;

        #}

        # deny access to .htaccess files, if Apache's document root

        # concurs with nginx's one

        #

        #location ~ /\.ht {

        #    deny  all;

        #}

}

    # another virtual host using mix of IP-, name-, and port-based configuration

    #

    #server {

    #    listen      8000;

    #    listen      somename:8080;

    #    server_name  somename  alias  another.alias;

    #    location / {

    #        root  html;

    #        index  index.html index.htm;

    #    }

    #}

    # HTTPS server

    #

    #server {

    #    listen      443 ssl;

    #    server_name  localhost;

    #    ssl_certificate      cert.pem;

    #    ssl_certificate_key  cert.key;

    #    ssl_session_cache    shared:SSL:1m;

    #    ssl_session_timeout  5m;

    #    ssl_ciphers  HIGH:!aNULL:!MD5;

    #    ssl_prefer_server_ciphers  on;

    #    location / {

    #        root  html;

    #        index  index.html index.htm;

    #    }

    #}

}

这算是 Nginx 服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。

需要注意的是:http 块也可以包括 http 全局块、server 块。

http 全局块

http 全局块配置的指令包括文件引入、MIME-TYPE 定义、日志自定义、连接超时时间、单链接请求数上限等。

server 块

这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了节省互联网服务器硬件成本。

每个 http 块可以包括多个 server 块,而每个 server 块就相当于一个虚拟主机。

而每个 server 块也分为全局 server 块,以及可以同时包含多个 locaton 块。

**1、全局 server 块**

最常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或 IP 配置。

2、location 块

一个 server 块可以配置多个 location 块。

这块的主要作用是基于 Nginx 服务器接收到的请求字符串(例如 server_name/uri-string),对虚拟主机名称(也可以是 IP 别名)之外的字符串(例如 前面的 /uri-string)进行匹配,对特定的请求进行处理。地址定向、数据缓存和应答控制等功能,还有许多第三方模块的配置也在这里进行。

二、Nginx 配置实例-反向代理

反向代理实例一

实现效果:使用 nginx 反向代理,访问 www.123.com 直接跳转到 127.0.0.1:8080

具体步骤:

1. 安装tomcat

解压缩命令:tar -xvf apache-tomcat-7.0.70.tar.gz

2. 安装jdk(并配置环境变量)

首先查看linux 是否自带jdk

java -version : 如果显示jdk版本号,则说明自带有jdk,无需要额外安装

如果不显示,就需要安装jdk1.8 并配置环境变量:

2.1 下载jdk1.8

下载地址 http://www.oracle.com/technetwork/java/javase/downloads/index.html

往下来拉找到jdk1.8版本的下载地址,点击下载对应的tar.gz文件:

将下载的jdk 压缩包放入 usr/src 下

2.2 解压jdk压缩包

命令:tar -zxvf jdk-8u251-linux-x64.tar.gz

2.3 配置jdk环境变量

键入命令 vim /etc/profile 修改配置文件,记得要在root权限下修改

输入i进入编辑状态,然后将光标移到最后一行(GG最后一行 gg第一行),粘贴如下内容:

JAVA_HOME=/usr/src/jdk1.8.0_251 ##要根据自己的解压目录设置

具体内容如下:

#java environment

export JAVA_HOME=/usr/src/jdk1.8.0_251

export CLASSPATH=.:${JAVA_HOME}/jre/lib/rt.jar:${JAVA_HOME}/lib/dt.jar:${JAVA_HOME}/lib/tools.jar

export PATH=$PATH:${JAVA_HOME}/bin

效果如下:

然后键入命令source /etc/profile 使配置文件生效

2.4 测试安装效果

java -version

显示上图则jdk 配置完成!

3. 启动 tomcat

启动步骤如上图所示,测试访问(这里需要注意,如果访问不成功,就有可能是你的linux 防火墙没有开8080端口,需要修改下防火墙端口配置):

开放端口8080

sudo firewall-cmd --add-port=8080/tcp --permanent

重启防火墙

firewall-cmd –reload

查看已经开放的端口

firewall-cmd --list-all

测试

访问成功!

4. 反向代理访问过程分析

5. 配置反向代理步骤

5.1 本机 host 文件配置

在本机windows 系统的 host 文件进行域名和ip 对应关系的配置。

在hosts文件最后添加如下配置

192.168.88.132 www.123.com #Linux 主机ip 本机配置的域名

浏览器地址栏输入 www.123.com:8080,出现如下界面:

配置完成之后,我们便可以通过 www.123.com:8080 访问到第一步出现的 Tomcat 初始界面。那么如何只需要输入 www.123.com 便可以跳转到 Tomcat 初始界面呢?便用到 nginx的反向代理。

5.2 在 nginx 中进行请求转发配置(反向代理配置)

找到nginx 的配置文件 nginx.conf

[root@bogon bin]# cd /usr/local/nginx/

[root@bogon nginx]# ls

client_body_temp  conf  fastcgi_temp  html  logs  proxy_temp  sbin  scgi_temp  uwsgi_temp

[root@bogon nginx]# cd conf/

[root@bogon conf]# ls

fastcgi.conf      fastcgi_params    koi-utf  mime.types  nginx.conf scgi_params      uwsgi_params      win-utf  fastcgi.conf.default  fastcgi_params.default    koi-win  mime.types.default  nginx.conf.default  scgi_params.default  uwsgi_params.default

[root@bogon conf]# vi nginx.conf

在 nginx.conf 配置文件中增加如下配置:

    server {

        listen      80;

        server_name  192.168.88.132; #nginx访问地址

        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        location / {

            root  html;

            proxy_pass http://192.168.88.132:8080; #转发到目标地址

            index  index.html index.htm;

        }

        #error_page  404              /404.html;

        # redirect server error pages to the static page /50x.html

        #

        error_page  500 502 503 504  /50x.html;

        location = /50x.html {

            root  html;

        }

如上配置,我们监听 80 端口,访问域名为 www.123.com,不加端口号时默认为 80 端口,故访问该域名时会跳转到 192.168.88.132:8080 路径上。

5.3 启动nginx测试

在浏览器端输入 www.123.com 结果如下:

注意:修改完nginx.conf 配置文件后,启动nginx 重新加载一下配置文件 ./nginx -s reload

反向代理成功!

反向代理实例二

实现效果:使用 nginx 反向代理,根据访问的路径跳转到不同端口的服务中

nginx 监听端口为 9001,

访问 http://127.0.0.1:9001/edu/ 直接跳转到 127.0.0.1:8081

访问 http://127.0.0.1:9001/vod/ 直接跳转到 127.0.0.1:8082

反向代理配置步骤

1. 准备两个 tomcat

在usr/src 下建立两个文件夹 tomcat8081 tomcat8082,并在这两个文件夹下放入两个tomcat ,并解压。

创建文件夹命令:mkdir tomcat8081,mkdir tomcat8082

解压命令:tar -xvf apache-tomcat-7.0.70.tar.gz

先查看本机的tomcat是否正在运行:ps -ef|grep tomcat,如果正在运行根据运行的进程id号杀死正在运行的tomcat进程 kill 进程id号:

修改两个tomcat的端口号:一个 8081 端口,一个 8082 端口。

进入tomcat 的conf文件夹下,并vi server.xml,修改内容为如下面标记位置。

 

 

 

 

 

 

 

 

 

 

 

 

   

   

              type="org.apache.catalina.UserDatabase"

              description="User database that can be updated and saved"

              factory="org.apache.catalina.users.MemoryUserDatabaseFactory"

              pathname="conf/tomcat-users.xml" />

 

 

 

   

   

   

   

   

              connectionTimeout="20000"

              redirectPort="8443" />

   

   

   

   

   

 

   

   

   

   

     

     

     

     

       

       

              resourceName="UserDatabase"/>

     

     

            unpackWARs="true" autoDeploy="true">

       

       

       

       

              prefix="localhost_access_log." suffix=".txt"

              pattern="%h %l %u %t "%r" %s %b" />

     

   

 

修改完成后,到bin目录下 ./startup.sh 运行8082端口的tomcat

同理8082端口的tomcat 同样如上配置并运行启动!

2.为两个tomcat 添加页面

向两个tomcat服务器的webapps下分别创建edu 和 文件夹,并将a.html 和 b.html 分别放入这两个文件夹。(注:a.html 和 b.html 自己随便建立一个,里面输入自己想展示的信息,能够区分是来自不同tomcat 服务器即可)

测试访问:

3. nginx.conf配置反向代理

#user  nobody;

worker_processes  1;

#error_log  logs/error.log;

#error_log  logs/error.log  notice;

#error_log  logs/error.log  info;

#pid        logs/nginx.pid;

events {

    worker_connections  1024;

}

http {

    include      mime.types;

    default_type  application/octet-stream;

    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '

    #                  '$status $body_bytes_sent "$http_referer" '

    #                  '"$http_user_agent" "$http_x_forwarded_for"';

    #access_log  logs/access.log  main;

    sendfile        on;

    #tcp_nopush    on;

    #keepalive_timeout  0;

    keepalive_timeout  65;

    #gzip  on;

    server {

        listen      80;

        server_name  192.168.88.132;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        location / {

            root  html;

            proxy_pass http://127.0.0.1:8080;

            index  index.html index.htm;

        }

        #error_page  404              /404.html;

        # redirect server error pages to the static page /50x.html

        #

        error_page  500 502 503 504  /50x.html;

        location = /50x.html {

            root  html;

        }

        # proxy the PHP scripts to Apache listening on 127.0.0.1:80

        #

        #location ~ \.php$ {

        #    proxy_pass  http://127.0.0.1;

        #}

        # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000

        #

        #location ~ \.php$ {

        #    root          html;

        #    fastcgi_pass  127.0.0.1:9000;

        #    fastcgi_index  index.php;

        #    fastcgi_param  SCRIPT_FILENAME  /scripts$fastcgi_script_name;

        #    include        fastcgi_params;

        #}

        # deny access to .htaccess files, if Apache's document root

        # concurs with nginx's one

        #

        #location ~ /\.ht {

        #    deny  all;

        #}

    }

    # another virtual host using mix of IP-, name-, and port-based configuration

    #

        #    fastcgi_param  SCRIPT_FILENAME  /scripts$fastcgi_script_name;

        #    include        fastcgi_params;

        #}

        # deny access to .htaccess files, if Apache's document root

        # concurs with nginx's one

        #

        #location ~ /\.ht {

        #    deny  all;

        #}

    }

    # another virtual host using mix of IP-, name-, and port-based configuration

    # 在这里把注释去掉,添加一个server 端口监听9001

    server {

        listen      9001;

        server_name  192.168.88.132;

# 在下面 配置转发到不同的tomcat 中的内容 格式:~ /项目名/

        location ~ /edu/ {

proxy_pass http://127.0.0.1:8001;

        }


        location ~ /vod/ {

proxy_pass http://127.0.0.1:8002;

        }

    }

    # HTTPS server

    #

    #server {

    #    listen      443 ssl;

    #    server_name  localhost;

    #    ssl_certificate      cert.pem;

    #    ssl_certificate_key  cert.key;

    #    ssl_session_cache    shared:SSL:1m;

    #    ssl_session_timeout  5m;

    #    ssl_ciphers  HIGH:!aNULL:!MD5;

    #    ssl_prefer_server_ciphers  on;

    #    location / {

    #        root  html;

    #        index  index.html index.htm;

    #    }

    #}

}

配置完成后,开放对外访问的端口号,如果防火墙已经关闭就不用了。

在/nginx/sbin/中执行 ./nginx -s reload 重新加载配置文件。

4. 测试

5. location 指令说明

该指令用于匹配 URL。

语法如下:

= :用于不含正则表达式的 uri 前,要求请求字符串与 uri 严格匹配,如果匹配

成功,就停止继续向下搜索并立即处理该请求。

~:用于表示 uri 包含正则表达式,并且区分大小写。

~*:用于表示 uri 包含正则表达式,并且不区分大小写。

^~:用于不含正则表达式的 uri 前,要求 Nginx 服务器找到标识 uri 和请求字符串匹配度最高的 location 后,立即使用此 location 处理请求,而不再使用 location 块中的正则 uri 和请求字符串做匹配。

注意:如果 uri 包含正则表达式,则必须要有 ~ 或者 ~* 标识。

三、Nginx 配置实例-负载均衡

1、实现效果

浏览器地址栏输入地址http://192.168.17.129/edu/a.html,负载均衡效果,平均到8082和 8081 端口中。

2、准备工作

准备两 tomcat 服务器,一台 8082,一台 8081

在两台 tomcat 里面 webapps 目录中,创建名称是 edu 文件夹,在edu 文件夹中创建页面 a.html,用于测试。

3. 在 nginx 的配置文件中进行负载均衡的配置

nginx.conf配置如下:

#user  nobody;

worker_processes  1;

#error_log  logs/error.log;

#error_log  logs/error.log  notice;

#error_log  logs/error.log  info;

#pid        logs/nginx.pid;

events {

    worker_connections  1024;

}

http {

    include      mime.types;

    default_type  application/octet-stream;

    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '

    #                  '$status $body_bytes_sent "$http_referer" '

    #                  '"$http_user_agent" "$http_x_forwarded_for"';

    #access_log  logs/access.log  main;

    sendfile        on;

    #tcp_nopush    on;

    #keepalive_timeout  0;

    keepalive_timeout  65;

    #gzip  on;


    # 加上upstream

    upstream myserver {

        server  192.168.88.132:8080; #参与负载均衡的服务器地址1

        server  192.168.88.132:8081; #参与负载均衡的服务器地址2

    }

        server {

        listen      80;

        server_name  192.168.88.132;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        location / {

        # 加上代理规则

            proxy_pass http://myserver;


            root  html;

            index  index.html index.htm;

        }

        #error_page  404              /404.html;

        # redirect server error pages to the static page /50x.html

        #

        error_page  500 502 503 504  /50x.html;

        location = /50x.html {

            root  html;

        }

        # proxy the PHP scripts to Apache listening on 127.0.0.1:80

        #

        #location ~ \.php$ {

        #    proxy_pass  http://127.0.0.1;

        #}

        # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000

        #

        #location ~ \.php$ {

        #    root          html;

        #    fastcgi_pass  127.0.0.1:9000;

        #    fastcgi_index  index.php;

        #    fastcgi_param  SCRIPT_FILENAME  /scripts$fastcgi_script_name;

        #    include        fastcgi_params;

        #}

        # deny access to .htaccess files, if Apache's document root

        # concurs with nginx's one

        #

        #location ~ /\.ht {

        #    deny  all;

        #}

}

    # another virtual host using mix of IP-, name-, and port-based configuration


    # HTTPS server

    #

    #server {

    #    listen      443 ssl;

    #    server_name  localhost;

    #    ssl_certificate      cert.pem;

    #    ssl_certificate_key  cert.key;

    #    ssl_session_cache    shared:SSL:1m;

    #    ssl_session_timeout  5m;

    #    ssl_ciphers  HIGH:!aNULL:!MD5;

    #    ssl_prefer_server_ciphers  on;

    #    location / {

    #        root  html;

    #        index  index.html index.htm;

    #    }

    #}

}

4.访问测试

访问http://192.168.88.132/edu/a.html:第一次访问显示如下:

刷新页面,效果如下:

可以看出,访问该页面的时候,nginx会把请求平均分担到8080和8081两个服务器。

5.nginx分配服务器策略

第一种 轮询策略(默认):

每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。

第二种 权重策略 weight:

weight 代表权重默认为 1,权重越高被分配的客户端越多。

#例如:

    upstream myserver {

        server  192.168.88.132:8080 weight=5; #参与负载均衡的服务器地址1

        server  192.168.88.132:8081 weight=10; #参与负载均衡的服务器地址2

    }

# 如上,8080的权重为5 8081权重为10,则nginx 负载均衡分配时,分配的8081比例更大

第三种 ip哈希策略 ip_hash:

每个请求按访问 ip 的hash 结果分配,这样每个访客固定访问一个后端服务器,可以解决session问题。

#例如:

    upstream myserver {

    ip_hash

        server  192.168.88.132:8080; #参与负载均衡的服务器地址1

        server  192.168.88.132:8081; #参与负载均衡的服务器地址2

    }

# 如上,每个请求按访问 ip 的hash 结果分配,即:某一个用户访问该服务器,根据该用户的ip地址分配一个ip_hash,并随机分配到端口为8080或者8081的服务器,该用户这个ip下次再访问服务器时,仍然默认访问上次分配的服务器,而不会再次随机分配。

第四种 fair(第三方):

按后端服务器的响应时间来分配请求,响应时间短的优先分配。

#例如:

    upstream myserver {

        server  192.168.88.132:8080; #参与负载均衡的服务器地址1

        server  192.168.88.132:8081; #参与负载均衡的服务器地址2

        fair

    }

# 如上,访问该服务器时,通过判断 8080 或者 8081 服务器响应的时间,来进行分配访问,谁的响应时间短,优先访问谁。

四、Nginx配置实例-动静分离

1. 动静分离简述

Nginx 动静分离简单来说就是把动态跟静态请求分开,不能理解成只是单纯的把动态页面和静态页面物理分离。严格意义上说应该是动态请求跟静态请求分开,可以理解成使用 Nginx 处理静态页面,Tomcat 处理动态页面。动静分离从目前实现角度来讲大致分为两种,一种是纯粹把静态文件独立成单独的域名,放在独立的服务器上,也是目前主流推崇的方案;另外一种方法就是动态跟静态文件混合在一起发布,通过 nginx 来分开。

通过location 指定不同的后缀名实现不同的请求转发。通过 expires 参数设置,可以使浏览器缓存过期时间,减少与服务器之前的请求和流量。具体 Expires 定义:是给一个资源设定一个过期时间,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可,所以不会产生额外的流量。此种方法非常适合不经常变动的资源。(如果经常更新的文件,不建议使用 Expires 来缓存),我这里设置 3d,表示在这 3 天之内访问这个 URL,发送一个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码304,如果有修改,则直接从服务器重新下载,返回状态码 200。

2. 准备工作

在 liunx 系统中准备静态资源,用于进行访问:

首先在根路径下创建 staticresource 文件夹,并在其中建立 www 和 image文件夹用于存放静态资源:

在www 文件夹中放置一个a.html 在 image 放置lf.jpg

3. 具体配置

在nginx 配置文件中配置静态资源访问

配置内容如下:

#user  nobody;

worker_processes  1;

#error_log  logs/error.log;

#error_log  logs/error.log  notice;

#error_log  logs/error.log  info;

#pid        logs/nginx.pid;

events {

    worker_connections  1024;

}

http {

    include      mime.types;

    default_type  application/octet-stream;

    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '

    #                  '$status $body_bytes_sent "$http_referer" '

    #                  '"$http_user_agent" "$http_x_forwarded_for"';

    #access_log  logs/access.log  main;

    sendfile        on;

    #tcp_nopush    on;

    #keepalive_timeout  0;

    keepalive_timeout  65;

    #gzip  on;

        server {

        listen      80;

        server_name  192.168.88.132;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;


#配置静态资源访问

        location /www/ {

            root  /staticresource/;

            index  index.html index.htm;

        }

        location /image/{

            root /staticresource/;

            autoindex on;

        }

        #error_page  404              /404.html;

        # redirect server error pages to the static page /50x.html

        #

        error_page  500 502 503 504  /50x.html;

        location = /50x.html {

            root  html;

        }

        # proxy the PHP scripts to Apache listening on 127.0.0.1:80

        #

        #location ~ \.php$ {

        #    proxy_pass  http://127.0.0.1;

        #}

        # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000

        #

        #location ~ \.php$ {

        #    root          html;

        #    fastcgi_pass  127.0.0.1:9000;

        #    fastcgi_index  index.php;

        #    fastcgi_param  SCRIPT_FILENAME  /scripts$fastcgi_script_name;

        #    include        fastcgi_params;

        #}

        # deny access to .htaccess files, if Apache's document root

        # concurs with nginx's one

        #

        #location ~ /\.ht {

        #    deny  all;

        #}

}

    # HTTPS server

    #

    #server {

    #    listen      443 ssl;

    #    server_name  localhost;

    #    ssl_certificate      cert.pem;

    #    ssl_certificate_key  cert.key;

    #    ssl_session_cache    shared:SSL:1m;

    #    ssl_session_timeout  5m;

    #    ssl_ciphers  HIGH:!aNULL:!MD5;

    #    ssl_prefer_server_ciphers  on;

    #    location / {

    #        root  html;

    #        index  index.html index.htm;

    #    }

    #}

}

4. 测试查看效果

浏览器中输入地址

http://192.168.88.132/image/lf.jpg

http://192.168.88.132/www/a.html

Nginx配置高可用的集群(了解)

什么是高可用


1、需要的环境

(1)需要两台 nginx 服务器

(2)需要 keepalived

(3)需要虚拟 ip

2、配置高可用的准备工作

(1)需要两台服务器 192.168.17.129 和 192.168.17.131

(2)在两台服务器安装 nginx

(3)在两台服务器安装 keepalived

3、在两台服务器安装 keepalived

(1)使用 yum 命令进行安装

yum install keepalived –y

(2)安装之后,在 etc 里面生成目录 keepalived,有文件 keepalived.conf

4、完成高可用配置(主从配置)

(1)修改/etc/keepalived/keepalivec.conf 配置文件

global_defs {

notification_email {

[email protected]

[email protected]

[email protected]

}

notification_email_from [email protected]

smtp_server 192.168.17.129

smtp_connect_timeout 30

router_id LVS_DEVEL

}

vrrp_script chk_http_port {

script "/usr/local/src/nginx_check.sh"

interval 2 #(检测脚本执行的间隔)

weight 2

}

vrrp_instance VI_1 {

state BACKUP # 备份服务器上将 MASTER 改为 BACKUP

interface ens33 //网卡

virtual_router_id 51 # 主、备机的 virtual_router_id 必须相同

priority 90 # 主、备机取不同的优先级,主机值较大,备份机值较小

advert_int 1

authentication {

auth_type PASS

auth_pass 1111

}

virtual_ipaddress {

192.168.17.50 // VRRP H 虚拟地址

}

}

(2)在/usr/local/src 添加新建检测脚本 nginx_check.sh

#! /bin/bash

A=`ps -C nginx -no-header | wc - 1`

if [ $A -eq 0];then

        /usr/local/nginx/sbin/nginx

        sleep 2

        if [`ps -C nginx --no-header| wc -1` -eq 0 ];then

                killall keepalived

        fi

fi

(3)把两台服务器上 nginx 和 keepalived 启动

启动 nginx:./nginx

启动 keepalived:systemctl start keepalived.service

$systemctl start keepalived.service #keepalived启动

$ps -ef I grep keepalived #查看keepalived是否启动

5、最终测试

(1)在浏览器地址栏输入 虚拟 ip 地址 192.168.17.50

(2)把主服务器(192.168.17.129)nginx 和 keepalived 停止,再输入 192.168.17.50

$systemctl stop keepalived.service#keepalived停止

Nginx的原理

1、mater 和 worker

2、worker如何进行工作的

3、一个 master 和多个 woker 有好处

(1)可以使用 nginx –s reload 热部署,利用 nginx 进行热部署操作

(2)每个 woker 是独立的进程,如果有其中的一个 woker 出现问题,其他 woker 独立的,

继续进行争抢,实现请求过程,不会造成服务中断

4、设置多少个 woker 合适

Nginx同redis类似都采用了io多路复用机制,每个worker都是一个独立的进程, 但每个进

程里只有一个主线程,通过异步非阻塞的方式来处理请求,即使是 千上万个请求也不在话

下。每个worker的线程可以把一个cpu的性能发挥到极致。所以worker数和服务器的cpu

数相等是最为适宜的。设少了会浪费cpu,设多了会造成cpu频繁切换上下文带来的损耗。

# 设置worker数量

worker.processes 4

# work绑定cpu(4work绑定4cpu)

worker_cpu_affinity 0001 0010 0100 1000

# work绑定cpu (4work绑定8cpu中的4个)

worker_cpu_affinity 0000001 00000010 00000100 00001000

5、连接数 worker_connection

这个值是表示每个worker进程所能建立连接的最大值,所以,一个nginx 能建立的最大连接数,应该是worker.connections * worker processes。当然,这里说的是最大连接数,对于HTTP 请求本地资源来说,能够支持的最大并发数量是worker.connections * worker processes,如果是支持http1.1的浏览器每次访问要占两个连接,所以普通的静态访问最大并发数是: worker.connections * worker.processes / 2, 而如果是HTTP作为反向代理来说,最大并发数量应该是worker.connections * worker_proceses/4. 因为作为反向代理服务器,每个并发会建立与客户端的连接和与后端服务的连接,会占用两个连接.

第一个: 发送请求,占用了woker的几个连接数?

答案: 2或者4个。

第二个: nginx有一个master,有四个woker,每个woker支持最大的连接数1024,支持的最大并发数是多少?

答案:普通的静态访问最大并发数是: worker connections * worker processes /2,

而如果是HTTP作为反向代理来说,最大并发数量应该是worker connections * worker processes/4

你可能感兴趣的:(第12章 Nginx 配置实例)