大数据 互联网架构阶段 Nginx的使用

Nginx

一、情景分析

  1. 如何构建一个tomcat集群 , 两种构建方式
  2. 但是此时将项目部署到tomcat集群上之后用户还是只能通过固定的ip和端口访问固定的服务器 ,并没有达到构建tomcat集群时分散服务器 压力的效果 , 此时就可以使用Nginx达到效果
  3. Nginx是一个高性能的反向代理服务器
  4. 正向代理:代理的客户端 , 将客户端的请求处理后交给外网服务器
  5. 反向代理:代理的服务端的响应。

三、电商项目中nginx的作用

  1. 解决静态文件的访问 , 图片回显 的问题
  2. 在电商项目中利用nginx起到动静分离的作用 , 将静态资源的请求与动态资源的请求分离, 达到降低服务器压力的目的
  3. 负载均衡:
    1. 负载: 服务器所承受的压力
    2. 均衡: 使用武力均衡和逻辑均衡
  4. 权重: 权衡访问的重心, 根据服务器性能判断
  5. session黏着: 根据session共享来做的均衡方式 。

三 、 nginx安装 与使用

  1. 下载nginx ,解压之后即可使用
  2. nginx启动时会加载配置文件 conf/nginx.conf
  3. nginx中的配置文件

    server {//nginx启动是加载的虚拟机单位
    listen       80; //监听的端口
    server_name  manage.jt.com; //监听的域名
    
    location / { //当满足监听条件时,location后跟着匹配信息,
    开始匹配域名和端口后的内容,
           proxy_pass http://127.0.0.1:8081; //域名和端口的替换
    也就是访问的真正服务器,直接拼接后续的访问路径
    
           proxy_connect_timeout 600;
           proxy_read_timeout 600;}}
    根据以上内容,将manage.jt.com/page/index用nginx访问maven启动的tomcat
    修改hosts文件,manage.jt.com需要和nginx所在服务器地址映射 127.0.0.1
    
    
    补充:几个简单的匹配案例location
    以 = 开头表示精确匹配
    location = /html{
    匹配过程内容
    }
    /html/  匹配以html开头的内容,后续继续查询有没有location匹配的是/html/正则 */d
    
    ^~ /html/ 匹配html开头的内容,一旦匹配上,不在搜索下面的正则匹配
    和 /html/abc.html
    
  4. nginx配置详解

        Nginx的配置文件nginx.conf配置详解如下:
    
        user nginx nginx ;
        Nginx用户及组:用户 组。window下不指定
    
        worker_processes 8;
        工作进程:数目。根据硬件调整,通常等于CPU数量或者2倍于CPU。
    
        error_log  logs/error.log;  
        error_log  logs/error.log  notice;  
        error_log  logs/error.log  info;  
        错误日志:存放路径。
    
        pid logs/nginx.pid;
        pid(进程标识符):存放路径。
    
        worker_rlimit_nofile 204800;
        指定进程可以打开的最大描述符:数目。
        这个指令是指当一个nginx进程打开的最多文件描述符数目,理论值应该是最多打开文件数(ulimit -n)与nginx进程数相除,但是nginx分配请求并不是那么均匀,所以最好与ulimit -n 的值保持一致。
        现在在linux 2.6内核下开启文件打开数为65535,worker_rlimit_nofile就相应应该填写65535。
        这是因为nginx调度时分配请求到进程并不是那么的均衡,所以假如填写10240,总并发量达到3-4万时就有进程可能超过10240了,这时会返回502错误。
    
        events
        {
        use epoll;
        使用epoll的I/O 模型。linux建议epoll,FreeBSD建议采用kqueue,window下不指定。
        补充说明:
        与apache相类,nginx针对不同的操作系统,有不同的事件模型
        A)标准事件模型
        Select、poll属于标准事件模型,如果当前系统不存在更有效的方法,nginx会选择select或poll
        B)高效事件模型
        Kqueue:使用于FreeBSD 4.1+, OpenBSD 2.9+, NetBSD 2.0 和 MacOS X.使用双处理器的MacOS X系统使用kqueue可能会造成内核崩溃。
        Epoll:使用于Linux内核2.6版本及以后的系统。
        /dev/poll:使用于Solaris 7 11/99+,HP/UX 11.22+ (eventport),IRIX 6.5.15+ 和 Tru64 UNIX 5.1A+。
        Eventport:使用于Solaris 10。 为了防止出现内核崩溃的问题, 有必要安装安全补丁。
    
        worker_connections 204800;
        没个工作进程的最大连接数量。根据硬件调整,和前面工作进程配合起来用,尽量大,但是别把cpu跑到100%就行。每个进程允许的最多连接数,理论上每台nginx服务器的最大连接数为。worker_processes*worker_connections
        keepalive_timeout 60;
        keepalive超时时间。
    
        client_header_buffer_size 4k;
        客户端请求头部的缓冲区大小。这个可以根据你的系统分页大小来设置,一般一个请求头的大小不会超过1k,不过由于一般系统分页都要大于1k,所以这里设置为分页大小。
        分页大小可以用命令getconf PAGESIZE 取得。
        [root@web001 ~]# getconf PAGESIZE
        4096
        但也有client_header_buffer_size超过4k的情况,但是client_header_buffer_size该值必须设置为“系统分页大小”的整倍数。
    
        open_file_cache max=65535 inactive=60s;
        这个将为打开文件指定缓存,默认是没有启用的,max指定缓存数量,建议和打开文件数一致,inactive是指经过多长时间文件没被请求后删除缓存。
    
        open_file_cache_valid 80s;
        这个是指多长时间检查一次缓存的有效信息。
    
        open_file_cache_min_uses 1;
        open_file_cache指令中的inactive参数时间内文件的最少使用次数,如果超过这个数字,文件描述符一直是在缓存中打开的,如上例,如果有一个文件在inactive时间内一次没被使用,它将被移除。
        }
    
    
        ##设定http服务器,利用它的反向代理功能提供负载均衡支持
        http
        {
        include mime.types;
        设定mime类型,类型由mime.type文件定义
    
        default_type application/octet-stream;
    
        log_format main '$remote_addr - $remote_user [$time_local] "$request" '
        '$status $body_bytes_sent "$http_referer" '
        '"$http_user_agent" "$http_x_forwarded_for"';
        log_format log404 '$status [$time_local] $remote_addr $host$request_uri $sent_http_location';
        日志格式设置。
        $remote_addr与$http_x_forwarded_for用以记录客户端的ip地址;
        $remote_user:用来记录客户端用户名称;
        $time_local: 用来记录访问时间与时区;
        $request: 用来记录请求的url与http协议;
        $status: 用来记录请求状态;成功是200,
        $body_bytes_sent :记录发送给客户端文件主体内容大小;
        $http_referer:用来记录从那个页面链接访问过来的;
        $http_user_agent:记录客户浏览器的相关信息;
        通常web服务器放在反向代理的后面,这样就不能获取到客户的IP地址了,通过$remote_add拿到的IP地址是反向代理服务器的iP地址。反向代理服务器在转发请求的http头信息中,可以增加x_forwarded_for信息,用以记录原有客户端的IP地址和原来客户端的请求的服务器地址。
    
        access_log  logs/host.access.log  main;
        access_log  logs/host.access.404.log  log404;
        用了log_format指令设置了日志格式之后,需要用access_log指令指定日志文件的存放路径;
    
        server_names_hash_bucket_size 128;
        #保存服务器名字的hash表是由指令server_names_hash_max_size 和server_names_hash_bucket_size所控制的。参数hash bucket size总是等于hash表的大小,并且是一路处理器缓存大小的倍数。在减少了在内存中的存取次数后,使在处理器中加速查找hash表键值成为可能。如果hash bucket size等于一路处理器缓存的大小,那么在查找键的时候,最坏的情况下在内存中查找的次数为2。第一次是确定存储单元的地址,第二次是在存储单元中查找键 值。因此,如果Nginx给出需要增大hash max size 或 hash bucket size的提示,那么首要的是增大前一个参数的大小.
    
        client_header_buffer_size 4k;
        客户端请求头部的缓冲区大小。这个可以根据你的系统分页大小来设置,一般一个请求的头部大小不会超过1k,不过由于一般系统分页都要大于1k,所以这里设置为分页大小。分页大小可以用命令getconf PAGESIZE取得。
    
        large_client_header_buffers 8 128k;
        客户请求头缓冲大小。nginx默认会用client_header_buffer_size这个buffer来读取header值,如果
        header过大,它会使用large_client_header_buffers来读取。
    
        open_file_cache max=102400 inactive=20s;
        这个指令指定缓存是否启用。
        例: open_file_cache max=1000 inactive=20s; 
        open_file_cache_valid 30s; 
        open_file_cache_min_uses 2; 
        open_file_cache_errors on;
    
        open_file_cache_errors
        语法:open_file_cache_errors on | off 默认值:open_file_cache_errors off 使用字段:http, server, location 这个指令指定是否在搜索一个文件是记录cache错误.
        open_file_cache_min_uses
        语法:open_file_cache_min_uses number 默认值:open_file_cache_min_uses 1 使用字段:http, server, location 这个指令指定了在open_file_cache指令无效的参数中一定的时间范围内可以使用的最小文件数,如果使用更大的值,文件描述符在cache中总是打开状态.
        open_file_cache_valid
        语法:open_file_cache_valid time 默认值:open_file_cache_valid 60 使用字段:http, server, location 这个指令指定了何时需要检查open_file_cache中缓存项目的有效信息.
    
    
        client_max_body_size 300m;
        设定通过nginx上传文件的大小
    
        sendfile on;
        sendfile指令指定 nginx 是否调用sendfile 函数(zero copy 方式)来输出文件,对于普通应用,必须设为on。如果用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络IO处理速度,降低系统uptime。
    
        tcp_nopush on;
        此选项允许或禁止使用socke的TCP_CORK的选项,此选项仅在使用sendfile的时候使用
    
        proxy_connect_timeout 90; 
        后端服务器连接的超时时间_发起握手等候响应超时时间
    
        proxy_read_timeout 180;
        连接成功后_等候后端服务器响应时间_其实已经进入后端的排队之中等候处理(也可以说是后端服务器处理请求的时间)
    
        proxy_send_timeout 180;
        后端服务器数据回传时间_就是在规定时间之内后端服务器必须传完所有的数据
    
        proxy_buffer_size 256k;
        设置从被代理服务器读取的第一部分应答的缓冲区大小,通常情况下这部分应答中包含一个小的应答头,默认情况下这个值的大小为指令proxy_buffers中指定的一个缓冲区的大小,不过可以将其设置为更小
    
        proxy_buffers 4 256k;
        设置用于读取应答(来自被代理服务器)的缓冲区数目和大小,默认情况也为分页大小,根据操作系统的不同可能是4k或者8k
    
        proxy_busy_buffers_size 256k;
    
        proxy_temp_file_write_size 256k;
        设置在写入proxy_temp_path时数据的大小,预防一个工作进程在传递文件时阻塞太长
    
        proxy_temp_path /data0/proxy_temp_dir;
        proxy_temp_path和proxy_cache_path指定的路径必须在同一分区
    
        proxy_cache_path /data0/proxy_cache_dir levels=1:2 keys_zone=cache_one:200m inactive=1d max_size=30g;
        #设置内存缓存空间大小为200MB,1天没有被访问的内容自动清除,硬盘缓存空间大小为30GB。
        keepalive_timeout 120;
        keepalive超时时间。
    
        tcp_nodelay on;
    
        client_body_buffer_size 512k;
        如果把它设置为比较大的数值,例如256k,那么,无论使用firefox还是IE浏览器,来提交任意小于256k的图片,都很正常。如果注释该指令,使用默认的client_body_buffer_size设置,也就是操作系统页面大小的两倍,8k或者16k,问题就出现了。
        无论使用firefox4.0还是IE8.0,提交一个比较大,200k左右的图片,都返回500 Internal Server Error错误
    
        proxy_intercept_errors on;
        表示使nginx阻止HTTP应答代码为400或者更高的应答。
    
        upstream bakend {
        server 127.0.0.1:8027;
        server 127.0.0.1:8028;
        server 127.0.0.1:8029;
        hash $request_uri;
        }
        nginx的upstream目前支持4种方式的分配
        1、轮询(默认)
        每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
        2、weight
        指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。
        例如:
        upstream bakend {
        server 192.168.0.14 weight=10;
        server 192.168.0.15 weight=10;
        }
        2、ip_hash
        每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。
        例如:
        upstream bakend {
        ip_hash;
        server 192.168.0.14:88;
        server 192.168.0.15:80;
        }
        3、fair(第三方)
        按后端服务器的响应时间来分配请求,响应时间短的优先分配。
        upstream backend {
        server server1;
        server server2;
        fair;
        }
        4、url_hash(第三方)
        按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。
        例:在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法
        upstream backend {
        server squid1:3128;
        server squid2:3128;
        hash $request_uri;
        hash_method crc32;
        }
        tips:
        upstream bakend{#定义负载均衡设备的Ip及设备状态}{
        ip_hash;
        server 127.0.0.1:9090 down;
        server 127.0.0.1:8080 weight=2;
        server 127.0.0.1:6060;
        server 127.0.0.1:7070 backup;
        }
        在需要使用负载均衡的server中增加
        proxy_pass http://bakend/;
        每个设备的状态设置为:
        1.down表示单前的server暂时不参与负载
        2.weight为weight越大,负载的权重就越大。
        3.max_fails:允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream模块定义的错误
        4.fail_timeout:max_fails次失败后,暂停的时间。
        5.backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。
        nginx支持同时设置多组的负载均衡,用来给不用的server来使用。
        client_body_in_file_only设置为On 可以讲client post过来的数据记录到文件中用来做debug
        client_body_temp_path设置记录文件的目录 可以设置最多3层目录
        location对URL进行匹配.可以进行重定向或者进行新的代理 负载均衡
    
    
        ##配置虚拟机
        server
        {
        listen 80;
        配置监听端口
    
        server_name image.***.com;
        配置访问域名
    
        location ~* \.(mp3|exe)$ {
        对以“mp3或exe”结尾的地址进行负载均衡
    
        proxy_pass http://img_relay$request_uri;
        设置被代理服务器的端口或套接字,以及URL
    
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        以上三行,目的是将代理服务器收到的用户的信息传到真实服务器上
        }
    
        location /face {
        if ($http_user_agent ~* "xnp") {
        rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect;
        }
        proxy_pass http://img_relay$request_uri;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        error_page 404 502 = @fetch;
        }
        location @fetch {
        access_log /data/logs/face.log log404;
        rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect;
        }
        location /image {
        if ($http_user_agent ~* "xnp") {
        rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect;
        }
        proxy_pass http://img_relay$request_uri;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        error_page 404 502 = @fetch;
        }
        location @fetch {
        access_log /data/logs/image.log log404;
        rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect;
        }
        }
    
        ##其他举例
        server
        {
        listen 80;
        server_name *.***.com *.***.cn;
        location ~* \.(mp3|exe)$ {
        proxy_pass http://img_relay$request_uri;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        }
        location / {
        if ($http_user_agent ~* "xnp") {
        rewrite ^(.*)$ http://i1.***img.com/help/noimg.gif redirect;
        }
        proxy_pass http://img_relay$request_uri;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        #error_page 404 http://i1.***img.com/help/noimg.gif;
        error_page 404 502 = @fetch;
        }
        location @fetch {
        access_log /data/logs/baijiaqi.log log404;
        rewrite ^(.*)$ http://i1.***img.com/help/noimg.gif redirect;
        }
        }
        server
        {
        listen 80;
        server_name *.***img.com;
    
        location ~* \.(mp3|exe)$ {
        proxy_pass http://img_relay$request_uri;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        }
        location / {
        if ($http_user_agent ~* "xnp") {
        rewrite ^(.*)$ http://i1.***img.com/help/noimg.gif;
        }
        proxy_pass http://img_relay$request_uri;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        #error_page 404 http://i1.***img.com/help/noimg.gif;
        error_page 404 = @fetch;
        }
        #access_log off;
        location @fetch {
        access_log /data/logs/baijiaqi.log log404;
        rewrite ^(.*)$ http://i1.***img.com/help/noimg.gif redirect;
        }
        }
        server
        {
        listen 8080;
        server_name ngx-ha.***img.com;
        location / {
        stub_status on;
        access_log off;
        }
        }
        server {
        listen 80;
        server_name imgsrc1.***.net;
        root html;
        }
    
        server {
        listen 80;
        server_name ***.com w.***.com;
        # access_log /usr/local/nginx/logs/access_log main;
        location / {
        rewrite ^(.*)$ http://www.***.com/ ;
        }
        }
        server {
        listen 80;
        server_name *******.com w.*******.com;
        # access_log /usr/local/nginx/logs/access_log main;
        location / {
        rewrite ^(.*)$ http://www.*******.com/;
        }
        }
        server {
        listen 80;
        server_name ******.com;
        # access_log /usr/local/nginx/logs/access_log main;
        location / {
        rewrite ^(.*)$ http://www.******.com/;
        }
        }
        location /NginxStatus {
        stub_status on;
        access_log on;
        auth_basic "NginxStatus";
        auth_basic_user_file conf/htpasswd;
        }
        #设定查看Nginx状态的地址
    
        location ~ /\.ht {
        deny all;
        }
        #禁止访问.htxxx文件
        }
    
        注释:变量
        Ngx_http_core_module模块支持内置变量,他们的名字和apache的内置变量是一致的。
        首先是说明客户请求title中的行,例如$http_user_agent,$http_cookie等等。
        此外还有其它的一些变量
        $args此变量与请求行中的参数相等
        $content_length等于请求行的“Content_Length”的值。
        $content_type等同与请求头部的”Content_Type”的值
        $document_root等同于当前请求的root指令指定的值
        $document_uri与$uri一样
        $host与请求头部中“Host”行指定的值或是request到达的server的名字(没有Host行)一样
        $limit_rate允许限制的连接速率
        $request_method等同于request的method,通常是“GET”或“POST”
        $remote_addr客户端ip
        $remote_port客户端port
        $remote_user等同于用户名,由ngx_http_auth_basic_module认证
        $request_filename当前请求的文件的路径名,由root或alias和URI request组合而成
        $request_body_file
        $request_uri含有参数的完整的初始URI
        $query_string与$args一样
        $sheeme http模式(http,https)尽在要求是评估例如
        Rewrite ^(.+)$ $sheme://example.com$; Redirect;
        $server_protocol等同于request的协议,使用“HTTP/或“HTTP/
        $server_addr request到达的server的ip,一般获得此变量的值的目的是进行系统调用。为了避免系统调用,有必要在listen指令中指明ip,并使用bind参数。
        $server_name请求到达的服务器名
        $server_port请求到达的服务器的端口号
        $uri等同于当前request中的URI,可不同于初始值,例如内部重定向时或使用index
    
  5. location 匹配原则

        已=开头表示精确匹配
        如 A 中只匹配根目录结尾的请求,后面不能带任何字符串。
        ^~ 匹配普通字符,不是正则匹配不能用正则表达式
        ~ 开头表示区分大小写的正则匹配;
        ~* 开头表示不区分大小写的正则匹配
        / 通用匹配, 如果没有其它匹配,任何请求都会匹配到
    
    
        location  = / {
          # 精确匹配 / ,主机名后面不能带任何字符串
          [ configuration A ] 
        }
        location  / {
          # 因为所有的地址都以 / 开头,所以这条规则将匹配到所有请求
          # 但是正则和最长字符串会优先匹配
          [ configuration B ] 
        }
        location /documents/ {
          # 匹配任何以 /documents/ 开头的地址,优先级比较低  [ configuration C ] 
        }
        location ~ /documents/Abc {
          # 匹配任何以 /documents/ 开头的地址,匹配符合以后,还要继续往下搜索
          # 只有后面的正则表达式没有匹配到时,这一条才会采用这一条
          [ configuration CC ] 
        }
        location ^~ /images/ {
          # 匹配任何以 /images/ 开头的地址,匹配符合以后,停止往下搜索正则,采用这一条。
          [ configuration D ] 
        }
        location ~* \.(gif|jpg|jpeg)$ {
          # 匹配所有以 gif,jpg或jpeg 结尾的请求
          # 然而,所有请求 /images/ 下的图片会被 config D 处理,因为 ^~ 到达不了这一条正则
          [ configuration E ] 
        }
        location /images/ {
          # 字符匹配到 /images/,继续往下,会发现 ^~ 存在
          [ configuration F ] 
        }
        location ~* /js/.*/\.js
    

四 、 将项目部署到tomcat集群中 , 并用Nginx做负载均衡

  1. tomcat集群部署结构在一台linux主机上部署三个tomcat实例
  2. 上传tomcat解压安装(安装tomcat前要确定已经安装了JDK)

    1. 创建管理目录 , 上传tomcat资源包
    2. 解压并改名

      [root@bogon software]# tar -xf apache-tomcat-7.0.55.tar.gz 
      [root@bogon software]# mv apache-tomcat-7.0.55 t1
      

    3. 复制多个tomcat实例
    4. 修改对应tomcat文件中的配置文件的端口

      [root@bogon software]# vim t1/conf/server.xml 
      t1 8080 70行左右,8009 91行左右,8005 22行
      t2 8081,8019,8015
      t3 8082,8029,8025
      

  3. 启动tomcat

    1. 分别到bin目录下找到start.sh执行

      [root@bogon bin]# ./startup.sh
      
  4. 查看tomcat的启动日志 , 启动日志就在logs文件夹下,catalina.out使用tail命令查看
  5. 部署项目到tomcat中

    1. 将工程的war包导入到tomcat3个实例中,分别放到webaps下,并改名ROOT.war tomcat启动时会自动解压(Maven项目在发布时会自动生成war包 , 可以直接放入tomcat中)
    2. 使用 ps -ef|grep tomcat 命令查看当前进程使用kill命令将进程杀掉

      [root@bogon logs]# kill 5393
      [root@bogon logs]# kill 5365
      [root@bogon logs]# kill 5318
      
    3. 将文件改名为ROOT.war 拷贝到三个tomcat中

      拷贝到t1,t2,t3的webapps中
      [root@bogon Desktop]# cp ROOT.war /home/software/t1/webapps/
      [root@bogon Desktop]# cp ROOT.war /home/software/t2/webapps/
      [root@bogon Desktop]# cp ROOT.war /home/software/t3/webapps/
      
    4. 启动 三个tomcat
      1. 在linux主机中 使用浏览器访问127.0.0.1:端口检测是否成功
      2. 关掉防火墙 ,在window下使用linux主机的IP:端口访问 , 检测是否成功(linux 下使用ifconfig查看ip)
      3. 关掉防火墙
      4. 检查防火墙
  6. 实现nginx在3个tomcat实例中跳转工作

    1. 在nginx中的配置(nginx安装目录下conf/nginx.conf)中

          upstream jt1710{ upstream 负载均衡的服务器库,jt1710自定义名称
          server 192.168.40.170:8081 ;
          server 192.168.40.170:8082 ;
          server 192.168.40.180:8080 ;}
          server {
          listen       80;
          server_name  manage.jt.com;
      
          location / {
                  proxy_pass http://jt1710;//
          从直接访问本地tocmat变成访问服务器库;默认的并排方式排列的服务器就是轮询
                 proxy_connect_timeout 600;
                 proxy_read_timeout 600;}}
      
    2. 需要在本地的hosts(c://window/system32/etc/hosts)中配置拦截京淘710
    3. 可以修改三个tomcat首页的展示信息 , 查看轮训访问tomcat的效果

      [root@bogon ROOT]# vim /home/software/t1/webapps/ROOT/index.jsp 
      [root@bogon ROOT]# vim /home/software/t2/webapps/ROOT/index.jsp 
      [root@bogon ROOT]# vim /home/software/t3/webapps/ROOT/index.jsp 
      

四 、 Nginx的负载均衡

  1. 轮询: 默认的负载均衡方式 , 将所有的访问平均分配给服务器库中配置的服务器;
  2. 权重:根据不同机器性能,计算相对的访问负载承受,从而使用权重配置负载的量

    1. 权重的第一种方式

      upstream jt1710{
      server 192.168.40.170:8081 ;
      server 192.168.40.170:8082 ;
      server 192.168.40.170:8080 ;
      server 192.168.40.170:8081 ;
      server 192.168.40.170:8081 ;
      server 192.168.40.170:8081 ;
      server 192.168.40.170:8081 ;
      server 192.168.40.170:8081 ;}
      
    2. 权重的第二种方式 : 权重关键字

      weight:权重的优先量级;数字越大,访问次数越多
      down;宕机状态永不访问;
      当服务器宕机不可恢复时,nginx会根据权重或者轮询配置
      继续访问,连接超时访问失败,但是不会停止访问,
      down一定程度的减少了资源的损耗
      

五 、 负载均衡中session中共享的问题

  1. session黏着: 当用户访问页面时 , 会产生一些会话数据保存在session中 ,但是nginx负载均衡时不能保证每次访问的服务是同一个 ,这样就不能读取session中的会话数据
  2. 解决session共享数据的问题

    1. session黏着 :当用户通过ngnix访问某一个tomcat后,使用session黏着,保证后续访问永远访问这一台

      1 ip_hash
      利用客户端请求的ip和端口(192.168.40.170:661)获取其字符串的hash值
      String str="192.168.40.160:8080";
      str.hashCode();(未必是正值,&Integer.max_value)
      System.out.println(user1.hashCode()&Integer.MAX_VALUE);
      System.out.println(user2.hashCode()&Integer.MAX_VALUE);
      System.out.println(user3.hashCode()&Integer.MAX_VALUE);
      获取到字符串的整数然后对已有的负载均衡服务器库数量进行取余(三台为例)
      哈希整数N%3=[0,1,2]
      如果是4台呢?对4取余,依次类推
      2 url_hash黏着(依赖第三方插件实现)
      访问服务器的url地址字符串做hash取余运算
      order.jt.com/*****/***.html
      具有某一个固定功能的服务器,固定
      

你可能感兴趣的:(WEB,大数据)