niginx 配置文件

1、简单的

#user nobody;
worker_processes 4;
#worker_rlimit_nofile 10240;

#工作模式及连接数上限
events {    
    worker_connections 10240;
}
http { 
    server {
        listen 80;
        server_name localhost;
        
        location ~ \.(jsp)?$ {
           #发布目录/usr/local/games/fly
            root /home/xby/apache-tomcat-8.5.45/webapps;
            index index.jsp index.html  index.do;
           
            #后端的Web服务器可以通过X-Forwarded-For获取用户真实IP
            proxy_set_header X-Forwarded-Host $host;
            proxy_set_header X-Forwarded-Server $host;            
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            #value设置为上面的upstream的集群名字
            proxy_pass http://localhost:8080;
        }
    }
}
 

2、详细内容解释

#运行用户
#语法:user user [group]
#默认值:nobody nobody
#user nobody;
#启动进程,通常设置成和cpu的数量相等
worker_processes 4;
pid /usr/local/nginx/nginx.pid;
#单个worker进程所能够打开的最大文件数
worker_rlimit_nofile 102400;

#工作模式及连接数上限
events {
    #epoll是多路复用IO(I/O Multiplexing)中的一种方式,仅用于linux2.6以上内核,可以大大提高nginx的性能
    use epoll;
    #单个后台worker process进程的最大并发链接数
    # 并发总数是 worker_processes 和 worker_connections 的乘积
    # 即 max_clients = worker_processes * worker_connections
    # 在设置了反向代理的情况下,max_clients = worker_processes * worker_connections / 4  为什么
    # 为什么上面反向代理要除以4,应该说是一个经验值
    # 根据以上条件,正常情况下的Nginx Server可以应付的最大连接数为:4 * 8000 = 32000
    # worker_connections 值的设置跟物理内存大小有关
    # 因为并发受IO约束,max_clients的值须小于系统可以打开的最大文件数
    # 而系统可以打开的最大文件数和内存大小成正比,一般1GB内存的机器上可以打开的文件数大约是10万左右
    # 我们来看看360M内存的VPS可以打开的文件句柄数是多少:
    # $ cat /proc/sys/fs/file-max
    # 输出 34336
    # 32000 < 34336,即并发连接总数小于系统可以打开的文件句柄总数,这样就在操作系统可以承受的范围之内
    # 所以,worker_connections 的值需根据 worker_processes 进程数目和系统可以打开的最大文件总数进行适当地进行设置
    # 使得并发总数小于操作系统可以打开的最大文件数目
    # 其实质也就是根据主机的物理CPU和内存进行配置
    # 当然,理论上的并发总数可能会和实际有所偏差,因为主机还有其他的工作进程需要消耗系统资源。
    # ulimit -SHn 65535
    # worker_connections 102400;
    worker_connections 10240;
}

http { 
    include mime.types;
    default_type application/octet-stream;
    #配合error_page code一起用,当发生失败时,自动跳转到error_page指定的路页面
    fastcgi_intercept_errors on;
    charset utf-8;
    #在Nginx0.6.35的版本中,配置多个 server 虚拟主机,必须要在配置文档中加上如下这句配置
    server_names_hash_bucket_size 128;
    #设定请求缓冲
    #先根据client_header_buffer_size配置的值分配一个buffer,如果分配的buffer无法容纳 request_line/request_header,那么就会再次根据
    #large_client_header_buffers配置的参数分配large_buffer,如果large_buffer还是无法容纳,那么就会返回414(处理request_line)/400(处理request_header)错误。
    client_header_buffer_size 16k;
    large_client_header_buffers 4 64k;
    #控制全局nginx所有请求报文大小
    client_max_body_size 300m;
    #sendfile 指令指定 nginx 是否调用 sendfile 函数(zero copy 方式)来输出文件
    #对于普通应用,必须设为 on,
    #如果用来进行下载等应用磁盘IO重负载应用,可设置为 off
    #以平衡磁盘与网络I/O处理速度,降低系统的uptime.
    sendfile on;
    #告诉nginx在一个数据包里发送所有头文件,而不一个接一个的发送
    tcp_nopush on;
    #给客户端分配keep-alive链接超时时间。服务器将在这个超时时间过后关闭链接。我们将它设置低些可以让ngnix持续工作的时间更长。
    keepalive_timeout 60;
    #告诉nginx不要缓存数据,而是一段一段的发送--当需要及时发送数据时,就应该给应用设置这个属性,这样发送一小块数据信息时就不能立即得到返回值。
    tcp_nodelay on;
    #处理客户端请求体buffer大小。用来处理POST提交数据,上传文件等。
    client_body_buffer_size 512k;

    #开启gzip压缩,若想关闭gzip压缩,则需要注释掉这句话,或者将on换成off
    gzip on;
    #配置允许压缩的页面的最小字节数,页面字节数从header头中的Content-Length中获>取,建议设置成1k,因为如果数据小于1k,他也会压缩成1k,这样会起到反作用。
    gzip_min_length 1k;
    #4个16k的数据流用于存储gzip的压缩结果数据流
    gzip_buffers 4 16k;
    #支持的http版本为1.1
    gzip_http_version 1.1;
    #设置数据的压缩等级。这个等级可以是1-9之间的任意数值,9是最慢但是压缩比最大的。我们设置为4,这是一个比较折中的设置。
    gzip_comp_level 4;
    #判断客户端是否支持gzip技术,若不支持则不会进行gzip处理
    gzip_vary on;

    #upstream web_app {
    #    server www.chentongwei.cn;
    #    server www.chentongwei.cn:8081 weight=2;
    #}

    server {
        listen  80;
        server_name localhost;
        index index.jsp index.html index.htm;
        #发布目录/usr/local/games/fly
        root /home/xby/apache-tomcat-8.5.45/webapps;
        
        location ~ .*\.(jsp|jspx|do|html|htm|gif|jpg|jpeg|bmp|png|ico|txt|css|js)$ {
          
            #proxy_next_upstream选项标识tomcat返回以下
            #(http_500 http_502 http_504 error timeout #invalid_header)
            #错误码都会进行重试另外一台服务器。这个对于读请求没有关系,如果对于写请求就会发生多次提交事件。
            #解决方案:去掉proxy_next_upstream.
            proxy_next_upstream http_502 http_504 error timeout invalid_header;
            #后端的Web服务器可以通过X-Forwarded-For获取用户真实IP
            proxy_set_header Host $host;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            #value设置为上面的upstream的集群名字
            proxy_pass http://localhost:8080;
        }

        #error_page 404 /404.html;
        #error_page 500 502 503 504  /50x.html;

        #设置为OFF可以为被代理服务器发出的相对重定向增加主机名
        proxy_redirect off;
        #后端的Web服务器可以通过X-Forwarded-For获取用户真实IP
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        #允许客户端请求的最大单文件字节数
        client_max_body_size 10m;
        #缓冲区代理缓冲用户端请求的最大字节数
        client_body_buffer_size 128k;
        #nginx跟后端服务器连接超时时间(代理连接超时)
        proxy_connect_timeout 90;
        #连接成功后,后端服务器响应时间(代理接收超时)
        proxy_read_timeout 90;
        #设置代理服务器(nginx)保存用户头信息的缓冲区大小
        proxy_buffer_size 4k;
        #proxy_buffers缓冲区,网页平均在32k以下的话,这样设置
        proxy_buffers 6 32k;
        #高负荷下缓冲大小(proxy_buffers*2)
        proxy_busy_buffers_size 64k;
        #设定缓存文件夹大小,大于这个值,将从upstream服务器传
        proxy_temp_file_write_size 64k;
    }
}

你可能感兴趣的:(niginx 配置文件)