Nginx (engine x) 是一个高性能的HTTP和反向代理web服务器,同时也提供了IMAP/POP3/SMTP服务。Nginx是由伊戈尔·赛索耶夫为俄罗斯访问量第二的Rambler.ru站点(俄文:Рамблер)开发的,第一个公开版本0.1.0发布于2004年10月4日
Nginx是一款轻量级的Web 服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器,在BSD-like 协议下发行。其特点是占有内存少,并发能力强,事实上nginx的并发能力在同类型的网页服务器中表现较好。
Nginx可以作为静态页面的web服务器,同时还支撑CGI协议的动态语言,比如:perl、php等。但是不支持java,Java程序只能通过与tomcat配合完成,Nginx专为性能优化而开发,性能是其中最重要的考量,实现上非常注重效率,能经受高负载的考验,有报告表明能支持5万个并发连接数。
Nginx不仅可以做反-向-代-理,实现负载均衡,还能用作正-向-代-理进行上网等功能。
如果把局域网外的Internet想象成一个巨大的资源库,则局域网中的客户端要访问Internet,则需要通过代理服务器来访问,这种代-理服务器就称为正-向-代-理。
即:在我们的客户端配置代-理-服务器,通过代-理-服务器进行互联网的访问
反-向-代-理,其实客户端对代理是无感知的,因为客户端不需要任何配置就可以访问,我们只需要将请求发送到反-向-代-理服务器,由反-向-代-理服务器去选择目标服务器获取数据后,再返回给客户端,此时反-向-代-理服务器和目标服务器对外就是一个服务器,暴露的代理服务器地址,隐藏里真是的服务器IP地址
15个请求,通过反向代理服务器,把请求平均分配到集群中的服务器去处理。
为加快网站的解析速度,可以把动态页面和静态页面由不同的服务器来解析,加快解析速度,降低原来单个服务器的压力。
Nginx动静分离简单来说就是把动态跟静态请求分开,不能理解成只是单纯把动态页面和静态页面物理分离。严格意义上来说应该是动态请求跟静态请求分开,可以理解成使用Nginx处理静态页面,Tomcat处理动态页面。动静分离从目前实现角度大致分成两种:
通过location指定不同的后缀名实现不同的请求转发,通过expire参数设置,可以使浏览器缓存过期时间,减少与服务器之前的请求和流量。具体Expires定义:是给一个资源设定一个过期时间,即无需去服务器端验证,直接通过浏览器自身确认是否过期即可,所以不会产生额外的流量。此种方法适合不经常变动的资源(如果经常更新不建议用Expires来缓存)。
例如:设置3d,标识这个3天之内访问这个URL,发送一个请求对比服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码304,如果有修改,则直接从服务器重新下载,返回状态200
yum -y install make zlib zlib-devel gcc-c++ libtoll openssl-devel
使用命令的前提条件要进入nginx的目录里:cd /usr/local/nginx/sbin
./nginx -v
./nginx
./nginx -s stop
./nginx -s reload
配置文件位置/usr/local/nginx/conf/里的nginx.conf
从配置文件开始到events块之间的内容,主要会设置一些影响nginx服务器整体运行的配置指令,主要包括配置运行Nginx服务器的用户(组)允许生成worker process数,进程PID存放路径、日志存放路径和类型以及配置文件的引入等
worker_provesses 1; #Nginx服务器并发处理服务器的关键配置,worker_provesser值越大,可以支持的并发数量也越多,但会受到硬件、软件等设备的制约
events块设计的指令主要影响Nginx服务器与用户的网络连接(常用的设置包括是否开启对多work process下的网络连接进行序列化,是否同时接收多个网络连接,选取那些事件驱动模型来处理连接请求,每个work process可以同时支持的最大连接数量等)
work_connections 1024; #支持最大连接数,这个对Nginx的性能影响较大,在实际应用中灵活配置
这个模块是Nginx服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。
注意:http块也可以包括http全局块和server块
打开浏览器,在浏览器地址栏输入地址,跳转到Linux系统Tomcat主页面中。
http{
server{
listen:80; #默认监听80端口
server_name 192.168.160.235; #改成IP地址
#charset koi8-r;
#access_log logs/host.access.log main;
location /{#表示是路径中包含斜杠,当访问时会通过location给转发到一个路径
root html;
proxy_pass http://192.168.160.220:8080;#转发到这个地址
index index.html index.htm;
}
}
}
使用nginx反向代理,根据访问的路径跳转到不同端口的服务器中
http{
server{
listen 9001;
server_name 192.168.160.235;
location ~ /ede/ {# ~表示使用正则表达式
proxy_pass http://192.168.160.220:8080;
}
location ~ /vod/ {
proxy_pass http://192.168.160.220:8081;
}
}
}
该指令用户匹配URL
语法:
location [= | ~ | ~* | ^~] url {
}
浏览器地址栏输入地址,实现负载均衡的效果,平均分担到不同Tomcat
http{
upstream myserver{# 自定义负载均衡的名字
ip_hash;
server 192.168.160.220:8080;
server 192.168.160.220:8081;
}
server{
location /{
...
proxy_pass http://myserver; #上面自定义的名字
proxy_connect_timeout 10; #
}
}
}
负载均衡即是将负载分摊到不同的服务器单元,既保证服务的可用性,又保证响应足够快,给用户很好的体验
Nginx提供了几种分配策略:
upstream server_pool{
ip_hash;
server 192.168.160.220;
server 192.168.160.221;
}
upstream server_pool{
server 192.168.160.220;
server 192.168.160.221;
fair;
}
http{
server{
listen 80;
server_name 192.168.160.235;
}
location /www/ {
root /data/;
index index.html index.htm;
}
location /image/ {
root /data/;
autoindex on; #列出当前文件夹里的内容
}
}
安装keepalived
修改keepalived配置文件
/etc/keepalived.cnf
主配置文件说明
global_defs{ #全局定义
router_id LVS_DEVEL #唯一值,/etc/hosts里查看或添加
}
vrrp_script chk_http_port{#名字自定义,这是检测脚本
script "/usr/local/src/nginx_check.sh" #检测脚本位置
interval 2 #检测脚本执行时间间隔
weight 2
}
vrrp_instance VI_1{#虚拟ip配置,配置实例
state MASTER #状态
interface et0 #网卡(改成自己通信端口,用ifconfig查看)
virtual_router_id 51 #虚拟路由id,一个集群用同一个id
priority 100 #优先级 100高
advert_int 5 #每5秒检测一次,发主播
#校验方式,使用密码,密码为1111
autentication{
auth_type PASS
auth_pass 1111
}
#VRRP H虚拟地址,VIP地址
virtual_ipaddress{
192.168.160.234
}
}
备配置文件说明
global_defs{ #全局定义
router_id LVS_DEVEL #唯一值
}
vrrp_script chk_http_port{#名字自定义,这是检测脚本
script "/usr/local/src/nginx_check.sh" #检测脚本位置
interval 2 #检测脚本执行时间间隔
weight 2
}
vrrp_instance VI_1{#虚拟ip配置,配置实例
state BACKUP #状态
interface et0 #网卡(改成自己通信端口,用ifconfig查看)
virtual_router_id 51 #虚拟路由id,一个集群用同一个id
priority 90 #优先级 低于主
advert_int 5
autentication{
auth_type PASS
auth_pass 1111
}
#VRRP H虚拟地址,VIP地址
virtual_ipaddress{
192.168.160.234
}
}
一个Master多个worker,worker是抢占式从Master争抢请求
好处:
每个worker进程来说都是独立的不需要加锁,省掉锁开销,编程以及查找问题时会方便很多。独立进程可以让相互之间不会影响,一个进程退出以后,其他进程还在工作,服务不会中断,master进程会很快启动新的worker。当然,worker进程的异常退出,肯定是程序有bug,异常退出,会导致当前worker上的所有请求失败,不过不会影响到所有请求。
有利于nginx进项热部署操作nginx -s reload
设置多少worker是合适的
Nginx同redis类似都采用IO多路复制机制,每个worker都是独立进程,但每个进程里只有一个主线程,通过异步非阻塞方式来请求,即是成千上万个请求也不在话下。每个worker的线程可以把一个CPU的性能发挥到极致。所以worker数和服务器CPU数相等是最为适宜的。设置少了浪费CPU,设置多了会造成CPU频繁切换上下文带来损耗。
#如何设置worker数量
worker_process 4
#work绑定CPU(4work绑定8CPU中的4个)
worker_cpu_affinity 0001 0010 0100 1000
连接数worker_connection
一个请求占用worker几个连接数?答案:2个或4个(请求、响应、请求后端、后端响应)
nginx有一个master,4个worker。每个worker支持最大连接数1024,那么支持最大并发是多少?
文文的学习笔记,如有问题留言~