1、什么是Nginx?
Nginx
是一个高性能的HTTP
和反向代理web
服务器,核心特点是占有内存少,并发能力强。
2、Nginx的应用场景
Http服务器(Web服务器)
性能非常高,非常注重效率,能够经受高负载的考验。
支持50000
个并发连接数,不仅如此,CPU
和内存的占用也非常的低,10000个没有活动的连 接才占用2.5M的内存。
反向代理服务器
正向代理
在浏览器中配置代理服务器的相关信息,通过代理服务器访问目标网站,代理服务器收到目标网站的响应之后,会把响应信息返回给我们自己的浏览器客户端。
反向代理
浏览器客户端发送请求到反向代理服务器(比如Nginx
),由反向代理服务器选择原始服务器提供服务获取结果响应,最终再返回给客户端浏览器。
负载均衡服务器
负载均衡,当一个请求到来的时候(结合上图),Nginx
反向代理服务器根据请求去找到一个 原始服务器来处理当前请求,那么这叫做反向代理。那么,如果目标服务器有多台,找哪一个目标服务器来处理当前请求呢,这样一 个寻找确定的过程就叫做负载均衡。
生活中也有很多这样的例子,比如,我们去银行,可以处理业务的窗口有多个,那么我们会 被分配到哪个窗口呢到底,这样的一个过程就叫做负载均衡。
负载均衡就是为了解决高负载的问题。
动静分离
3、Nginx的特点
Nginx
可以在大多数类unix
操作系统上编译运行,而且也有windows
版本。Nginx
的上手非常容易,配置也比较简单。1、安装Nginx依赖,pcre、openssl、gcc、zlib(推荐使用yum源自动安装)
yum -y install gcc zlib zlib-devel pcre-devel openssl openssl-devel
2、下载Nginx
wget http://nginx.org/download/nginx-1.17.8.tar.gz
3、解包Nginx软件包
tar -zxvf nginx-1.17.8.tar.gz
4、进入解压之后的目录 nginx-1.17.8
cd nginx-1.17.8
5、命令行执行./configure
6、make
7、命令行执行 make install,完毕之后在/usr/local/下会产生一个nginx目录
8、进入sbin目录中,执行启动nginx命令
cd nginx/sbin
./nginx
9、然后访问服务器的80端口(nginx默认监听80端口)
10、访问自己的云服务器不成功的话
阿里云服务器需要设置安全组规则,配置下面的http
规则就行了。
11、Nginx主要命令
./nginx
启动nginx
./nginx -s stop
终止nginx
(当然也可以找到nginx
进程号,然后使用kill -9
杀掉nginx
进程)./nginx -s reload
(重新加载nginx.conf
配置文件)Nginx
的核心配置文件conf/nginx.conf
包含三块内容:全局块
、events块
、http块
1、全局块
从配置文件开始到events
块之间的内容,此处的配置影响nginx
服务器整体的运行,比如worker
进程的数量、错误日志的位置等。
events
块主要影响nginx
服务器与用户的网络连接,比如worker_connections 1024
,标识每个
workderprocess
支持的最大连接数为1024
。
3、http块
http
块是配置最频繁的部分,虚拟主机的配置,监听端口的配置,请求转发、反向代理、负载均衡等。
1、反向代理需求一
浏览器请求nginx(http://47.113.82.141:9003
),nginx
将请求转发给了目标服务器,我们看到的是目标服务器的响应页面。在整个过程中,目标服务器相当于对客户端是不可见的,服务端向外暴露的就是nginx
的地址。
tomcat
,保持默认监听8080
端口nginx
配置nginx
配置./nginx -s reload
http://47.113.82.141:9003
,返回tomcat
的⻚面2、反向代理需求二
在需求一的基础上,目标服务器有两个,分别是127.0.0.1:8080
、127.0.0.1:8081
。
当访问http://47.113.82.141/9003/abc
的时候,实际访问目标服务器127.0.0.1:8080
;
当访问http://47.113.82.141/9003/def
的时候,实际访问目标服务器127.0.0.1:8081
。
再部署一台tomcat
,保持默认监听8081
端口
修改nginx
配置,并重新加载
里主要就是多location
的使用,这里的nginx
中server/location
就好比tomcat
中的Host/Context
location
语法如下:
location [=|~|~*|^~] /uri/ { ... }
在nginx
配置文件中,location
主要有这几种形式:
location ~ /riemann { }
location ~* /riemann { }
location ^~ /riemann { }
location = /riemann { }
location /riemann { }
优先级 4>3>2>1>5
负载均衡需求:
新增一个tomcat
监听8082
端口,当访问http://47.113.82.141/9003/abc
,使用Nginx
作为负载均衡器,将请求分配到127.0.0.1:8080
、127.0.0.1:8082
。
1、轮询
默认策略,每个请求按时间顺序逐一分配到不同的服务器,如果某一个服务器下线,能自动剔除。
upstream riemannServer{
server 47.113.82.141:8080;
server 47.113.82.141:8082;
}
location /abc {
proxy_pass http://riemannServer/;
}
2、weight
weight
代表权重,默认每一个负载的服务器都为1,权重越高那么被分配的请求越多(用于服务器
性能不均衡的场景)
upstream riemannServer{
server 47.113.82.141:8080 weight=1;
server 47.113.82.141:8082 weight=2;
}
3、ip_hash
每个请求按照ip的hash结果分配,每一个客户端的请求会固定分配到同一个目标服务器处理,可
以解决session
问题。
upstream riemannServer{
ip_hash;
server 47.113.82.141:8080;
server 47.113.82.141:8082;
}
动静分离就是讲动态资源和静态资源的请求处理分配到不同的服务器上,比较经典的组合就是 Nginx+Tomcat
架构(Nginx
处理静态资源请求,Tomcat
处理动态资源请求),那么其实之前的讲解 中,Nginx
反向代理目标服务器Tomcat
,我们能看到目标服务器ROOT
项目的index.jsp
,这本身就是 Tomcat
在处理动态资源请求了。
所以,我们只需要配置静态资源访问即可。
动静分离需求
主要是静态资源的访问,因为我们之前Nginx
反向代理到Tomcat
能够看到Tomcat ROOT
项目的index.jsp
页面,这本身就是一个动态资源的请求过程。
我们希望在Nginx
服务器上部署静态资源,然后浏览器请求http://47.113.82.141/9003/static/abc.html
,Nginx
直接读取的本地静态资源。
Nginx配置
Nginx
启动后,以daemon
多进程方式在后台运行,包括一个Master
进程和多个Worker
进程,Master
进程是领导,是老大,Worker
进程是干活的小弟。
master进程
主要是管理worker
进程,比如:
接收外界信号向各worker
进程发送信号(./nginx -s reload
)
监控worker
进程的运行状态,当worker
进程异常退出后Master
进程会自动重新启动新的 worker
进程等
worker进程
worker
进程具体处理网络请求。多个worker
进程之间是对等的,他们同等竞争来自客户端的请求,各进程互相之间是独立的。一个请求,只可能在一个worker
进程中处理,一个worker
进程, 不可能处理其它进程的请求。worker
进程的个数是可以设置的,一般设置与机器cpu
核数一致。
1、Nginx进程模型示意图如下
2、以 ./nginx -s reload
来说明nginx信号处理这部分
master
进程对配置文件进行语法检查worker
进程worker
进程发送关闭消息所以reload
之后worker
进程pid
是发生了变化的
3、worker进程处理请求部分的说明
例如,我们监听9003端口,一个请求到来时,如果有多个worker进程,那么每个worker进程都有
可能处理这个链接。
master
进程创建之后,会建立好需要监听的的socket
,然后从master
进程再fork
出多个worker
进程。所以,所有worker
进程的监听描述符listened在新连接到来时都变得可读。nginx
使用互斥锁来保证只有一个worker
进程能够处理请求,拿到互斥锁的那个进程注册 listenfd
读事件,在读事件里调用accept
接受该连接,然后解析、处理、返回客户端。4、nginx多进程模型好处
worker
进程都是独立的,不需要加锁,节省开销worker
进程都是独立的,互不影响,一个异常结束,其他的照样能提供服务reload
热部署机制提供了支撑