Nginx学习笔记

什么是Nginx

一款高性能的http服务器/反向代理服务器,能够支撑5万并发连接,并且cpu、内存资源消耗非常低

Nginx能做什么

http服务器,做网页静态服务器。
虚拟主机,实现一台服务器虚拟出多个网站。
可以做反向代理、负载均衡、动静分离。

什么是反向代理

(1)正向代理
在客户端(浏览器)配置代理服务器,通过代理服务器进行互联网访问
(2)反向代理
客户端只需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,再返回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器地址,隐藏了真实服务器IP地址。

什么是负载均衡

请求量太大单个服务器配置再高也解决不了,于是增加服务器的数量,将请求分发到各个服务器上,负载分发到不同的服务器,就是负载均衡。

什么是动静分离

为了加快网站的解析速度,可以把动态页面和静态页面由不同的服务器来解析,加快解析速度,降低原来单个服务器的压力。

Linux下安装Nginx
  1. 安装gcc环境:
    yum install gcc-c++
  2. 安装第三方开发包:
    PCRE(nginx的http模块使用pcre来解析正则表达式):
    yum install -y pcre pcre-devel
    安装完成后可以输入pcre-config --version来查看版本号
    zlib(压缩和解压缩):
    yum install -y zlib zlib-devel
    OpenSSL(密码库服务):
    yum install -y openssl openssl-devel
  3. 安装nginx,官网下载:http://nginx.org/
    把nginx的源码包上传到linux系统,放到usr/src下
    解压缩:tar -xvf nginx-1.12.2.tar.gz
    创建makeFile文件:./configure
    编译和安装:make && make install
    进入到nginx目录下的sbin目录:cd /usr/local/nginx/sbin/
    输入命令启动Nginx:./nginx
    启动后查看进程:ps -ef | grep nginx
    设置开放的端口:sudo firewall-cmd --add-port=80/tcp --permanent
    重启防火墙:firewall-cmd --reload
    查看开放的端口:firewall-cmd --list-all
    直接访问ip地址即可看到nginx页面
nginx操作常用的命令
  1. 使用nginx操作命令的前提条件:必须进入nginx的目录 usr/local/nginx/sbin
  2. 查看nginx的版本号:./nginx -v
  3. 启动nginx:./nginx
  4. 关闭nginx:./nginx -s stop
  5. 重新加载:./nginx -s reload
nginx配置文件
  1. nginx配置文件位置:usr/local/nginx/conf/nginx.conf
  2. nginx配置文件组成
    nginx配置文件有三部分组成
    第一部分 全局块
    从配置文件开始到events块之间的内容,主要会设置一些影响nginx服务器整体运行的配置指令
    比如worker_processes 1; work_processes值越大,可以支持的并发处理量也越多
    第二部分 events块
    events块涉及的指令主要影响Nginx服务器与用户的网络连接
    比如worker_connections 1024; 支持的最大连接数
    第三部分 http块
    Nginx服务器配置中最频繁的部分
    http块也可以包括http全局块、server块
Nginx配置实例-反向代理实例1

1、实现效果
打开浏览器,在浏览器地址栏输入地址www.123.com,跳转到linux系统tomcat主页面中。
2、准备工作
(1)在linux系统安装tomcat,使用默认端口8080
tomcat安装文件放到linux系统中,解压
进入tomcat的bin目录中,./startup.sh启动tomcat服务器
(2)对外开放访问的端口
firewall-cmd --add-port=8080/tcp --permanent
(3)在windows系统中通过浏览器访问tomcat服务器
3、访问过程的分析
客户端在访问域名时,不知道访问的是nginx还是tomcat。实际访问的是nginx,nginx会在server中找到域名,然后找到proxy_pass,根据proxy_pass找到项目名AAA,然后找到真正的ip地址和端口,访问到tomcat服务器
4、具体配置
第一步,在windows系统的host文件进行域名和ip对应关系的配置
192.168.8.110 www.123.com
第二步,在nginx进行请求转发的配置(反向代理配置)
在nginx.conf配置文件中server块中的location代码块区域root下添加一行代码:proxy_pass http://127.0.0.1:8080;
5、最终测试,浏览器访问www.123.com,跳转tomcat页面

Nginx配置实例-反向代理实例2

1、实现效果
使用nginx反向代理,根据访问的路径跳转到不同端口的服务中
nginx监听端口为9001,访问http://127.0.0.1:9001/edu/直接跳转到127.0.0.1:8080
访问http://127.0.0.1:9001/vod/直接跳转到127.0.0.1:8081
2、准备工作
(1)准备两个tomcat服务器,一个8080端口,一个8081端口
(2)创建文件夹和测试页面
3、具体配置
(1)找到nginx配置文件,进行反向代理配置

 server {
        listen       9001;
        server_name  192.168.8.110;

      location ~ /edu/ {
            proxy_pass http://localhost:8000;
        }
        location ~ /vod/ {
            proxy_pass http://localhost:8001;
        }
    }

(2)开放对外访问的端口号
4、测试。浏览器访问www.123.com:9001/edu/a.html和www.123.com:9001/vod/b.html,访问成功。

Nginx配置实例-负载均衡

1、实现效果
(1)浏览器访问www.123.com/edu/a.html,服务器实现负载均衡效果,平均分配到8080和8081端口中
2、准备工作
(1)准备两台tomcat服务器,一台8080,一台8081
(2)在两台tomcat里面webapps目录中,创建名称是edu文件夹,在edu文件夹中创建页面a.html用于测试
3、在nginx的配置文件中进行负载均衡的配置

upstream myserver{
        server 192.168.8.110:8080;
        server 192.168.8.110:8081;
    }   
    server {
        listen       80;
        server_name  192.168.8.110;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        location / {
            root   html;
            proxy_pass http://myserver;
            index  index.html index.htm;
        }

4、nginx分配服务器策略
第一种 轮询(默认)
每个请求按时间顺序逐一分配到不同的服务器,如果服务器down掉,能自动剔除。
第二种 weight
weight代表权重默认为1,权重越高被分配的客户端越多
例:

upstream server{
	server 192.168.1.8 weight=10
	server 192.168.1.9 weight=5
}

第三种 ip_hash
每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session共享的问题。
例:

upstream server{
	ip_hash;
	server 192.168.1.10;
	server 192.168.1.11;
}

第四种 fair
按后端服务器的响应时间来分配请求,响应时间短的优先分配。

upstream server{
	server 192.168.1.10;
	server 192.168.1.11;
	fair;
}
Nginx配置实例-动静分离

严格意义上说应该是动态请求和静态请求分开,可以理解成使用Nginx处理静态页面,Tomcat处理动态页面。动静分离从目前实现角度来讲大致分为两种:
一种是纯粹把静态文件独立成单独的域名,放在独立的服务器上,也是目前主流推崇的方案;
另一种是动态和静态文件混合在一起发布,通过nginx来分开。
通过location指定不同的后缀名实现不同的请求转发。通过expires参数设置,可以使浏览器缓存过期时间,减少与服务器之前的请求和流量。具体Expires定义:是给一个资源设定一个过期时间,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可,所以不会产生额外的流量。此种方法非常适合不经常变动的资源。(如果经常更新的文件,不建议使用Expires来缓存),这里设置3d,表示在这3天之内访问这个URL,发送一个请求,对比服务器该文件最后更新时间,没有变化则不会从服务器抓取,返回状态码304。如果有修改,则直接从服务器重新下载,返回状态码200。
1、准备工作
(1)在linux系统中准备静态资源,用于进行访问
(2)修改nginx.conf配置文件。autoindex on表示访问路径时列出当前文件夹的文件。

location /www/ {
            root   /data/;
            index  index.html index.htm;
        }
        location /image/{
            root  /data/;
            autoindex on;
        }

2、测试。浏览器中输入地址http://192.168.1.10/image/01.jpg

Nginx配置高可用的集群

1、什么是nginx高可用
服务器通过nginx进行反向代理,当nginx宕机时服务器也无法访问了。为了避免出现这种情况,可以准备备用的nginx,使用keepalived将虚拟ip绑定到主Nginx,主Nginx宕机后被keepalived检测到,将虚拟ip绑定到备用Nginx,实现高可用效果。
(1)需要两台nginx服务器
(2)需要keepalived
(3)需要虚拟ip
2、配置高可用的准备工作
(1)需要两台服务器,这里选择虚拟两个linux
(2)在两台服务器上安装nginx
(3)在两台服务器上安装keepalived
yum install keepalived -y
3、完成高可用配置(主从配置)
(1)在/etc/keppalived目录下,找到配置文件keepalived.conf,修改为:

global_defs {
	notification_email {
	  acassen@firewall.loc
	  failover@firewall.loc
	  sysadmin@firewall.loc
	}
	notification_email_from Alexandre.Cassen@firewall.loc
	smtp_ server 192.168.17.129
	smtp_connect_timeout 30
	router_id LVS_DEVEL	# LVS_DEVEL这字段在/etc/hosts文件中看;通过它访问到主机
}

vrrp_script chk_http_ port {
	script "/usr/local/src/nginx_check.sh"
	interval 2   # (检测脚本执行的间隔)2s
	weight 2  #权重,如果这个脚本检测为真,服务器权重+2
}

vrrp_instance VI_1 {
	state BACKUP   # 备份服务器上将MASTER 改为BACKUP
	interface ens33 //网卡名称
	virtual_router_id 51 # 主、备机的virtual_router_id必须相同
	priority 100   #主、备机取不同的优先级,主机值较大,备份机值较小
	advert_int 1	#每隔1s发送一次心跳
	authentication {	# 校验方式, 类型是密码,密码1111
        auth type PASS
        auth pass 1111
    }
	virtual_ipaddress { # 虛拟ip
		192.168.17.50 // VRRP H虛拟ip地址
	}
}

(2)在路径/usr/local/src/ 下新建检测脚本 nginx_check.sh

#! /bin/bash
A=`ps -C nginx -no-header | wc - 1`
if [ $A -eq 0];then
	/usr/local/nginx/sbin/nginx
	sleep 2
	if [`ps -C nginx --no-header| wc -1` -eq 0 ];then
		killall keepalived
	fi
fi

(3) 把两台服务器上nginx和keepalived启动

systemctl start keepalived.service		#keepalived启动
ps -ef I grep keepalived		#查看keepalived是否启动

5、最终测试
(1) 在浏览器地址栏输入虚拟ip地址192.168.17.50
(2) 把主服务器(192.168.17.129) nginx和keealived停止,再输入192.168.17.50.

systemctl stop keepalived.service  #keepalived停止
Nginx原理解析

1、master和worker
Nginx学习笔记_第1张图片

2、worker如何进行工作的
Nginx学习笔记_第2张图片

3、一个master和多个woker的好处
可以使用nginx -s reload热部署。
首先,对于每个worker进程来说,独立的进程,不需要加锁,所以省掉了锁带来的开销,
同时在编程以及问题查找时,也会方便很多。其次,采用独立的进程,可以让互相之间不会
影响,一个进程退出后,其它进程还在工作,服务不会中断,master进程则很快启动新的
worker进程。当然,worker进程的异常退出,肯定是程序有bug了,异常退出,会导致当
前worker.上的所有请求失败,不过不会影响到所有请求,所以降低了风险。
4、设置多少个worker合适
Nginx同redis类似都采用了io多路复用机制,每个worker都是一个独立的进程, 但每个进
程里只有一个主线程,通过异步非阻塞的方式来处理请求,即使是 千上万个请求也不在话
下。每个worker的线程可以把一个cpu的性能发挥到极致。所以worker数和服务器的cpu
数相等是最为适宜的。设少了会浪费cpu,设多了会造成cpu频繁切换上下文带来的损耗。

# 设置worker数量
worker.processes 4 

# work绑定cpu(4work绑定4cpu)
worker_cpu_affinity 0001 0010 0100 1000

# work绑定cpu (4work绑定8cpu中的4)
worker_cpu_affinity 0000001 00000010 00000100 00001000

5、连接数worker_ connection
这个值是表示每个worker进程所能建立连接的最大值,所以,一个nginx 能建立的最大连接数,应该是worker.connections * worker processes。当然,这里说的是最大连接数,对于HTTP 请求本地资源来说,能够支持的最大并发数量是worker.connections * worker processes,如果是支持http1.1的浏览器每次访问要占两个连接,所以普通的静态访问最大并发数是: worker.connections * worker.processes / 2, 而如果是HTTP作为反向代理来说,最大并发数量应该是worker.connections * worker_proceses/4. 因为作为反向代理服务器,每个并发会建立与客户端的连接和与后端服务的连接,会占用两个连接.
第一个: 发送请求,占用了woker的几个连接数?
答案: 2或者4个。

第二个: nginx有一个master,有四个woker,每个woker支持最大的连接数1024,支持的最大并发数是多少?
答案:普通的静态访问最大并发数是: worker connections * worker processes /2,
而如果是HTTP作为反向代理来说,最大并发数量应该是worker connections * worker processes/4

你可能感兴趣的:(Nginx,nginx,服务器,linux)