为什么要用nginx服务器代理,不直接用tomcat 7.0,还做多了一次接请求?
在传统的Web项目中,并发量小,用户使用的少。所以在低并发的情况下,用户可以直接访问tomcat服务器,然后tomcat服务器返回消息给用户。
但是这种情况下可能会有一种这样的问题:上传图片操作。我们把图片上传到了tomcat1上了,当我们要访问这个图片的时候,tomcat1正好在工作,所以访问的请求就交给其他的tomcat操作,而tomcat之间的数据没有进行同步,所以就发生了我们要请求的图片找不到。
为了解决这种情况,我们就想出了分布式。专门建立一个图片服务器,用来存储图片。这样当我们都把图片上传的时候,不管是哪个服务器接收到图片,都把图片上传到图片服务器。 图片服务器上需要安装一个http服务器,可以使用tomcat、apache、nginx。
这里我们可以看到tomcat也是可以作为http服务器的,那为什么还要用nginx呢?
首先你要知道他们各自的作用及优点;
nginx常用做静态内容服务和代理服务器,直面外来请求转发给后面的应用服务(tomcat,django等等),tomcat更多用来做做一个应用容器,让java web app跑在里面的东西,对应同级别的有jboss,jetty等东西。但是事无绝对,nginx也可以通过模块开发来提供应用功能,tomcat也可以直接提供http服务,通常用在内网和不需要流控等小型服务的场景。
严格的来说,Apache/Nginx 应该叫做「HTTP Server」;而 Tomcat 则是一个「Application Server」,或者更准确的来说,是一个「Servlet/JSP」应用的容器(Ruby/Python 等其他语言开发的应用也无法直接运行在 Tomcat 上)。
一个 HTTP Server 关心的是 HTTP 协议层面的传输和访问控制,所以在 Apache/Nginx 上你可以看到代理、负载均衡等功能。客户端通过 HTTP Server 访问服务器上存储的资源(HTML 文件、图片文件等等)。通过 CGI 技术,也可以将处理过的内容通过 HTTP Server 分发,但是一个 HTTP Server 始终只是把服务器上的文件如实的通过 HTTP 协议传输给客户端。
而应用服务器,则是一个应用执行的容器。它 首先需要支持开发语言的 Runtime(对于 Tomcat 来说,就是 Java),保证应用能够在应用服务器上正常运行。其次,需要支持应用相关的规范,例如类库、安全方面的特性。对于 Tomcat 来说,就是需要提供 JSP/Sevlet 运行需要的标准类库、Interface 等。为了方便,应用服务器往往也会集成 HTTP Server 的功能,但是不如专业的 HTTP Server 那么强大,所以应用服务器往往是运行在 HTTP Server 的背后,执行应用,将动态的内容转化为静态的内容之后,通过 HTTP Server 分发到客户端。
从前面我们了解到Nginx是一个http服务器,Nginx是一款轻量级的Web 服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器,并在一个BSD-like 协议下发行。其特点是占有内存少,并发能力强,事实上nginx的并发能力确实在同类型的网页服务器中表现较好,中国大陆使用nginx网站用户有:百度、京东、新浪、网易、腾讯、淘宝等。官方测试nginx能够支支撑5万并发链接,并且cpu、内存等资源消耗却非常低,运行非常稳定。
(1)http服务器。Nginx是一个http服务可以独立提供http服务。可以做网页静态服务器。
(2 )虚拟主机。可以实现在一台服务器虚拟出多个网站。例如个人网站使用的虚拟主机。
基于端口的,不同的端口
基于域名的,不同域名
(3)反向代理,负载均衡。当网站的访问量达到一定程度后,单台服务器不能满足用户的请求时,需要用多台服务器集群可以使用nginx做反向代理。并且多台服务器可以平均分担负载,不会因为某台服务器负载高宕机而某台服务器闲置的情况。
--nginx的负载均衡策略
--内置策略:轮询 加权轮询 IP hash
--扩展策略 主要通过第三方模块实现,常见有URL HASH
A(4)web缓存
主要由PROXY_Cache(提供代理服务时,对后端服务器返回内容进行URL缓存)和FastCGI_Cache(对FastCGI程序缓存)指令集构成。
服务器:server1:172.25.11.1
提供测试的虚拟机:server2:172.25.11.2
server3:172.25.11.3(两台虚拟机以做负载均衡,需要安装apache)
物理机:172.25.11.250(测试机)
从官网上下载安装包:www.nginx.org
解压安装包:
tar zxf nginx-1.14.0.tar.gz
ls 查看是否解压
cd nginx-1.14.0
ls
vim src/core/nginx.h #删除14行以后的NGINX_VERSION,为了安全,这样编译后外界无法获取程序的版本号
vim auto/cc/gcc #注释掉debug,这样编译以后程序只有几百k
./configure --help #查看编译时的帮助命令
yum install -y gcc pcre-devel openssl-devel #解决编译过程中需要安装的软件
./configure --prefix=/usr/local/nginx --with-http_ssl_module --with-http_stub_status_module --with-threads --with-file-aio
make && make install
cd /usr/local/nginx/
cd sbin/
ln -s /usr/local/nginx/sbin/nginx /usr/local/sbin/ #为了方便调用,建立软链接
nginx -t #查看语法
nginx #打开nginx
(nginx -s stop ###关闭nginx)
netstat -antlp | grep nginx #查看端口信息
curl -I localhost #本机测试
lscpu ##查看主机cpu信息
1 user nginx nginx; #nginx用户
3 worker_processes 1; #工作的进程数
#work_cpu_affinity 01 10; #当cpu为1时,即worker_processes为1时,不需要 此行,当为2时,为work_cpu_affinity 01 10; 为4时,work_cpu_affinity 0001 0010 0100 1000;以此类推
vim /usr/local/nginx/conf/nginx.conf
12 events {
13 worker_connections 65535; ##进程最大连接数
14 }
17 http {
18 upstream westos{
添加轮询配置
19 #ip_hash; #添加这个语句后,一旦检测到ip,后端服务器将不再改变,若不填,默认为rr;
20 server 172.25.11.2:80;
21 server 172.25.11.3:80;
22 }
122 server {
123 listen 80; #端口设置为80
124 server_name www.westos.org;
125
126 location / {
127 proxy_pass http://westos;
128 }
129 }
vim /etc/security/limits.conf
写入: nginx - nofile 65536
建立nginx用户
useradd -M -d /usr/local/nginx/ nginx #-M不建立用户的家目录
nginx -t
nginx -s reload #重载
打开apache:/etc/init.d/httpd start
vim /etc/hosts #先做本地解析
注意:所作解析,ip与其主机名对应
查看主机名
修改主机名:编辑文件即可
vim /etc/sysconfig/network #重启生效
在物理机测试: 访问www.westos.org 出现轮询
nginx自带健康检查
关闭server2 apache,则会只访问server3,同理,关闭3的只访问2
那么如果server2,server3都宕掉了呢?
那么我们来让server1本身自己就会接管。
修改nginx配置文件
vim /usr/local/nginx/conf/nginx.conf
17 http {
18 upstream westos{
19 #ip_hash;
20 server 172.25.11.2:80 down;
21 server 172.25.11.3:80 down; #停掉两台后端服务器
22 server 172.25.11.1:80 backup; #本机做备机
23 }
nginx -t
nginx -s reload
vim /usr/local/nginx/html/index.html
真机测试:
先做本地解析:
vim /etc/hosts
一套网站及时发布系统,架构如下图所示;Nginx做前端代理,发布系统用tomcat 运行,一台共享存储,一台数据库服务器;由于网站及时发布系统涉及到了用户登录操作,要保障客户端的会话完整,用nginx自带的ip_hash进行分 发,但实际生产环境下出现了问题;系统大多是公司内部编辑人员进行编辑网页时访问,出口IP都一致,Nginx会把请求分发到一台服务器上,两台服务器并 没有合理分配请求资源;所以这种情况下得用到sticky模块。
sticky应用场景
在多台后台服务器的环境下,我们为了确保一个客户只和一台服务器通信,我们势必使用长连接。使用什么方式来实现这种连接呢,常见的有使用nginx自 带的ip_hash来做,我想这绝对不是一个好的办法,如果前端是CDN,或者说一个局域网的客户同时访问服务器,导致出现服务器分配不均衡,以及不能保 证每次访问都粘滞在同一台服务器。如果基于cookie会是一种什么情形,想想看, 每台电脑都会有不同的cookie,在保持长连接的同时还保证了服务 器的压力均衡,nginx sticky值得推荐!
重新编译安装nginx
nginx -s stop
cd nginx-1.14.0
make clean
cd
unzip nginx-goodies-nginx-sticky-module-ng-08a395c66e42.zip
Archive: nginx-goodies-nginx-sticky-module-ng-08a395c66e42.zip
cd nginx-1.14.0
./configure --prefix=/usr/local/nginx --with-http_ssl_module --with-http_stub_status_module --with-threads --with-file-aio --add-module=/root/nginx-goodies-nginx-sticky-module-ng-08a395c66e42
make && make install
vim /usr/local/nginx/conf/nginx.conf
nginx
nginx -s reload
测试:
需用浏览器测试,curl命令不支持cookies,使用火狐浏览器按shift+F5在storage中查看详细信息,如果没有storge这一项,就在右边的设置里面找到添加即可。