软件架构初识

基础概念

分布式:

系统中的多个模块在不同服务器上部署,即可称为分布式系统,如Tomcat和数据库分别部署在不同的服务器上,或两个相同功能的Tomcat分别部署在不同服务器上

什么是分布式事务?

分布式事务用于在分布式系统中保证不同节点之间的数据一致性。分布式事务的实现有很多种,最具有代表性的是由Oracle Tuxedo系统提出的XA分布式事务协议。

高可用:

系统中部分节点失效时,其他节点能够接替它继续提供服务,则可认为系统具有高可用性

如何提高可用性:1.提高系统的无故障时间        2.减少系统的故障恢复时间

故障原因分为

无计划的系统故障
1)系统级故障:包括主机、操作系统、中间件、数据库、网络、电源以及外围设备。
2)自然灾害、人为破坏,以及供电问题等。

有计划的日常任务:
1)运维相关:数据库维护、应用维护、中间件维护、操作系统维护、网络维护。
2)升级相关:数据库、应用、中间件、操作系统、网络,包括硬件升级。
故障归类:

网络问题:网络链接出现问题,网络带宽出现拥塞等
性能问题:慢 SQL、Java Full GC、硬盘 IO 过大、CPU 飙高、内存不足等
安全问题:被网络攻击,如 DDoS 等。
运维问题:系统总是在被更新和修改,架构也在不断地被调整,监控问题等
管理问题:没有梳理关键服务及服务的依赖关系,运行信息没有和控制系统同步等
硬件问题:硬盘损坏、网卡出问题、交换机出问题、机房掉电、挖掘机问题等
总之,我们要正确认识故障,故障不可避免。尤其是在大型分布式系统中,出现故障是一种常态。有时出现故障根本就不知道出现在了什么地方。所以我们要对故障原因先有一个认识,与此同时我们要基于故障有应对的策略,也就是我们所说的“弹力设计”,就类似三国中的赵云猛将,在搏杀中能进能退。

集群:一个特定领域的软件部署在多台服务器上并作为一个整体提供一类服务,这个整体称为集群

在常见的集群中,客户端往往能够连接任意一个节点获得服务,并且当集群中一个节点掉线时,其他节点往往能够自动的接替它继续提供服务,这时候说明了集群具有高可用性

负载均衡: 

请求发送到系统时,通过某些方式的请求均匀分发到多个节点上,使系统中每个节点能够均匀的处理请求负载,则可认为系统是负载均衡的

正向代理和反向代理:

系统内部要访问外部网络时,统一通过一个代理服务器把请求转发出去,在外部网络看来就是代理服务器发起额访问,此时代理服务器实现的是正向代理       当外部请求进入系统时,代理服务器把该请求转发到系统中的某台服务器上,对外部请求来说,与之交互的只有代理服务器,此时代理服务器实现的是反向代理

简单的来说,正向代理是服务器代替系统内部来访问外部网络的过程,而反向代理是外部请求访问系统时通过代理服务器转发到内部服务器的过程

单体架构:把web服务器(Tomcat)和数据库部署在同一台服务器上,随着用户的增多,Toncat和数据库之间竞争资源,单机性能不足以支撑业务

后采用Web服务与数据库分开使Web服务器(tomcat)和数据库分别独占服务器资源,显著提高两者各自性能但是随着用户的增长,并发读写数据库成为瓶颈

又增加了本地缓存和分布式缓存:

在Tomcat同服务器上或同JVM中增加本地缓存,并在外部增加分布式缓存,缓存热门商品信息或热门商品的html页面等.通过缓存能把绝大多数请求在读写数据库前拦截掉,大大降低数据库压力

软件架构初识_第1张图片

其中涉及的技术包括:基于memcached作为本地缓存,使用Redis作为分布式缓存,还会涉及缓存一致性、缓存穿透/击穿、缓存雪崩、热点数据集中失效等问题。
缓存虽然抗住了大部分的访问请求,但随着用户数的增长,并发压力主要落在单机的Tomcat上,响应逐渐变慢。

反向代理与负载均衡设计

在多台服务器上分别部署Tomcat,使用反向代理软件(Nginx)把请求均匀分发到每个Tomcat中.

虽然反向代理使应用服务器可支持的并发量大大增加,但并发量的增长也意味着更多请求穿透到数据库单机的数据库最终成为瓶颈

出台数据库读写分离设计:

把数据库划分为读库和写库,读库可以有多个,通过同步机制把写库的数据同步到读库,对于需要查询最新写入数据场景,可通过在缓存中多写一份,通过缓存获得最新数据.

软件架构初识_第2张图片

其中涉及的技术包括:Mycat,它是数据库中间件,可通过它来组织数据库的分离读写和分库分表,客户端通过它来访问下层数据库,还会涉及数据同步,数据一致性的问题。
业务逐渐变多,不同业务之间的访问量差距较大,不同业务直接竞争数据库,相互影响性能

数据库按业务进行分库

把不同业务的数据保存到不同的数据库中,使业务之间的资源竞争降低,对于访问量大的业务,可以部署更多的服务器来支撑

在这里插入图片描述

这样同时导致跨业务的表无法直接做关联分析,需要通过其他途径来解决,但这不是本文讨论的重点,有兴趣的可以自行搜索解决方案。对于这种方案,随着用户数的增长,单机的写库会逐渐会达到性能瓶颈。

大表拆分为小表
比如针对评论数据,可按照商品ID进行hash,路由到对应的表中存储;针对支付记录,可按照小时创建表,每个小时表继续拆分为小表,使用用户ID或记录编号来路由数据。只要实时操作的表数据量足够小,请求能够足够均匀的分发到多台服务器上的小表,那数据库就能通过水平扩展的方式来提高性能。其中前面提到的Mycat也支持在大表拆分为小表情况下的访问控制。

在这里插入图片描述

这种做法显著的增加了数据库运维的难度,对DBA的要求较高。数据库设计到这种结构时,已经可以称为分布式数据库,但是这只是一个逻辑的数据库整体,数据库里不同的组成部分是由不同的组件单独来实现的,如分库分表的管理和请求分发,由Mycat实现,SQL的解析由单机的数据库实现,读写分离可能由网关和消息队列来实现,查询结果的汇总可能由数据库接口层来实现等等,这种架构其实是MPP(大规模并行处理)架构的一类实现。

数据库和Tomcat都能够水平扩展,可支撑的并发大幅提高,随着用户数的增长,最终单机的Nginx会成为瓶颈。

LVS或F5让多个Nginx负载均衡

由于瓶颈在Nginx,因此无法通过两层的Nginx来实现多个Nginx的负载均衡。此时采用LVS和F5作为网络负载均衡解决方案,如图所示:

在这里插入图片描述

其中LVS是软件,运行在操作系统内核态,可对TCP请求或更高层级的网络协议进行转发,因此支持的协议更丰富,并且性能也远高于Nginx,可假设单机的LVS可支持几十万个并发的请求转发;F5是一种负载均衡硬件,与LVS提供的能力类似,性能比LVS更高,但价格昂贵。由于LVS是单机版的软件,若LVS所在服务器宕机则会导致整个后端系统都无法访问,因此需要有备用节点。可使用keepalived软件模拟出虚拟IP,然后把虚拟IP绑定到多台LVS服务器上,浏览器访问虚拟IP时,会被路由器重定向到真实的LVS服务器,当主LVS服务器宕机时,keepalived软件会自动更新路由器中的路由表,把虚拟IP重定向到另外一台正常的LVS服务器,从而达到LVS服务器高可用的效果。
此种方案中,由于LVS也是单机的,随着并发数增长到几十万时,LVS服务器最终会达到瓶颈,此时用户数达到千万甚至上亿级别,用户分布在不同的地区,与服务器机房距离不同,导致了访问的延迟会明显不同
DNS轮询实现机房的负载均衡
在DNS服务器中可配置一个域名对应多个IP地址,每个IP地址对应到不同的机房里的虚拟IP。当用户访问www.taobao.com时,DNS服务器会使用轮询策略或其他策略,来选择某个IP供用户访问。此方式能实现机房间的负载均衡,至此,系统可做到机房级别的水平扩展,千万级到亿级的并发量都可通过增加机房来解决,系统入口处的请求并发量不再是问题。


在这里插入图片描述

随着数据的丰富程度和业务的发展,检索、分析等需求越来越丰富,单单依靠数据库无法解决如此丰富的需求

大应用拆分成小应用

按照业务板块来划分应用代码,使单个应用的职责更清晰,相互之间可以做到独立升级迭代。这时候应用之间可能会涉及到一些公共配置,可以通过分布式配置中心Zookeeper来解决

在这里插入图片描述

不同应用之间存在共用的模块,由应用单独管理会导致相同代码存在多份,导致公共功能升级时全部应用代码都要跟着升级。

抽离微服务实现工程复用

如用户管理,订单,支付,鉴权等功能在多个应用中都存在,那么可以把这些功能的代码单独取出来形成一个单独的服务来管理,这样的服务就叫微服务,应用和服务之间通过HTTP、TCP或RPC请求等多种方式来访问公共服务,每个单独的服务都可以由单独的团队来管理,,可以通过Dubbo,springcloud等框架实现服务治理,限流,熔断,降级等功能,提高服务的稳定性和可用性.

在这里插入图片描述

 容器化技术设计及应用

目前最流行的容器化技术是Docker,最流行的容器管理服务是Kubernetes(K8S),应用/服务可以打包为Docker镜像,通过k8s来动态分发和部署镜像.Docker镜像可理解为一个能运行你的应用/服务的最小的操作系统,里面放着应用/服务的运行代码,运行环境根据实际的需要设置好,把整个操作系统打包为一个镜像后,就可以分发到需要部署相关服务的机器上,直接启动Docker镜像就可以把服务启动起来,使服务的部署和运维变的简单

在这里插入图片描述

在大促的之前,可以在现有的机器集群上划分出服务器来启动Docker镜像,增强服务的性能,大促过后就可以关闭镜像,对机器上的其他服务不造成影响(在3.14节之前,服务运行在新增机器上需要修改系统配置来适配服务,这会导致机器上其他服务需要的运行环境被破坏)。

云平台服务部署
系统可部署到公有云上,利用公有云的海量机器资源,解决动态硬件资源的问题,在大促的时间段里,在云平台中临时申请更多的资源,结合Docker和K8S来快速部署服务,在大促结束后释放资源,真正做到按需付费,资源利用率大大提高,同时大大降低了运维成本。
FAQ分析
单体架构你觉得存在什么缺陷?(容量、计算、故障)
为什么要使用分布式架构?(增加容量、高并发、高性能、高可用)
分布式架构有什么劣势?(设计的难度、维护成本)
为什么要使用缓存?(减少数据库访问压力、提高性能)
使用缓存时要注意什么问题?(一致性、淘汰算法、击穿、雪崩)
如何理解反向代理?(服务端代理,是服务端服务器的一种代理机制,请求转发)
反向代理如何实现负载均衡?(轮询,轮询+权重,哈希IP)
什么是读写分离、读写分离的目的是什么?(单机数据库有瓶颈、读写频次,并发能力)
读写分离后可能会带来什么问题?(数据同步)
当我们向写库写数据时还要做什么?(写缓存、数据同步到读库)
为什么要进行分库、分表,有哪些分表策略?(业务数据可靠性、查询性能)
何为服务,有什么是微服务?(服务-软件要解决的问题,可以提供的功能。微服务-服务中的共性再抽象,以实现更好的重用)
哪种互联网架构设计最好?(没有最好,只有更好,脱离业务谈就够就是耍流氓)
 

你可能感兴趣的:(tomcat,java,struts)