系统高并发的架构演进思路

前提:高并发系统各不相同。比如每秒百万并发的中间件系统、每日百亿请求的网关系统、瞬时每秒几十万请求的秒杀大促系统。
不同系统在应对高并发的时候,因为系统自身特点的不同,所以应对架构都是不一样的。另外,比如电商平台中的订单系统、商品系统、库存系统,在高并发场景下的架构设计也是不同的,因为背后的业务场景什么的都不一样。(明白一点:业务驱动)

(一)一个最简单的系统架构
假设刚开始你的系统就部署在一台机器上,后台就连接了一台数据库,数据库部署在一台服务器上。
举个例子
1 系统配置:系统部署的机器是4核8G,数据库服务器是16核32G。
2 假设你的系统用户量总共就10万,用户量很少,日活用户按照不同系统的场景有区别,我们取一个较为客观的比例,10%吧,每天活跃的用户就1万。
3 按照28法则,每天高峰期算他4个小时,高峰期活跃的用户占比达到80%,就是8000人活跃在4小时内。然后每个人对你的系统发起的请求,我们算他每天是20次吧。那么高峰期8000人发起的请求也才16万次,平均到4小时内的每秒(14400秒),每秒也就10次请求。
4 系统层面每秒是10次请求,对数据库的调用每次请求都会好几次数据库操作的,比如做做crud之类的。那么取一个一次请求对应3次数据库请求吧,这样的话,数据库层每秒也就30次请求。按照这台数据库服务器的配置,支撑是绝对没问题的。
上述系统如图:系统高并发的架构演进思路_第1张图片
(二)系统集群化部署
假设此时你的用户数开始快速增长,比如注册用户量增长了50倍,上升到了500万。此时日活用户是50万,高峰期对系统每秒请求是500/s。对数据库的每秒请求数量是1500/s,这个时候会怎么样呢?
1 按照上述的机器配置来说,如果系统内处理的是较为复杂的一些业务逻辑,比如,是那种重业务逻辑的系统的话,是比较耗费CPU的。此时,4核8G的机器每秒请求达到500/s的时候,很可能你会发现你的机器CPU负载较高了。
2 在数据库层面,以上述的配置而言,其实基本上1500/s的高峰请求压力的话,还算可以接受。这个主要是要观察数据库所在机器的磁盘负载、网络负载、CPU负载、内存负载,按照线上经验而言,那个配置的数据库在1500/s请求压力下是没问题的。所以此时你需要做的一个事情,首先就是要支持你的系统集群化部署。你可以在前面挂一个负载均衡层,把请求均匀打到系统层面,让系统可以用多台机器集群化支撑更高的并发压力。
3 假设给系统增加部署一台机器,那么每台机器就只有250/s的请求了。两台机器的CPU负载都会明显降低,这个初步的“高并发”不就先cover住了吗?要是连这个都不做,那单台机器负载越来越高的时候,极端情况下是可能出现机器上部署的系统无法有足够的资源响应请求了,就会出现请求卡死,甚至系统宕机之类的问题。
4 简单小结:
第一步:添加负载均衡层,将请求均匀打到系统层。
第二步:系统层采用集群化部署多台机器,扛住初步的并发压力。
系统架构图:
系统高并发的架构演进思路_第2张图片
(三)数据库分库分表 + 读写分离
假设此时用户量继续增长,达到了1000万注册用户,每天日活用户是100万。
1 此时对系统层面的请求量会达到每秒1000/s,系统层面,你可以继续通过集群化的方式来扩容,前面的负载均衡层会均匀分散流量过去的。
2 而数据库层面接受的请求量会达到3000/s,这个就有点问题了。此时数据库层面的并发请求翻了一倍,会发现线上的数据库负载越来越高。每次到了高峰期,磁盘IO、网络IO、内存消耗、CPU负载的压力都会很高,就会担心数据库服务器能否抗住。
3 一般来说,对那种普通配置的线上数据库,建议就是读写并发加起来,按照上述我们举例的那个配置,不要超过3000/s。因为数据库压力过大,首先一个问题就是高峰期系统性能可能会降低,因为数据库负载过高对性能会有影响。另外一个,压力过大把你的数据库给搞挂了怎么办?
4 此时,就必须得对系统做分库分表 + 读写分离,也就是把一个库拆分为多个库,部署在多个数据库服务上,这是作为主库承载写入请求的。然后每个主库都挂载至少一个从库,由从库来承载读请求。
5 此时假设对数据库层面的读写并发是3000/s,其中写并发占到了1000/s,读并发占到了2000/s。那么一旦分库分表之后,采用两台数据库服务器上部署主库来支撑写请求,每台服务器承载的写并发就是500/s。每台主库挂载一个服务器部署从库,那么2个从库每个从库支撑的读并发就是1000/s。
6 简单总结:
并发量继续增长时,就需要注意在数据库层面:分库分表、读写分离。
系统架构图:
系统高并发的架构演进思路_第3张图片
(四)缓存集群引入
如果注册用户量越来越大,此时你可以不停的加机器,比如说系统层面不停加机器,就可以承载更高的并发请求。数据库层面如果写入并发越来越高,就扩容加数据库服务器,通过分库分表是可以支持扩容机器的,如果数据库层面的读并发越来越高,就扩容加更多的从库。
1 但是这里有一个很大的问题:数据库其实本身不是用来承载高并发请求的,所以通常来说,数据库单机每秒承载的并发就在几千的数量级,而且数据库使用的机器都是比较高配置,比较昂贵的机器,成本很高。
2 如果只是不停地加机器,其实是不对的。所以在高并发架构里通常都有缓存,缓存系统的设计就是为了承载高并发而生。所以单机承载的并发量都在每秒几万,甚至每秒数十万,对高并发的承载能力比数据库系统要高出一到两个数量级。
3 所以完全可以根据系统的业务特性,对那种写少读多的请求,引入缓存集群。具体来说,就是在写数据库的时候同时写一份数据到缓存集群里,再用缓存集群来承载大部分的读请求。
4 通过缓存集群,就可以用更少的机器资源承载更高的并发。比如,上面那个图里,读请求目前是每秒2000/s,两个从库各自抗了1000/s读请求,但是其中可能每秒1800次的读请求都是可以直接读缓存里的不怎么变化的数据的。那么此时一旦引入缓存集群,就可以抗下来这1800/s读请求,落到数据库层面的读请求就只有200/s。
架构图如下:

系统高并发的架构演进思路_第4张图片
5 该架构的优点就是可能未来系统读请求每秒都几万次了,但是可能80%~90%都是通过缓存集群来读的,而缓存集群里的机器可能单机每秒都可以支撑几万读请求,所以耗费机器资源很少,可能就两三台机器就够了。你要是换成是数据库来试一下,可能就要不停的加从库到10台、20台机器才能抗住每秒几万的读并发,那个成本是极高的。
6 总结:承载高并发需要考虑的第三个点:不要盲目进行数据库扩容,数据库服务器成本昂贵,且本身就不是用来承载高并发的针对写少读多的请求,引入缓存集群,用缓存集群抗住大量的读请求

(五)引入消息中间件集群
接着来看看数据库写这块的压力,其实是跟读类似的。假如说你所有写请求全部都落地数据库的主库层,当然是没问题的,但是写压力要是越来越大了呢?比如每秒要写几万条数据,此时难道也是不停的给主库加机器吗?当然也可以,但是同理,你耗费的机器资源是很大的,这个就是数据库系统的特点所决定的。
1 相同的资源下,数据库系统太重太复杂,所以并发承载能力就在几千/s的量级,所以此时你需要引入别的一些技术。
2 比如消息中间件技术,也就是MQ集群,它是非常好的做写请求异步化处理,实现削峰填谷的效果。假如说,你现在每秒是1000/s次写请求,其中 500次请求是必须请求过来立马写入数据库中的,但是另外500次写请求是可以允许异步化等待个几十秒,甚至几分钟后才落入数据库内的。
3 那么此时你完全可以引入消息中间件集群,把允许异步化的每秒500次请求写入MQ,再基于MQ做一个削峰填谷。比如就以平稳的100/s的速度消费出来然后落入数据库中即可,此时就会大幅度降低数据库的写入压力。
4 关于MQ削峰填谷的概念,
架构图:
系统高并发的架构演进思路_第5张图片
5 上面架构图,首先消息中间件系统本身也是为高并发而生,通常单机都是支撑几万甚至十万级的并发请求的。所以,它本身也跟缓存系统一样,可以用很少的资源支撑很高的并发请求,用他来支撑部分允许异步化的高并发写入是没问题的,比使用数据库直接支撑那部分高并发请求,要减少很多的机器使用量。
6 而且经过消息中间件的削峰填谷之后,比如就用稳定的100/s的速度写数据库,那么数据库层面接收的写请求压力,就成了500/s + 100/s = 600/s,这样就减轻了数据库的压力
7 总结:到目前为止,通过以上的手段,我们已经可以让系统架构尽可能用最小的机器资源抗住了最大的请求压力,减轻了数据库的负担。系统集群化数据库层面的分库分表+读写分离针对读多写少的请求,引入缓存集群针对高写入的压力,引入消息中间件集群,初步来说,简单的一个高并发系统的阐述是说完了。但是,其实故事到这里还远远没有结束。

全文总结:
高并发非常复杂的,不是一两篇文章可以说的清楚的,本质就在于,真实支撑复杂业务场景的高并发系统架构其实是非常复杂的。
比如说每秒百万并发的中间件系统、每日百亿请求的网关系统、瞬时每秒几十万请求的秒杀大促系统、支撑几亿用户的大规模高并发电商平台架构,等等。
为了支撑高并发请求,在系统架构的设计时,会结合具体的业务场景和特点,设计出各种复杂的架构,这需要大量底层技术支撑,需要精妙的架构和机制设计的能力。最终,各种复杂系统呈现出来的架构复杂度会远远超出大部分没接触过的同学的想象。

因此那么复杂的系统架构,通过一些文章是很难说的清楚里面的各种细节以及落地生产的过程的。其次,高并发本身包含的内容包含不局限于:分库分表、缓存、消息等。
一个完整而复杂的高并发系统架构中,一定会包含各种复杂的自研基础架构系统、各种精妙的架构设计(比如热点缓存架构设计、多优先级高吞吐MQ架构设计、系统全链路并发性能优化设计,等等)、还有各种复杂系统组合而成的高并发架构整体技术方案、还有NoSQL(Elasticsearch等)/负载均衡/Web服务器等相关技术。

真正生产环境的东西都很难通过一些文章来表述清楚。真正在生产落地的时候,高并发场景下,系统会出现大量的技术问题。
比如说消息中间件吞吐量上不去,需要优化、磁盘写压力过大性能太差、内存消耗过大容易撑爆、分库分表中间件不知道为什么丢了数据等等。

因此切记要对技术保持敬畏之心

启发:
理解最基本的高并发架构演进思路。
当然,也是因为毕竟没真的做过高并发系统,没相关经验,确实很难理解好这个问题。所以本文就是让很多没接触过的同学有一个初步的感知,这个高并发到底是怎么回事儿,到底对系统哪里有压力,要在系统架构里引入什么东西,才可以比较好的支撑住较高的并发压力。
1 顺着本文的思路继续思考下去,结合你自己熟悉和知道的一些技术继续思考。比如说,Elasticsearch技术,思考在高并发的架构之下,是不是可以通过分布式架构的ES技术支撑高并发的搜索?
2 多画图,盘点盘点自己手头系统的请求压力。计算一下分散到各个中间件层面的请求压力,到底应该如何利用最少的机器资源最好的支撑更高的并发请求。这才是一个好的高并发架构设计思路。
4 结合自己手头负责的系统多做思考。
比如
当前业务场景下,你的系统有多大的请求压力?
如果请求压力增长10倍你的架构如何支撑?
如果请求压力增长100倍,你的架构如何支撑?
如果请求压力增长1000倍,你的架构如何支撑?

平时一定多给自己设置一些技术挑战,敦促自己去思考自己的系统,最好多做写架构上的演练、落地和实践,自己实际操作一下,才有更好的感知。然后在面试的时候,起码自己做过一定深度的思考,结合自己负责的系统做过一些实践,可以跟面试官有一个较为清晰和系统的阐述。虽然大部分同学可能没机会经历那种真正大规模超高并发的系统架构的设计,但是本文如果能让大家平时对自己的项目多一些思考。在面试的时候,有一些系统性的思路和阐述,那么也就达到本文的目的了。

来源:https://www.jianshu.com/p/abd06b9f210b

你可能感兴趣的:(Service)