01.大型互联网架构介绍

前言

前置技能

  • 熟悉linux常用指令
  • 熟悉SSM框架
  • 具备java基础
  • 最好是做过企业级项目

分享目标

大型互联网项目的特点——三高

  • 高并发:同一时间访问量大
  • 高可用:保证系统365 * 7 * 24不间断运行
  • 高性能:响应时间快

一、高并发

1、什么是高并发

高并发(High Concurrency)是互联网分布式系统架构设计中必须考虑的因素之一,它通常是指,通过设计保证系统能够同时并行处理很多请求。高并发相关常用的一些指标有 响应时间(Response Time)吞吐量(Throughput)每秒查询率 QPS(Query Per Second)并发用户数 等。

  • 响应时间: 系统对请求做出响应的时间。例如系统处理一个 HTTP 请求需要 200ms,这个 200ms 就是系统的响应时间。

  • 吞吐量: 单位时间(年,月,日,时,分,秒)内处理的请求数量。

  • QPS: 每秒响应请求数。在互联网领域,这个指标和吞吐量区分的没有这么明显。

  • 并发用户数: 同时承载正常使用系统功能的用户数量。例如一个即时通讯系统,同时在线量一定程度上代表了系统的并发用户数。

二、高可用

1、什么是高可用

故障监测排除、消除达点故障互备和容灾

高可用注意如果使用单机,一旦挂机将导致服务不可用,可以使用集群来代替单机,一台服务器挂了,还有其他后备服务器能够顶上。或者使用分布式部署项。比如现在redis的高可用的集群方案有: Redis单副本,Redis多副本(主从),Redis Sentinel(哨兵),Redis Cluster,Redis自研。

三、高性能

1、什么是高性能呢?

高性能是指程序处理速度非常快,所占内存少,cpu占用率低。高性能的指标经常和高并发的指标紧密相关,想要提高性能,那么就要提高系统发并发能力,两者互相捆绑在一起。应用性能优化的时候,对于计算密集型和IO密集型还是有很大差别,需要分开来考虑。还有可以增加服务器的数量,内存,IO等参数提升系统的并发能力和性能,但不要浪费资源,要考虑硬件的使用率最高才能发挥到极致。

2、怎么样提高性能呢?

避免因为IO阻塞让CPU闲置,导致CPU的浪费避免多线程间增加锁来保证同步,导致并行系统串行化免创建、销毁、维护太多进程、线程,导致操作系统浪费资源在调度上

四、怎样应对高并发和高可用

互联网分布式架构设计,提高系统并发能力的方式,方法论上主要有两种:垂直扩展(Scale Up)水平扩展(Scale Out)

2.1、垂直扩展

提升单机处理能力。垂直扩展的方式又有两种:

  • 增强单机硬件性能,例如:增加 CPU 核数如 32 核,升级更好的网卡如万兆,升级更好的硬盘如 SSD,扩充硬盘容量如 2T,扩充系统内存如 128G;
  • 提升单机架构性能(提升软件性能),例如:使用 缓存来减少 IO 次数,使用异步来增加单服务吞吐量,使用无锁数据结构来减少响应时间;

在互联网业务发展非常迅猛的早期,如果预算不是问题,强烈建议使用 “增强单机硬件性能” 的方式提升系统并发能力,因为这个阶段,公司的战略往往是发展业务抢时间,而 “增强单机硬件性能” 往往是最快的方法。

不管是提升单机硬件性能,还是提升单机架构性能,都有一个致命的不足:单机性能总是有极限的。所以互联网分布式架构设计高并发终极解决方案还是水平扩展。

2.2、水平扩展

只要增加服务器数量,就能线性扩充系统性能。水平扩展对系统架构设计是有要求的,如何在架构各层进行可水平扩展的设计,以及互联网公司架构各层常见的水平扩展实践,是本文重点讨论的内容。

2.2.1、传统单体架构

01.大型互联网架构介绍_第1张图片

2.2.2、典型互联网分层架构

01.大型互联网架构介绍_第2张图片

  • **客户端层:**即调用方,如浏览器,手机,等能上网的工具
  • 反向代理层: 反向代理(Nginx)
  • 站点应用层: 实现核心应用逻辑,返回 HTML 或者 JSON
  • 数据缓存层: 缓存加速访问存储
  • 数据库层: 数据库持久化数据存储

水平扩展分层架构

反向代理层的水平扩展

01.大型互联网架构介绍_第3张图片

反向代理层的水平扩展,是通过 DNS 轮询 实现的:DNS Server 对于一个域名配置了多个解析 IP,每次 DNS 解析请求来访问 DNS Server,会轮询返回这些 IP。

当 Nginx 成为瓶颈的时候,只要增加服务器数量,新增 Nginx 服务的部署,增加一个外网 IP,就能扩展反向代理层的性能,做到理论上的无限高并发。

站点应用层的水平扩展

01.大型互联网架构介绍_第4张图片

站点层的水平扩展,是通过 Nginx 实现的。通过修改 nginx.conf,可以设置多个 Web 后端。

当 Web 后端成为瓶颈的时候,只要增加服务器数量,新增 Web 服务的部署,在 Nginx 配置中配置上新的 Web 后端,就能扩展站点层的性能,做到理论上的无限高并发。

服务层的水平扩展

01.大型互联网架构介绍_第5张图片

服务层的水平扩展,是通过 服务连接池 实现的。

站点层通过 RPC Client 调用下游的服务层 RPC Server 时,RPC Client 中的连接池会建立与下游服务多个连接,当服务成为瓶颈的时候,只要增加服务器数量,新增服务部署,在 RPC Client 处建立新的下游服务连接,就能扩展服务层性能,做到理论上的无限高并发。如果需要优雅的进行服务层自动扩容,这里可能需要配置中心里服务自动发现功能的支持。

数据层的水平扩展

在数据量很大的情况下,数据层(缓存,数据库)涉及数据的水平扩展,将原本存储在一台服务器上的数据(缓存,数据库)水平拆分到不同服务器上去,以达到扩充系统性能的目的。

按照范围水平拆分

01.大型互联网架构介绍_第6张图片

每一个数据服务,存储一定范围的数据

  • db01(user)库,存储 uid 范围 1-1kw
  • db02(user) 库,存储 uid 范围 1kw-2kw

优点:

  • 规则简单,Service 只需判断一下 uid 范围就能路由到对应的存储服务
  • 数据均衡性较好
  • 比较容易扩展,可以随时加一个 uid [2kw,3kw] 的数据服务

缺点:

  • 请求的负载不一定均衡,一般来说,新注册的用户会比老用户更活跃,大范围的服务请求压力会更大

按照哈希水平拆分

01.大型互联网架构介绍_第7张图片

每一个数据库,存储某个 key 值 hash 后的部分数据

  • user0 库,存储偶数 uid 数据
  • user1 库,存储奇数 uid 数据

优点:

  • 规则简单,Service 只需对 uid 进行 hash 能路由到对应的存储服务
  • 数据均衡性较好
  • 请求均匀性较好

缺点:

  • 不容易扩展,扩展一个数据服务,hash 方法改变时候,可能需要进行数据迁移

水平拆分与主从同步

这里需要注意的是,通过水平拆分来扩充系统性能,与主从同步读写分离来扩充数据库性能的方式有本质的不同。

通过水平拆分扩展数据库性能

  • 每个服务器上存储的数据量是总量的 1/n,所以单机的性能也会有提升
  • n 个服务器上的数据没有交集,那个服务器上数据的并集是数据的全集
  • 数据水平拆分到了 n 个服务器上,理论上读性能扩充了 n 倍,写性能也扩充了 n 倍(其实远不止 n 倍,因为单机的数据量变为了原来的 1/n)

通过主从同步读写分离扩展数据库性能

  • 每个服务器上存储的数据量是和总量相同
  • n 个服务器上的数据都一样,都是全集
  • 理论上读性能扩充了 n 倍,写仍然是单点,写性能不变

注意: 缓存层的水平拆分和数据库层的水平拆分类似,也是以范围拆分和哈希拆分的方式居多

典型互联网完整架构图

01.大型互联网架构介绍_第8张图片

你可能感兴趣的:(Java专栏,架构,数据库,系统架构)