架构设计内容分享(七十四):互联网高并发设计的手段:架构、算法、代码

目录

性能优化目标

性能优化手段

性能优化层次

代码优化层次

算法逻辑层次

架构设计层次

系统微服务化

Feed流系统分级缓存

写扩散 (PUSH)

读扩散(PULL)

​编辑


性能优化目标

1、缩短响应时间

2、提高并发数(增加吞吐量)

3、让系统处于合理状态

架构设计内容分享(七十四):互联网高并发设计的手段:架构、算法、代码_第1张图片

性能优化手段

1、空间换时间

系统时间是瓶颈: 缓存复用计算结果,降低时间开销,因为cpu时间较内存容量更加昂贵。

2、时间换空间   

  • 数据大小是瓶颈

  • 网络传输是瓶颈,使用系统时间换取传输的空间,使用HTTP的gzip压缩算法    

  • app的请求分类接口,使用版本号判断哪些数据更新,只下载更新的数据

3、找到系统瓶颈

  • 分析系统的业务流程,找到关键路径并分解优化

  • 调用了多少RPC接口,载入多少数据,是用什么算法,非核心流程是否异步化。

性能优化层次

代码优化层次

关注代码细节优化,代码实现是否合理,是否创建了过多的对象,循环遍历是否高效,cache使用是否合理 

优化层次:从整理到细节,从全局角度到局部视角。

代码优化层次(1)

  • 循环遍历是否合理高效,不要在循环里调RPC接口,传输分布式缓存 执行SQL等

  • 先调用批量接口组装好数据,再循环处理

  • 代码逻辑避免生成过多的对象和无效对象

  • 输出Log时候的log级别判断  避免new无效对象

  • ArrayList、HashMap初始容量设置是否合理

  • 对数据对象是否合理重用 比如RPC查到的数据能复用则必须复用,根据数据访问特性选择合适数据结构,比如读多写少考虑  CopyOrWriteArrayList(写时copy副本),会否正确初始化数据,有些全局共享的数据,饿汉式模式,在用户使用之前先初始化好。

代码优化层次(2)

  • CPU Cache结 构

  • 速度越来越高:内存 - >L3->L2->L1多级缓存

  • 本质上内存是一个大的一维数组,二维数组在内存中按行排列,先存放a[0]行,再存放a[1]行

  • 第一种遍历方式,是行遍历,先遍历完一行再遍历第二行,符合局部性原理Cache Hit  (缓存命中率高)

  • 第二种遍历方式,是列遍历,遍历完第一列遍历第二列,由于下一列和 上 一 列的数组元素在内存中并不是连续的,很可能导致Cache  Miss ( 缓 存 未 命 中 ) , CPU 需要去内存载入数据,速度较CPU    L1Cache的速度降低 了很多(主存100ns,L1  cache  0.5ns)架构设计内容分享(七十四):互联网高并发设计的手段:架构、算法、代码_第2张图片

算法逻辑层次

关注算法选择是否高效,算法逻辑优化,空间时间优化任务执行吃力,使用无锁数据结构。

空间换时间:ThreadLocal

时间换空间:采用压缩算法压缩数据,更复杂的逻辑减少数据传输。

用更高效的算法替换现有算法,而不改变其接口

增量式算法,复用之前的计算结果,比如一个报表服务,要从全量数据中生成报表数据量很大,但是每次增量的数据较少,则可以考虑只计算增量数据和之前计算结果合并,这样处理的数据量就小很多

并发和锁的优化,读多写少的业务场景下,基于CAS的LockFree比mutex 性能更好

当系统时间是瓶颈,采取空间换时间逻辑算法,分配更多空间节省系统时间

缓存复用计算结果,降低时间开销, CPU时间较内存容量更加昂贵

当系统空间容量是瓶颈,采取时间换空间算法策略

网络传输是瓶颈,使用系统时间换取空间的压缩, HTTP的gzip 压缩算法

APP的请求分类接口,使用版本号判断哪些数据更新,只下载更新的数据,使用更多的代码逻辑处理更细粒 度的数据

并行执行,比如一段逻辑调用了多个RPC接口,而这些接口之间并没有数据依赖,则可以考虑并行调用,降低响 应时间

异步执行,分析业务流程中的主次流程,把次要流程拆分出来异步执行,更进一步可以拆分到单独的模块去执行, 比如使用消息队列,彻底和核心流程解耦,提高核心流程的稳定性以及降低响应时间

架构设计层次

如何拆分系统 如何使用部分系统整体负载更加均衡   充分发挥硬件设施性能优势  减少系统内部开销等

系统微服务化

无状态化设计,动态水平弹性扩展

调用链路梳理,热点数据尽量靠近用户

分布式Cache 、 多级多类型缓存

提前拒绝,保证柔性可用

容量规划

分库分表,读写分离,数据分片

案例:

架构设计内容分享(七十四):互联网高并发设计的手段:架构、算法、代码_第3张图片

Feed流系统分级缓存

读多写少、冷热数据明显,热点数据缓存到调用链路更靠近用户的地方

L1缓存容量小负责抗最热点的数据, L2缓存考虑目标是容量,缓存更大范围的数据(一般用户的timeline), 高热点,数据单独缓存,比如设置白名单,大V 的用户数据放在L1缓存

feed(关注的feed 、topic 的feed,一些运营的feed),前几页的访问比例,前三页占了90%+,针对这种业务特性,把 前面几页数据作为热点数据提到L1 cache

架构设计内容分享(七十四):互联网高并发设计的手段:架构、算法、代码_第4张图片

写扩散 (PUSH)

推送策略:拆分数据并行推,活跃用户先推,非活跃用户慢慢推

有 1w个用户关注,发了一个feed,拆分成100份,每份100个并行推

1w个用户里活跃的可能有2000个,活跃用户先推,非活跃用户慢慢推,保证活跃用户体验,非活跃用户推 了很大概率也不看

读扩散(PULL)
架构设计内容分享(七十四):互联网高并发设计的手段:架构、算法、代码_第5张图片

 Feed系统存储选型

架构设计内容分享(七十四):互联网高并发设计的手段:架构、算法、代码_第6张图片

你可能感兴趣的:(架构设计,内容分享,架构,算法)