达达的业务规模增长极大,在1年左右的时间从零增长到每天近百万单,给后端带来极大的访问压力。压力主要分为两类:读压力、写压力。读压力来源于配送员在APP中抢单,高频刷新查询周围的订单,每天访问量几亿次,高峰期QPS高达数千次/秒。写压力来源于商家发单、达达接单、取货、完成等操作。达达业务读的压力远大于写压力,读请求量约是写请求量的30倍以上。
下图是达达过去6个月,每天的访问量变化趋图,可见增长极快。
下图是达达过去6个月,高峰期请求QPS的变化趋势图,可见增长极快。
极速增长的业务,对技术的要求越来越高,我们必须在架构上做好充分的准备,才能迎接业务的挑战。接下来,我们一起看看达达的后台架构是如何演化的。
最初的技术选型
作为创业公司,最重要的一点是敏捷,快速实现产品,对外提供服务,于是我们选择了公有云服务,保证快速实施和可扩展性,节省了自建机房等时间。在技术选型上,为快速的响应业务需求,业务系统使用python做为开发语言,数据库使用Mysql。如下图所示,应用层的几大系统都访问一个数据库。
读写分离
随着业务的发展,访问量的极速增长,上述的方案很快不能满足性能需求。每次请求的响应时间越来越长,比如配送员在app中刷新周围订单,响应时间从最初的500毫秒增加到了2秒以上。业务高峰期,系统甚至出现过宕机,一些商家和配送员甚至因此而怀疑我们的服务质量。在这生死存亡的关键时刻,通过监控,我们发现高期峰MysqlCPU使用率已接近80%,磁盘IO使用率接近90%,Slow query从每天1百条上升到1万条,而且一天比一天严重。数据库俨然已成为瓶颈,我们必须得快速做架构升级。
如下是数据库一周的qps变化图,可见数据库压力的增长极快。
当Web应用服务出现性能瓶颈的时候,由于服务本身无状态(stateless),我们可以通过加机器的水平扩展方式来解决。 而数据库显然无法通过简单的添加机器来实现扩展,因此我们采取了Mysql主从同步和应用服务端读写分离的方案。
Mysql支持主从同步,实时将主库的数据增量复制到从库,而且一个主库可以连接多个从库同步(细节参考Replication)。利用此特性,我们在应用服务端对每次请求做读写判断,若是写请求,则把这次请求内的所有DB操作发向主库;若是读请求,则把这次请求内的所有DB操作发向从库,如下图所示。
实现读写分离后,数据库的压力减少了许多,CPU使用率和IO使用率都降到了5%内,Slow Query也趋近于0。主从同步、读写分离给我们主要带来如下两个好处:
如下是优化后数据库qps的变化图:
读写分离前主库的select qps
读写分离后主库的select qps
当然,没有一个方案是万能的。读写分离,暂时解决了Mysql压力问题,同时也带来了新的挑战。业务高峰期,商家发完订单,在我的订单列表中却看不到当发的订单(典型的readafter write);系统内部偶尔也会出现一些查询不到数据的异常。通过监控,我们发现,业务高峰期Mysql可能会出现主从延迟,极端情况,主从延迟高达10秒。
那如何监控主从同步状态?在从库机器上,执行show slavestatus,查看Seconds_Behind_Master值,代表主从同步从库落后主库的时间,单位为秒,若同从同步无延迟,这个值为0。Mysql主从延迟一个重要的原因之一是主从复制是单线程串行执行。
那如何避免或解决主从延迟?我们做了如下一些优化:
垂直分库
读写分离很好的解决读压力问题,每次读压力增加,可以通过加从库的方式水平扩展。但是写操作的压力随着业务爆发式的增长没有很有效的缓解办法,比如商家发单起来越慢,严重影响了商家的使用体验。我们监控发现,数据库写操作越来越慢,一次普通的insert操作,甚至可能会执行1秒以上。
下图是数据库主库的压力, 可见磁盘IO使用率已经非常高,高峰期IO响应时间最大达到636毫秒,IO使用率最高达到100%。
同时,业务越来越复杂,多个应用系统使用同一个数据库,其中一个很小的非核心功能出现Slowquery,常常影响主库上的其它核心业务功能。我们有一个应用系统在MySql中记录日志,日志量非常大,近1亿行记录,而这张表的ID是UUID,某一天高峰期,整个系统突然变慢,进而引发了宕机。监控发现,这张表insert极慢,拖慢了整个MySqlMaster,进而拖跨了整个系统。(当然在mysql中记日志不是一种好的设计,因此我们开发了大数据日志系统,敬请关注本博客后续文章。另一方面,UUID做主键是个糟糕的选择,在下文的水平分库中,针对ID的生成,有更深入的讲述)。
这时,主库成为了性能瓶颈,我们意识到,必需得再一次做架构升级,将主库做拆分,一方面以提升性能,另一方面减少系统间的相互影响,以提升系统稳定性。这一次,我们将系统按业务进行了垂直拆分。如下图所示,将最初庞大的数据库按业务拆分成不同的业务数据库,每个系统仅访问对应业务的数据库,避免或减少跨库访问。
下图是垂直拆分后,数据库主库的压力,可见磁盘IO使用率已降低了许多,高峰期IO响应时间在2.33毫秒内,IO使用率最高只到22.8%。
未来是美好的,道路是曲折的。垂直分库过程,我们也遇到不少挑战,最大的挑战是:不能跨库join,同时需要对现有代码重构。单库时,可以简单的使用join关联表查询;拆库后,拆分后的数据库在不同的实例上,就不能跨库使用join了。比如在CRM系统中,需要通过商家名查询某个商家的所有订单,在垂直分库前,可以join商家和订单表做查询,如下如示:
select * from tb_order where supplier_id in (select id from supplier where name=‘上海海底捞’); |
分库后,则要重构代码,先通过商家名查询商家id,再通过商家Id查询订单表,如下所示:
supplier_ids = select id from supplier where name=‘上海海底捞’ select * from tb_order where supplier_id in (supplier_ids ) |
垂直分库过程中的经验教训,使我们制定了SQL最佳实践,其中一条便是程序中禁用或少用join,而应该在程序中组装数据,让SQL更简单。一方面为以后进一步垂直拆分业务做准备,另一方面也避免了Mysql中join的性能较低的问题。
经过一个星期紧锣密鼓的底层架构调整,以及业务代码重构,终于完成了数据库的垂直拆分。拆分之后,每个应用程序只访问对应的数据库,一方面将单点数据库拆分成了多个,分摊了主库写压力;另一方面,拆分后的数据库各自独立,实现了业务隔离,不再互相影响。
水平分库(sharding)
读写分离,通过从库水平扩展,解决了读压力;垂直分库通过按业务拆分主库,缓存了写压力,但系统依然存在以下隐患:
以前,系统压力逼迫我们架构升级,这一次,我们需提前做好架构升级,实现数据库的水平扩展(sharding)。业务类似于我们的Uber在公司成立的5年后(2014)年才实施了水平分库(mezzanine-migration),但我们的业务发展要求我们在成立18月就要开始实施水平分库。逻辑架构图如下图所示:
水平分库面临的第一个问题是,按什么逻辑进行拆分。一种方案是按城市拆分,一个城市的所有数据在一个数据库中;另一种方案是按订单ID平均拆分数据。按城市拆分的优点是数据聚合度比较高,做聚合查询比较简单,实现也相对简单,缺点是数据分布不均匀,某些城市的数据量极大,产生热点,而这些热点以后可能还要被迫再次拆分。按订单ID拆分则正相反,优点是数据分布均匀,不会出现一个数据库数据极大或极小的情况,缺点是数据太分散,不利于做聚合查询。比如,按订单ID拆分后,一个商家的订单可能分布在不同的数据库中,查询一个商家的所有订单,可能需要查询多个数据库。针对这种情况,一种解决方案是将需要聚合查询的数据做冗余表,冗余的表不做拆分,同时在业务开发过程中,减少聚合查询。
反复权衡利弊,并参考了Uber等公司的分库方案后,我们最后决定按订单ID做水平分库。从架构上,我们将系统分为三层:
水平分库的技术关键点在于数据访问层的设计,数据访问层主要包含三部分:
ID生成器是整个水平分库的核心,它决定了如何拆分数据,以及查询存储-检索数据。ID需要跨库全局唯一,否则会引发业务层的冲突。此外,ID必须是数字且升序,这主要是考虑到升序的ID能保证Mysql的性能(若是UUID等随机字符串,在高并发和大数据量情况下,性能极差。对比性能测试数据可供参考uuid-vs-int-insert-performance)。同时,ID生成器必须非常稳定,因为任何故障都会影响所有的数据库操作。
我们的ID的生成策略借鉴了Instagram的ID生成算法(sharding-ids-at-instagram)。具体方案如下:
水平分库是一个极具挑战的项目,我们也还在夜以继日的开发中,欲知详情,敬请继续关注本博客。
创业是与时间赛跑的过程,前期为了快速满足业务需求,我们采用简单高效的方案,如使用云服务、应用服务直接访问单点DB;后期随着系统压力增大,性能和稳定性逐渐纳入考虑范围,而DB最容易出现性能瓶颈,我们采用读写分离、垂直分库、水平分库等方案。面对高性能和高稳定性,架构升级需要尽可能超前完成,否则,系统随时可能出现系统响应变慢甚至宕机的情况。当然,架构升级的过程都是痛并快乐着,每次通宵达旦实施系统架构升级,一边享受公司准备的美味佳肴夜宵,一边感觉解决技术难题,释放公司公生力的成就感,不亦乐乎。
注:本文作者系达达CTO杨骏 http://www.csdn.net/article/2015-10-26/2826039