专注java分布式架构之Zeppelin不是飞艇

过去的一年多的时间中,大部分的工作都围绕着Zeppelin这个项目展开,经历了Zeppelin的从无到有,再到逐步完善稳定。见证了Zeppelin的成长的同时,Zeppelin也见证了我的积累进步。对我而言,Zeppelin就像是孩提时代一同长大的朋友,在无数次的游戏和谈话中,交换对未知世界的感知,碰撞对未来的憧憬,然后刻画出更好的彼此。这篇博客中就向大家介绍下我的这位老朋友。Zeppelin是一个高性能,高可用的分布式Key-Value存储平台,以高性能、大集群为目标,说平台是因为Zeppelin不是终点而是起点,在Zeppelin的基础上,不仅能够提供KV的访问,还可以通过简单的一层转换满足更复杂的协议需求。本文就将从背景,技术细节,回顾和未来计划几个方面来进行介绍。

背景

Zeppelin的故事首先从我们之前的一个项目Pika说起,Pika是一个完全兼容Redis协议的单机存储,用多线程及LSM的方式,在降低Redis内存成本的同时基本保持了其高性能的特点。 正是由于Pika项目在公司内外的普及,让我们认识到有大量需要高性能的存储需求,同时随着Pika项目的推进,以及业务的发展,这种曾经被我们定义为缓存的需求正向着更大容量和更高性能发展,因此一个大容量高性能的分布式Pika势在必行。

同时,维护Ceph的经验给我们强化了一个认识,那就是从一个原子的用户接口出发可以很方便的构建出各种复杂的上层需求和用户接口,正如Ceph从一个高一致的对象存储平台Rados出发构建了对象存储、块存储和文件存储。Zeppelin作为一个高性能的KV存储平台,可以向上构建高性能S3,Table Store,Redis协议等,可以看出并没有一个合适的开源实现能够同时满足我们的需求。

最后,之前的项目Pika、QConf、Bada等给我们积累了不少的经验和丰富稳定的基础库,包括网络库Pink,辅助库Slash,引擎库Nemo,一致性库Floyd,再加上我们对Rocksdb的积累。这时我们离需要的高性能KV存储平台其实已经并不遥远。再加上陈宗志同学的蜜汁不屑,Zeppelin就开始了自己的征程。从2016年7月正式立项,到半年后2017年3月0.3.1版本开始接入业务,再到现在1.2.3版本,Zeppelin已经逐步完善稳定,并接入包括搜索,代码发布,信息流,静床在内的众多业务的近二十个集群。

通过上面的背景介绍,可以看出在设计之初,我们就对Zeppelin有如下几个主要期许:

  • 高性能:Zeppelin和Pika的立命之本,因此无论语言选择,副本方式,引擎选择还是其他结构设计都不能以牺牲性能作为代价。

  • 大集群:因此需要有更好的可扩展性和必要的业务隔离及配额;
  • 作为支撑平台,向上支撑更丰富的协议;

Zeppelin的整个设计和实现都围绕这三个目标努力。这里将从API、数据分布、元信息管理、一致性、副本策略、数据存储、故障检测几个方面来分别介绍其技术细节。

API

为了让读者对Zeppelin有个整体印象,先介绍下其提供的接口:

  • 基本的KV存储相关接口:Set、Get、Delete;
  • 支持TTL;
  • HashTag及针对同一HashTag的Batch操作,Batch保证原子,这一支持主要是为了支撑上层更丰富的协议。

数据分布

最为一个分布式存储,首要需要解决的就是数据分布的问题。另一篇博客浅谈分布式存储系统数据分布方法中介绍了可能的数据分布方案,Zeppelin选择了比较灵活的分片的方式,如下图所示:

用逻辑概念Table区分业务,并将Table的整个Key Space划分为相同大小的分片(Partition),每个分片的多副本分别存储在不同的存储节点(Node Server)上,因而,每个Node Server都会承载多个Partition的不同副本。Partition个数在Table创建时确定,更多的Partition数会带来更好的数据均衡效果,提供扩展到更大集群的可能,但也会带来元信息膨胀的压力。实现上,Partition又是数据备份、数据迁移、数据同步的最小单位,因此更多的Partition可能带来更多的资源压力。Zeppelin的设计实现上也会尽量降低这种影响。

可以看出,分片的方式将数据分布问题拆分为两层隐射:从Key到Partition的映射可以简单的用Hash实现。而Partition副本到存储节点的映射相对比较复杂,需要考虑稳定性、均衡性、节点异构及故障域隔离(更多讨论见浅谈分布式存储系统数据分布方法)。关于这一层映射,Zeppelin的实现参考了CRUSH对副本故障域的层级维护方式,但摈弃了CRUSH对降低元信息量稍显偏执的追求。

在进行创建Table、扩容、缩容等集群变化的操作时,用户需要提供整个:

  • 集群分层部署的拓扑信息(包含节点的机架、机器等部署信息);

  • 存储节点权重;

  • 各个故障层级的分布规则;

Zeppelin根据这些信息及当前的数据分布直接计算出完整的目标数据分布,这个过程会尽量保证数据均衡及需要的副本故障域。下图举例展示了,副本在机架(cabinet)级别隔离的规则及分布方式。更详细的介绍见Decentralized Placement of Replicated Data

元信息管理

上面确定了分片的数据分布方式,可以看出,包括各个分片副本的分布情况在内的元信息需要在整个集群间共享,并且在变化时及时扩散,这就涉及到了元信息管理的问题,通常有两种方式:

  • 有中心的元信息管理:由中心节点来负责整个集群元信息的检测、更新和维护,这种方式的优点是设计简洁清晰,容易实现,且元信息传播总量相对较小并且及时。最大的缺点就是中心节点的单点故障。以BigTable和Ceph为代表。
  • 对等的元信息管理:将集群元信息的处理负担分散到集群的所有节点上去,节点间地位一致。元信息变动时需要采用Gossip等协议来传播,限制了集群规模。而无单点故障和较好的水平扩展能力是它的主要优点。Dynamo和Redis Cluster采用的是这种方式。
  • 针对上面的技术我特意整理了一下,有很多技术不是靠几句话能讲清楚,所以干脆找朋友录制了一些视频,很多问题其实答案很简单,但是背后的思考和逻辑不简单,要做到知其然还要知其所以然。如果想学习Java工程化、高性能及分布式、深入浅出。微服务、Spring,MyBatis,Netty源码分析的朋友可以加我的Java进阶群:582505643,群里有阿里大牛直播讲解技术,以及Java大型互联网技术的视频免费分享给大家。 

考虑到对大集群目标的需求,Zeppelin采用了有中心节点的元信息管理方式。其整体结构如下图所示:

可以看出Zeppelin有三个主要的角色,元信息节点Meta Server、存储节点Node Server及Client。Meta负责元信息的维护、Node的存活检测及元信息分发;Node负责实际的数据存储;Client的首次访问需要先从Meta获得当前集群的完整数据分布信息,对每个用户请求计算正确的Node位置,并发起直接请求。

为了减轻上面提到的中心节点的单点问题。我们采取了如下策略:

  • Meta Server以集群的方式提供服务,之间以一致性算法来保证数据正确。
  • 良好的Meta设计:包括一致性数据的延迟提交;通过Lease让Follower分担读请求;粗粒度的分布式锁实现;合理的持久化及临时数据划分等。更详细的介绍见:Zeppelin不是飞艇之元信息节点
  • 智能Client:Client承担更多的责任,比如缓存元信息;维护到Node Server的链接;计算数据分布的初始及变化。
  • Node Server分担更多责任:如元信息更新由存储节点发起;通过MOVE,WAIT等信息,实现元信息变化时的客户端请求重定向,减轻Meta压力。更详细的介绍见:Zeppelin不是飞艇之存储节点

通过上面几个方面的策略设计,尽量的降低对中心节点的依赖。即使Meta集群整个异常时,已有的客户端请求依然能正常进行。

一致性

上面已经提到,中心元信息Meta节点以集群的方式进行服务。这就需要一致性算法来保证:

即使发生网络分区或节点异常,整个集群依然能够像单机一样提供一致的服务,即下一次的成功操作可以看到之前的所有成功操作按顺序完成。

Zeppelin中采用了我们的一致性库Floyd来完成这一目标,Floyd是Raft的C++实现。更多内容可以参考:Raft和它的三个子问题。

利用一致性协议,Meta集群需要完成Node节点的存活检测、元信息更新及元信息扩散等任务。这里需要注意的是,由于一致性算法的性能相对较低,我们需要控制写入一致性库的数据,只写入重要、不易恢复且修改频度较低的数据。

副本策略

为了容错,通常采用数据三副本的方式,又由于对高性能的定位,我们选择了Master,Slave的副本策略。每个Partition包含至少三个副本,其中一个为Master,其余为Slave。所有的用户请求由Master副本负责,读写分离的场景允许Slave也提供读服务。Master处理的写请求会在修改DB后写Binlog,并异步的将Binlog同步给Slave。

上图所示的是Master,Slave之间建立主从关系的过程,右边为Slave。当元信息变化时,Node从Meta拉取最新的元信息,发现自己是某个Partition新的Slave时,将TrySync任务通过Buffer交给TrySync Moudle;TrySync Moudle向Master的Command Module发起Trysync;Master生成Binlog Send任务到Send Task Pool;Binlog Send Module向Slave发送Binlog,完成数据异步复制。更详细内容见:Zeppelin不是飞艇之存储节点。未来也考虑支持Quorum及EC的副本方式来满足不同的使用场景。

数据存储

Node Server最终需要完成数据的存储及查询等操作。Zeppelin目前采用了Rocksdb作为存储引擎,每个Partition副本都会占有独立的Rocksdb实例。采用LSM方案也是为了对高性能的追求,相对于B+Tree,LSM通过将随机写转换为顺序写大幅提升了写性能,同时,通过内存缓存保证了相对不错的读性能。庖丁解LevelDB之概览中以LevelDB为例介绍了LSM的设计和实现。

然而,在数据Value较大的场景下,LSM写放大问题严重。为了高性能,Zeppelin大多采用SSD盘,SSD的随机写和顺序写之间的差距并不像机械盘那么大,同时SSD又有擦除寿命的问题,因此LSM通过多次重复写换来的高性能优势不太划算。而Zeppelin需要对上层不同协议的支撑,又不可避免的会出现大Value,LSM upon SSD针对这方面做了更多的讨论,包括这种改进在内的其他针对不同场景的存储引擎及可插拔的设计也是Zeppelin未来的发展方向。

故障检测

一个好的故障检测的机制应该能做到如下几点:

  • 及时:节点发生异常如宕机或网络中断时,集群可以在可接受的时间范围内感知;
  • 适当的压力:包括对节点的压力,和对网络的压力;
  • 容忍网络抖动
  • 扩散机制:节点存活状态改变导致的元信息变化需要通过某种机制扩散到整个集群;

Zeppelin 中的故障可能发生在元信息节点集群或存储节点集群,元信息节点集群的故障检测依赖下层的Floyd的Raft实现,并且在上层通过Jeopardy阶段来容忍抖动。更详细内容见:Zeppelin不是飞艇之元信息节点。

而存储节点的故障检测由元信息节点负责, 感知到异常后,元信息节点集群修改元信息、更新元信息版本号,并通过心跳通知所有存储节点,存储节点发现元信息变化后,主动拉去最新元信息并作出相应改变。

最后,Zeppelin还提供了丰富的运维、监控数据,以及相关工具。方便通过Prometheus等工具监控展示。

回顾及未来发展

通过本文对Zeppelin设计的介绍,可以看出Zeppelin并不是一个适用于任何场景的万能药,它一直围绕自己的高性能、易扩展、支持上层协议的目标,也就牺牲了对一致性的满足,因此Zeppelin并不适合对数据一致性要求高的需求场景,同时也不能支持像数据库、文件系统、块存储等对一致性要求很高的上层协议。

针对上面的技术我特意整理了一下,有很多技术不是靠几句话能讲清楚,所以干脆找朋友录制了一些视频,很多问题其实答案很简单,但是背后的思考和逻辑不简单,要做到知其然还要知其所以然。如果想学习Java工程化、高性能及分布式、深入浅出。微服务、Spring,MyBatis,Netty源码分析的朋友可以加我的Java进阶群:582505643,群里有阿里大牛直播讲解技术,以及Java大型互联网技术的视频免费分享给大家。 

目前Zeppelin已经完成了包括扩容缩容,中心节点成员变化在内的大部分作为分布式存储的基本需求。下一步会依然围绕我们的设计初心,同时针对目前的一些问题进行进一步的迭代,包括:

  • 可选的存储引擎:目前的Rocksdb存储引擎有自己的应用场景限制,比如在大value情况下显著的读写放大,空间放大,以及读场景对缓存的过分依赖。而支持更多的上层协议就需要面对更多的数据和业务场景,因此可选的存储引擎就成为一个急迫的发展方向,包括WiscKey,BitCast在内的其他存储引擎也会成为Zeppelin的选项。
  • 跨机房同步:目前的Zeppelin集群分机房部署,而越来越多的业务出现对跨机房同步的需要。
  • 更丰富的语言接口:目前已经支持C++,Go,Python及Php。
  • 更精确地运维控制:比如对不同副本DB的Compaction时机的控制,数据恢复时更动态的流量控制,暴露更多的内部状态数据等。
  • 上层协议的支持和完善:目前已经支持了简单的TableStore及高性能S3,同时支持上层协议也需要更好的对协议元数据的管理方式,目前Batch操作原子性需要通过HashTag限制到一个分片。

你可能感兴趣的:(Java进阶,架构,Java)