分布式存储系统的核心逻辑,就是将用户需要存储的数据根据某种规则存储到不同的机器上,当用户想要获取指定数据时,再按照规则到存储数据的机器里获取。
如下图所示,当用户(即应用程序)想要访问数据 D,分布式操作引擎通过一些映射方式,比如 Hash、一致性 Hash、数据范围分类等,将用户引导至数据 D 所属的存储节点获取数据。
静下心来想一下,获取数据的整个过程与你到商店购物的过程是不是有些类似呢?
顾客到商店购物时,导购会根据顾客想要购买的商品引导顾客到相应的货架,然后顾客从这个货架上获取要购买的商品,完成购物。这里的顾客就是图中的应用程序,导购就相当于分布式操作引擎,它会按照一定的规则找到相应的货架,货架就是存储数据的不同机器节点。
其实,这个过程就是分布式存储系统中获取数据的通用流程,商品、导购和货架组成了分布式存储系统的三要素,分别对应着分布式领域中的数据(生产者 / 消费者)、数据索引和数据存储引擎。
由单机应用转变成分布式应用,必然引入网络因素,然而由于网络本身的不可靠性,导致分布式系统的通信也是不可靠的。并且由于分布式系统有多台廉价机器节点组成,其服务器节点也同样不可靠。举个极端的例子,一个集群有360台机器组成,平均每台机器一年出现一次故障,那么这个集群基本是不可用的。所以,分布式系统要解决的另一个核心问题是自动容错。
上面说到分布式系统要解决的另一个核心问题是自动容错(高可用),那么对于分布式数据存储来说,怎么解决这个问题呢?
答案就是复制(数据副本)。将一份数据复制成多份,当某个副本所在的存储节点出现故障时,分布式存储系统能够自动的将服务切换到其他副本,从而实现自动容错。但是这也带来了另一个问题,如何确保多个副本之间的数据一致性。
上面说到,由于异常的存在分布式数据存储系统会将数据存储多份。可以这么认为,副本是分布式存储系统解决自动容错的唯一手段。但副本会带来数据一致性问题,那么怎么理解数据一致性呢?
首先,我们要从两个角度理解数据一致性:
第一个角度是用户,或者说是客户端,即客户端读写操作是否符合某种特性;第二个角度是存储系统,即存储系统的多个副本是否一致、更新的顺序是否相同。
对存储系统来说,一致性的含义是:多个副本之间的数据在同一个事务之后是否一致。怎么理解呢,比如client向一个分布式系统提交更新操作(同一个事务),分布式系统在执行更新操作并响应用户之后,所有节点存储的数据是一致的。
还有一个含义,更新顺序一致性:存储系统的多个副本之间是否按照相同的顺序执行更新操作。
从存储系统的角度来看,一致性包含两种情况:
由于同步复制对性能的影响很大,所以对于存储系统来说,一般都只要求最终一致性即可。比如:
这些对一致性的要求不高,如果是金融业务,涉及到钱,对一致性的要求很高就必须使用强一致性,比如:
对客户端来说,一致性的含义是:读操作能读到最新的写操作结果。一旦有写操作提交成功,其他的读操作都能读取到最新的写操作的结果。
从客户端的角度来看,一致性包含三种情况:
从客户端的角度来看,一般要求存储系统能够支持读写一致性、会话一致性、单调读、单调写等特性。
上面的概念比较难理解,下面举例说明:
首先定义如下场景,
可能出现的场景(从客户端的角度看)如下:
假如A先写入了一个k的值到存储系统,存储系统能够保证后续的A、B、C的读取都返回最新值。
我们发现,由于存储系统采用了异步复制(存储系统放弃了强一致性,保留了可用性),为了实现强一致性,对于某个数据(k或者主键),客户端读写操作都必须在同一台机器上,这个时候,对于客户端来说是强一致性的。但是,读写都在同一个分片上,那副本的价值体现在哪呢?这个时候,副本的价值只体现在高可用上面,如果主分片所在的机器节点挂了,系统会在副本中选一个升级为主分片,继续提供服务。
实现这种强一致性的数据库有:
hbase的每个值只会出现在一个region中(咋一看,hbase没有数据副本?),而region的存储实例HFile是存在于hdfs的,hbase的自动容错依赖于hdfs。当某一个RegionServer崩溃时,master会将这个rs上面的所有region分配给其他rs(因为region的数据存储在hdfs上,分配动作比较轻量级),继续提供服务。
假如A先写入了一个值到存储系统,存储系统不能够保证后续的A、B、C的读取都返回最新值。
这种情况很麻烦,一般不会选择这种场景。
最终一致性是弱一致性的一种特例。假如A先写入了一个值到存储系统,存储系统能够保证,A、B、C的读取操作“最终”都会读取到A所写入的最新值。“最终”一致性有一个“不一致窗口”的概念,它的大小取决于交互延迟以及复制协议要求同步的副本数。
实现最终一致性的数据库有:
综上我们看出,对于大数据领域的大数据存储系统,因为数据量大,对性能的要求比较高,一般都会采用最终一致性。
根据CAP理论,我们知道在满足P(分区容错性)的情况下,C(强一致性)与A(可用性)只能二选一。
当master挂掉,需要选举新的master。这段时间系统是不能提供服务的。
首先,这些算法解决什么问题?
在分布式系统中,为了保证数据的高可用,通常我们会将数据保留多个副本,这些副本会放置在不同的物理的机器上。副本要保持一致,那么所有副本的更新序列也要保持一致。因为数据的增删改查操作一般都存在多个客户端并发操作,到底哪个客户端先做,哪个客户端后做,更新顺序要保证。
但是,在分布式环境中,网络是不可靠的,通信是不可靠的。比如说,数据库的主从拷贝,如果有一个副本的数据更新失败,那么在一个分布式系统中聚会出现两个不一致的值。分布式一致性算法就是为了解决这类问题。
数据存储引擎是存储系统的发动机,直接决定了存储系统的性能与功能。存储引擎的基本功能有:增、删、读、改,其中读取操作又分随机读和顺序扫描。
存储引擎 | 增删改 | 随机读取 | 顺序扫描 | 读写特征 | 数据库 |
---|---|---|---|---|---|
哈希存储引擎 | 支持 | 支持 | 不支持 | 读写均很快 | redis |
B+树存储引擎 | 支持 | 支持 | 支持 | 读快写慢 | mysql |
LSM树存储引擎 | 支持 | 支持 | 支持 | 读慢写快 | hbase、levelDB |
哈希存储引擎是哈希表的持久化实现,通过哈希函数直接定位到key的位置,所以随机读写很快,但是不支持顺序扫描。
具体讲解可以参考 B+索引
我们只要知道,当写比读多时,LSM树相比于B+树有更好的性能,因为随着insert操作,为了维护B+树结构,节点分裂,时间复杂度相比读取更高一些,并且读磁盘的随机读写概率也会变大,性能会逐渐减弱。
LSM树本质上和B+树一样,是一种磁盘数据的索引结构。但和B+树不同的是,LSM树的索引对写入请求更友好。因为无论是何种写入请求,LSM树都会将写入操作处理为一次顺序写。
LSM树的索引一般由两部分组成,一部分是内存部分,一部分是磁盘部分。内存部分一般采用跳跃表来维护一个有序的KeyValue集合。磁盘部分一般由多个内部KeyValue有序的文件组成。
简单地说,LSM 的设计目标是提供比传统的 B+ 树更好的写性能。LSM 通过将磁盘的随机写转化为顺序写来提高写性能。
分布式系统与单机系统的主要区别在于能将数据分布到多太机器上去,并在多台机器之间实现负载均衡。
数据分布的方式主要有两种:
负载均衡是分布式系统的必备功能,多个节点组成的分布式系统必须通过负载均衡机制保证各个节点之间负载的均衡性,一旦出现负载非常集中的情况,就很有可能导致对应的部分节点响应变慢,进而拖慢甚至拖垮整个集群。
在实际生产线环境中,负载均衡机制最重要的一个应用场景是系统扩容。分布式系统通过增加节点实现扩展性,但如果说扩容就是增加节点其实并不准确。扩容操作一般分为两个步骤:首先,需要增加节点并让系统感知到节点加入;其次,需要将系统中已有节点负载迁移到新加入节点上。第二步负载迁移在具体实现上需要借助于负载均衡机制。
在分布式数据库的设计中,负载均衡主要体现在数据上,数据的分布,数据本身的读写负载。比如,hbase级就有两种策略:SimpleLoadBalancer策略和StochasticLoadBalancer策略。
上面的CAP理论我们都知道,在满足P的情况下,CA只能选择一个。
如果采取强同步复制,保证了存储系统的一致性,然而,当主备副本之间出现故障时,写操作将被阻塞,系统的可用性无法得到满足。如果采用异步复制,虽然保证了存储系统的可用性,但无法做到强一致性。
存储系统设计时需要在一致性与可用性直接做权衡。例如,现在大多数的分布式系统的数据复制都有三种模式可选:
这里特别介绍一下hbase,hbase的底层数据存储依赖hdfs,并且hbase的同一个数据只会出现在一个region。hbase数据的容错依赖hdfs的多副本。
集群规模越大,故障发生的概率就越大,当集群的规模大到一定程度,故障基本每天都会发生。所以,自动容错是分布式存储系统设计的重要目标。
想要做到自动容错,首先要先发现故障,然后再将错误节点的数据迁移到其他正常的节点。所以,自动容错包含两部分: