本文将会从实际应用场景出发,介绍一致性哈希算法(Consistent Hashing)及其在分布式系统中的应用。
一致性哈希算法在1997年由麻省理工学院的Karger等人在解决分布式Cache中提出的,设计目标是为了解决因特网中的热点(Hot spot)问题,初衷和CARP十分类似。一致性哈希修正了CARP使用的简单哈希算法带来的问题,使得DHT可以在P2P环境中真正得到应用。
但现在一致性hash算法在分布式系统中也得到了广泛应用,研究过memcached缓存数据库的人都知道,memcached服务器端本身不提供分布式cache的一致性,而是由客户端来提供,具体在计算一致性hash时采用如下步骤:
从上图的状态中添加一台memcached服务器。余数分布式算法由于保存键的服务器会发生巨大变化而影响缓存的命中率,但Consistent Hashing中,只有在园(continuum)上增加服务器的地点逆时针方向的第一台服务器上的键会受到影响,如下图所示:
考虑到分布式系统每个节点都有可能失效,并且新的节点很可能动态的增加进来,如何保证当系统的节点数目发生变化时仍然能够对外提供良好的服务,这是值得考虑的,尤其实在设计分布式缓存系统时,如果某台服务器失效,对于整个系统来说如果不采用合适的算法来保证一致性,那么缓存于系统中的所有数据都可能会失效(即由于系统节点数目变少,客户端在请求某一对象时需要重新计算其hash值(通常与系统中的节点数目有关),由于hash值已经改变,所以很可能找不到保存该对象的服务器节点),因此一致性hash就显得至关重要,良好的分布式cahce系统中的一致性hash算法应该满足以下几个方面:
我们知道,负载均衡算法很多,比如轮询、随机、加权轮询等。那如何才能实现一个会话粘滞(session sticky)的负载均衡算法呢?也就是说,我们需要在同一个客户端上,在一次会话中的所有请求都路由到同一个服务器上。
最直接的方法就是,维护一张映射表,这张表的内容是客户端IP地址或者会话ID与服务器编号的映射关系。客户端发出的每次请求,都要先在映射表中查找应该路由到的服务器编号,然后再请求编号对应的服务器。这种方法直观,但也有几个弊端:
如果客户端很多,映射表可能很大,比较浪费内存空间。
客户端下线、上线,服务器扩容、缩容都会导致映射失效,这样维护日程表的成本就会很大;
如果借助哈希算法,这些问题都可以非常完美地解决。我们可以通过哈希算法,对客户端IP地址或者会话ID计算哈希值,将取得的哈希值与服务器列表的大小进行取模运算,最终得到的值就是应该被路由到的服务器编号。这样,我们就可以把同一个IP过来的请求,都路由到同一个后端服务器上。
哈希算法还可以用于数据分片。这里有两个例子。
1)如何统计“搜索关键词”出现的次数?
假如我们有1T的日志文件,这里面记录了用户搜索的关键词,我们想要书屋中统计出每个关键词被搜索的次数,该怎么做?
我们来分析下,这个问题有两个难点,第一个是搜索日志很大,没办法放到一台机器的内存中。第二个难点是,如果只用一台机器来处理这么巨大的数据,处理时间会很长。
针对这两个难点,**我们可以先对数据进行分片,然后优胜多台机器处理的方法,来提高处理速度。**具体思路是这样的:为了提高处理的速度,我们用n 台机器并行处理,我们从搜索记录的日记文件中,依次读出每个搜索的关键词,并且通过哈希函数计算哈希值,然后再跟n 取模,最终得到的值,就是应该被分配到的机器编号
这样,哈希值相同的搜索关键词就被分配到了同一个机器上。也就是说,同一个搜索关键词会被分配到同一个机器上。每个机器会分别计算关键词出现的次数,最后合并起来就是最终的结果。
实现上,这里的处理过程也是MapReduce的基本设计思想。
2)如何快速判断图片是否在图库中?
上一节,我们讲过这个例子,即给每个图片取唯一标识(或者信息摘要),然后构建散列表。
假设现在我们的图库中有1亿张图片,很显然,在单台机器上构建散列表是行不通的。因为单台机器的内存有限,而1亿张图片构建散列表显然远远超过了单台机器的内存上限。
我们两样可以对数据进行分片,然后采用多机处理。我们准备n 台机器,让每台机器只维护某一部分图片对就的散列表。我们每次从图库中读取一个图片,计算唯一标识,然后与机器个数n 求余取模。假设得到的值是k,那就去编号k 的机器构建的散列表中查找。
现在,我们来估算一下,给这1亿张图片构建列表大约需要 多少台机器。
散列表中每个数据单元包含两个信息,哈希值和图片文件的路径。假设我们通过MD5来计算哈希值,那长度就是128比特,也就是16字节。文件路径长度的上限是256字节,我们可以假设平均长度是128字节。如果我们用链表表来解决总被,那还需要存储指针,指针只占用8字节。所以,散列表中每个数据单元就占用152字节(这里只是估算,并不准确)
假设一台机器的内存大小为2GB,散列表的装载因子为0.75,那一台机器可以给大约1000万(2GB * 0.75 / 152)张图片构建散列表。所以,如果要对1亿张图片构建索引,需要大约十几台机器。在工程中,这种估算还是很重要的,能让我们对需要投入的资源、资金有个大概的了解,能更好地评估解决方案的可靠性。
实际上,针对这种海量数据的处理,我闪都可以采用多机分布式处理。借助这种分片的思路,可以突破单机内存、CPU等资源的限制。
现在互联网面对的都是海量的数据、海量的用户。我们为了提高的读取、写入能力,一般都优胜分布式的方式来存储数据,比如分布式缓存。我们有海量的数据需要缓存,所以一个缓存机器肯定是不够的。于是,我们需要将数据健在在多台机器上。
如何决定将哪个数据放到哪个机器上呢?我们可以借用数据分片的思想,即通过哈希算法对数据取哈希值,然后对机器个数取模,这个最终就是应该存储的缓存机器编号。
但是,如果数据增多,原来的10个机器已经无法承受了,我们就需要扩容了,比如搞到11个机器,这时候麻烦就来了。因为,这里并不是简单加个机器就可以了。
原来的数据是通过与10来取模的。比如13这个数据,存储在编号为3这台机器上。但是新加了一台机器中,我们对数据按照11取模,原来的13数据就被分配到2号这台机器上了。
我的微信公众号:架构真经(id:gentoo666),分享Java干货,高并发编程,热门技术教程,微服务及分布式技术,架构设计,区块链技术,人工智能,大数据,Java面试题,以及前沿热门资讯等。每日更新哦!
参考资料: