【数据结构与算法】之哈希算法 --- 第十一篇

原文链接: https://time.geekbang.org/column/article/65312

博主秋招提前批已拿百度、字节跳动、拼多多、顺丰等公司的offer,可加微信:pcwl_Java 一起交流秋招面试经验,可获得博主的秋招简历和复习笔记。 

开篇说明:本文内容大部分出自于极客时间中的《数据结构与算法之美》专栏,Mark下来,作为个人笔记,方便日后复习。

在上一篇博客中,讲解了散列表的用法,如果你对散列表还不是很了解,可以点击此链接进行查看:https://blog.csdn.net/pcwl1206/article/details/83582986。本篇文章更多的是实战的内容。

本文目录

1、哈希算法的基本概念

1.1  哈希算法的基本定义

1.2 哈希算法的要求

2、哈希算法的应用 

2.1 安全加密

2.2 唯一标识

2.3 数据校验

2.4 散列函数

2.5 负载均衡

2.6 数据分片

2.7  分布式存储

3、总结


需要进行一点说明,我们经常听到“散列表”、“哈希表”以及“散列函数”、“哈希函数”,实际上“散列”和“哈希”的英文都是“Hash”,只不过中文的翻译有差别而已。所以,散列表就是哈希表,散列函数就是哈希函数。

关于哈希算法的一些基本内容,在上一节的散列表中已经讲解了,本文的重点是散列函数的应用场景

1、哈希算法的基本概念

1.1  哈希算法的基本定义

哈希算法:将任意长度的二进制串映射为固定长度的二进制串,这个映射规则就是哈希算法,而通过原始数据映射之后得到的二进制串就是哈希值。

【数据结构与算法】之哈希算法 --- 第十一篇_第1张图片

1.2 哈希算法的要求

1、从哈希值不能反向推到出原始数据(所以也叫单向哈希算法);

2、对输入数据非常敏感,哪怕原始数据只修改了一个Bit,最后得到的哈希值也大不相同;

3、散列冲突的概率要小,对于不同的原始数据,哈希值相同的概率非常小;

4、哈希算法的执行效率要尽量高效,针对较长的文本,也能快速地计算出哈希值。

下面举个列子,进行更加直观的感受:[MD5在线计算工具:https://tool.lu/]

我们分别对“我要搞定哈希算法”和“马上就要找工作了,我要好好学习”这两个文本分别计算MD5哈希值,得到两串看起来毫无规律的字符串。可以看出来无论哈希的文本有多长,通过MD5哈希之后,得到的哈希值的长度都是相同的,而且得到的哈希值看起来像一堆随机数,完全没有规律。

MD5(我要搞定哈希算法) = bb4767201ad42c74e650c1b6c03d78fa

MD5(马上就要找工作了,我要好好学习) = 067408d3d48b300a965100ce34489673

再来看两个比较相似的文本,在我要搞定哈希算法后面加个感叹号!。虽然只有一个标点符号的差别,但是利用MD5哈希算法计算出来的哈希值确完全不同。

MD5(我要搞定哈希算法) = bb4767201ad42c74e650c1b6c03d78fa

MD5(我要搞定哈希算法!) = 2f6970b7b6e3ccc68ffe86761f36e8b0

我们前面也说了,通过哈希算法得到的哈希值,很难反向推导出原始数据。比如上面的例子,我们很难通过哈希值为:bb4767201ad42c74e650c1b6c03d78fa推导出文本为:我要搞定哈希算法。


2、哈希算法的应用 

哈希算法的应用非常多,本文介绍最常用的七个,分别是:安全加密、唯一标识、数据校验、散列函数、负载均衡、数据分片以及分布式存储,后三个都是和分布式相关的。

2.1 安全加密

常用的哈希加密算法有:MD5(Message-Digest  Algorithm,MD5消息摘要算法)和SHA(Secure  Hash  Algorithm,安全散列算法),除了这两个之外,还有:DES(Data  Encryption  Standard,数据加密标准)以及AES(Advanced  Encryption  Standard,高级加密标准)。

前面讲到的哈希算法的四点要求,对于加密的哈希算法来说,有两点格外重要,分别是:第一点是:很难根据哈希值反向推导出原始数据,第二点是:散列冲突的概率要小

第一点很好理解,加密的目的就是防止原始数据泄露,所以很难通过哈希值反向推到出原始数据,这是一个最基本的要求。下面讲解下第二点,实际上,不管是什么哈希算法,我们只能尽量减少碰撞冲突的概率,理论上是没有办法做到完全不冲突的。

这里就基于组合数学中一个非常基础的理论,鸽巢原理(又叫抽屉原理)。它是说,如果有11只鸽子,10个鸽巢,那么肯定有1个鸽巢中的鸽子数量大于1,换句话说,肯定有2只鸽子在一个巢里。

这个时候,我们就可以明白为什么哈希算法无法做到零冲突。我们知道,哈希算法的哈希值长度是固定且有限的。比如前面举得MD5得例子,哈希值是固定得128位二进制串,能表示得数据是有限的,最多能表示2^128个数据,而我们要哈希的数据是无穷的。基于鸽巢原理,如果我们对2^128 + 1个数求哈希值,就必然会存在哈希值相同的情况。这里你应该想到,一般情况下,哈希值越长的哈希算法,散列冲突的概率也就越低。不过,即便哈希算法存在散列冲突的状况,但是因为哈希值的范围很大,冲突的概率极低,所以相对来说还是很难破解的。像MD5,有2^128个不同的哈希值,这个数据已经是个天文数字了,所以散列冲突的概率要小于1 / 2^128。

如果我们拿到一个MD5哈希值,希望通过毫无规律的穷举方法,找到跟这个MD5值相同的另一个数据,那耗费的时间应该是个天文数字。所以,即便哈希算法存在冲突,但是在有限的时间和资源下,哈希算法还是很难被破解的。

除此之外,没有绝对安全的加密。越复杂、越难破解的加密算法,需要的计算时间也越长。比如:SHA-256比SHA-1更复杂、更安全,但是相应的计算时间就会比较长。密码学界也一直致力于找到一种快速并且很难破解的哈希算法。我们实际的开发过程中,也需要权衡破解难度和计算时间,来决定究竟使用哪种加密算法。

下面列举个真实的案例:

还记得2011年CSDN的“脱库”事件吗?当时CSDN网站被黑客攻击,超过600万用户的注册邮箱和密码明文被泄露。仅仅用MD5加密存储就可以了吗?

字典攻击你听说过吗?如果信息被“脱库”,黑客拿到的是加密后的密文,但是可以通过“猜”的方式来破解密码,这是因为很多人的密码过于简单,比如000000,123456这样简单的数字组合做密码,很容易就被猜中。

我们需要维护一个常用的密码的字典表,把字典中的每个密码用哈希算法计算哈希值,然后拿哈希值和脱库的密文比对。如果相同,则可以基本上认为加密之后的密码对应的明文就是字典中的这个密码(不考虑散列冲突)。

针对字典攻击,我们可以引入一个盐(salt),跟用户密码组合在一起,增加密码的复杂度。我们拿组合后的字符串来做哈希算法加密,将它存储到数据库中,进一步增加破解的难度。其实安全和攻击是一种博弈关系,不存在绝对的安全。所有的安全措施,也只是增加攻击的成本而已。


2.2 唯一标识

举个例子:如果要在害了的图库中,搜索一张图是否存在,我们不能单纯地用图片的元信息(比如:图片的名称)来对比,因为有可能存在名称相同但图片内容不同,或者名称不同图片内容相同的状况。那么我们该如何搜索呢?

我们知道,任何文件在计算中都可以表示成二进制码串,所以,比较笨的方法就是,拿要查找的图片的二进制码串与图库中所有的二进制码串一 一比对。如果相同,则说明图片在图片库中存在。但是,图片小则几十KB,大则几MB,转化成二进制串后是一个非常长的串,比对起来非常耗时。有没有其他解决办法呢?

我们可以给每个图片取一个唯一的标识,或者说信息摘要。比如,我们可以从图片的二进制码串开头取100个字节,从中间取100个字节,从最后再取100个字节,然后将这300字节放到一起,通过哈希算法(比如:MD5),得到一个哈希字符串,用它作为图片的唯一标识。通过这个唯一标识来判定图片是否存在图库中,这样可以减少很多工作量。

如果还想继续提高效率,可以把每个图片的唯一标识和相应的图片文件在图库中的路径信息,都存储在散列表中。当要查看某个图片是否在图库中时,先通过哈希算法对这个图片取唯一标识,然后在散列表中查找是否存在这个唯一标识。如果不存在,那就说明这个图片不在图库中;如果存在,我们再通过散列表中存储的文件路径,获取到这个已经存在的图片,跟现在要插入的图片做全量的对比,看是否一样。如果一样,则说明已经存在;如果不一样,说明两张图片尽管标识相同(存在散列冲突),但是并不是相同的图片。


2.3 数据校验

电驴这样的BT下载软件你肯定用过吧?我们知道,BT下载的原理是基于P2P协议的。我们从多个机器上并行下载一个2GB的电影,这个电影文件可能会被分割成很多文件块(比如:可以分成100块,每块大约20MB)。等所有的文件块都下载完成之后,再组装成一个完整的电影文件就行了。

我们知道,网络传输是不完全的,下载的文件块是有可能被宿主机器恶意修改过的,又或者下载过程中出现了错误,所以下载的文件块可能不是完整的。如果我们没有能力检测这种恶意修改或者文件下载出错,就会导致最终合并后的电影无法观看,甚至导致电脑中毒。现在的问题是,如何来校验文件块的安全、正确、完整呢?

我们通过哈希算法,对100个文件块分别取哈希值,并且保存在种子文件中。我们前面讲过,哈希算法有一个特点,对数据特别敏感。只要文件块的内容有一丁点儿的变化,最后计算出的哈希值就会完全不同。所以,当文件块下载完成之后,我们可以通过哈希算法,对下载好的文件块逐一求哈希值,然后跟种子文件中保存的哈希值对比。如果不同,说明这个文件块不完整或者被篡改了,需要重新从其他宿主机器上下载这个文件块。


2.4 散列函数

前一篇博客中已经很全面的讲解了散列函数,我们知道散列函数是设计一个散列表的关键。它直接决定了散列冲突的概率和散列的性能。不过,相对哈希算法的其他应用,散列函数对于散列算法冲突的要求要低很多。即便出现个别的散列冲突,只要不是过于严重,我们可以通过开放寻址法或者链表法解决。

不仅如此,散列函数对于散列算法计算得到的值,是否能反向解密也并不关心。散列函数中用到的散列算法,更加关注散列后的值是否能够平均分布,也就是,一组数据是否能够均匀地散列在各个槽中。除此之外,散列函数执行的快慢,也会影响到散列表的性能,所以,散列函数用的散列算法一般都比较简单,比较追求效率。


2.5 负载均衡

我们知道负载均衡的算法有很多,比如:轮询、随机、加权轮询等。那如何才能实现一个会话粘滞(session  sticky)的负载均衡算法呢?也就是说,我们需要在同一个客户端上,在一次会话中的所有请求都路由到同一台服务器上。

最直接的方法是,维护一张映射关系表,这张表的内容是客户端IP地址或者会话ID与服务器编号的映射关系。客户端发出的每次请求,都要先映射表中查找应该路由到的服务器编号,然后再请求编号对应的服务器。这种方法很简单,但是也有几个弊端:

(1)如果客户端很多,映射表可能会很大,比较浪费内存空间;

(2)客户端下线,上线,服务器扩容、缩容都会导致映射失效,这样维护映射表的成本就很大;

如果借助哈希算法,这些问题都可以非常完美的解决。我们可以通过哈希算法,对客户端IP或者会话ID计算哈希值,将取得的哈希值与服务器列表的大小进行取模运算,最终得到的值就是应该被路由到的服务器编号。这样,我们就可以把同一个IP过来的所有请求,都路由到同一个后端服务器上了。


2.6 数据分片

哈希算法还应用于数据分片,下面举两个例子:

2.6.1 如何统计“搜索关键词”出现的次数?

假如我们有1T的日志文件,这里面记录了用户的搜索关键词,我们想要快速统计出每个关键词被搜索的次数,应该怎么做呢?

分析一下,可以发现。这个问题有两个难点,第一个是搜索日志很大,没办法放到一台机器的内存中。第二个难点是,如果只用一台机器来处理这么巨大的数据,处理时间会很长。

针对这两个难点,我们可以先对数据进行分片,然后采用多台机器处理的方法,来提高处理速度。具体的思路是这样的:为了提高处理的速度,我们用n台机器并行处理。我们从搜索记录的日志文件中,依次读出每个搜索关键词,并且通过哈希函数计算哈希值,然后再跟n取模,最终得到的值,就是应该被分配到的机器编号。

这样,哈希值相同的搜索关键词就被分配到了同一个机器上。也就是说,同一个搜索关键词会被分配到同一个机器上。每个机器会分别计算关键词出现的次数,最后合并起来就是最终的结果。

实际上,这里的处理过程也是MapReduce的基本设计思想。

2.6.2 如何快速判断图片是否在图库中?

在2.2的唯一标识中,讲过这个例子。当时我们给每个图片取唯一标识(或者信息摘要),然后构建散列表。

假设现在我们有1亿张图片,很显然,在单台机器上构建散列表是行不通的。因为单台机器的内存有限,而1亿张图片构建散列表显然远远超过了单台机器的上限。

我们同样可以对数据进行分片,然后采用多机处理。我们准备n台机器,让每台机器维护其中某一部分的图片对应的散列表。我们每次从图片库中读取一张图片,计算唯一标识,然后与机器个数n求余取模,得到的值就对应要分配的机器编号,然后将这个图片的唯一标识和图片路径发往对应的机器构建散列表。

当我们要判断一个图片是否在图库中的时候,我们通过同样的哈希算法,计算这个图片的唯一标识,然后与机器个数n求余取模。假设得到的值为k,那就去编号k的机器构建的散列表中查找。

现在,我们可以来估算一下,给这1亿张图片构建散列表大约需要多少台机器。

散列表中每个数据单元包含两个信息,哈希值和图片路径信息。假设我们通过MD5来计算哈希值,那长度就是128比特,也就是16字节。文件路径长度的上限是256字节,我们可以假设平均长度是128字节。如果我们使用链表法来解决散列冲突,那么还需要存储指针,指针只占用8字节。所以,散列表中每个数据单元就占用152字节(这里只是估算,并不准确)。

假设一台设备的内存大小为2GB,散列表的装载因子为0.75,那一台机器大约可以给1000万(2GB * 0.75 / 152KB)张图片构建散列表。所以,要对1亿张图片构建索引,需要大约十几台机器。在工程中,这种估算还是很重要的,能让我们事先对需要投入的资源、资金有个大概的了解,能更好地评估解决方案的可行性。

实际上,针对这种海量数据的处理问题,我们都可以采用多机分布式处理。借助这种分片的思路,可以突破单击内存、CPU等资源的限制。


2.7  分布式存储

现在互联网面对的都是海量数据、海量的用户。我们为了提高数据的读取、写入能力,一般都采用分布式的方式来存取数据,比如分布式缓存。我们有海量的数据需要缓存,所以一个缓存机器肯定是不够的。于是,我们就需要将数据分布在多台机器上。

该如何决定将哪个数据放到哪个机器上呢?我们可以借助前面数据分片的思想,即通过哈希算法对数据取哈希值,然后对机器个数取模,这个最终值就是应该存储的缓存机器编号。

但是,如果数据增多,原来的10台机器已经无法承受了,我们就需要扩容了,比如,扩容到11台机器,这时候麻烦就来了。因为,这并不是简单地加台机器就可以了。

原来的数据是通过10来取模的。比如13这个数据,存储在编号为3的这台机器上。但是如果新增了一台机器,我们再对11取模,原来13这个数据就被分配到了2号这台机器上了。

【数据结构与算法】之哈希算法 --- 第十一篇_第2张图片

因此,所有的数据都需要重新计算哈希值,然后重新搬移到正确的机器上。这样就相当于,缓存中的数据一下子都失效了。所有的数据请求都会穿透缓存,直接去请求数据库。这样就可能发发生雪崩效应,压垮数据库。

所以,我们需要一种方法,使得在新加入一台机器后,并不需要做大量的数据搬移操作。这个时候,一致性哈希算法就要登场了。【一致性哈希算法可以阅读:https://www.sohu.com/a/158141377_479559】

假设我们有k台机器,数据的哈希值范围是[0, MAX]。我们将整个范围划分成m个小区间(m远大于k),每台机器负载m / k个小区间。当有新机器加入的时候,我们就将某几个小区间的数据,从原来的机器中搬移到新的机器中。这样,既不用全部重新哈希、搬移数据,也保持了各台机器上数据量的均衡。


3、总结

1、哈希算法的第一个应用是:唯一标识,哈希算法对大量数据做信息摘要,通过一个较短的二进制码来表示很大的数据;

2、哈希算法的第二个应用是:校验数据的完整性和正确性,用下载音频的例子,多文件分块取哈希值,下载完成后再与种子文件中的哈希值进行比对,判断是否被恶意修改过。

3、哈希算法的第三个应用是:安全加密,我们讲到任何哈希算法都会出现散列冲突,但是这个冲突概率非常小。越是复杂的哈希算法就越难破解,但是同样计算时间也就越长。所以,选择哈希算法的时候,要权衡安全性和计算时间来决定用哪种哈希算法。

4、哈希算法的第四个应用是:散列函数,它对哈希函数的要求比较特别,更加看重散列的平均性和哈希算法的执行效率。

5、哈希算法的第五个应用是:负债均衡,利用哈希算法代替映射表,可以实现一个会话粘滞的负载均衡策略。

6、哈希算法的第六个应用是:数据分片,通过哈希算法对处理的海量数据进行分片,多机分布式处理,可以突破单机资源的限制。

7、哈希算法的第七个应用是:分布式存储,利用一致性哈希算法,可以解决缓存等分布式系统的扩容、缩容导致的数据大量搬移的难题。


推荐及参考:

1、Hash算法总结

2、Hash算法原理详解

3、https://time.geekbang.org/column/article/65312

4、https://time.geekbang.org/column/article/67388

你可能感兴趣的:(数据结构与算法,搞定数据结构与算法)