------ 本文是学习算法的笔记,《数据结构与算法之美》,极客时间的课程 ------
MapReduce是Google大数据处理的三驾马车之一,另外两个是GFS和Bigtable。它在倒排索引、PageRank计算、网页分析等搜索引擎相关的技术中都有大量的应用。
尽管开发一个MapReduce看起来很高深,实际上,万变不离其宗,它的本质就是我们今天要学的这种算法思想,分治思想。
为什么说MapReduce的本质就是分治算法呢?我们先来看看,什么是分治算法。
分治算法(divide and conquer)的核心思想就是分而治之,也就是将原问题划分成n个规模小,并且结构与原问题相似的子问题,递归地解决这些子问题,然后再合并其结果,就得到原问题的解。
分治是一种处理问题的思想,递归是一种编程技巧。实际上,分治算法一般都比较适合用递归来实现,其实现的每一层递归都会涉及这样的三个操作:
分治算法能解决的问题,一般需要满足下面这几个条件:
还记得我们在排序算法里讲的数据的有序度、逆序度的概念吗?我们用有序度来表示一组数据的有序程序,用逆序度表示一组数据的无序程度。
假设我们有n个数据,期望数据由小到大排列,那完全有序的数据的有序度就是 n(n-1)/2 ,逆序度等于0; 相反,倒序排列的数据,其有序度是0,逆序度是 n(n-1)/2。除了这两种极端的情况外,我们通过有序对或者逆序对的个数,来表示数据的有序度或逆序度。
我们现在的问题是,如何编程求出一组数据的有序对个数或者逆序对个数。最笨的方法是,拿每个数字跟它后面的数字比较,看有几个比它小的。我们把比它小的数字个数记作 k,通过这样的方式,把每个数字都考察一遍之后,然后对每个数字对应的 k 值求和,最后得到的总和就是逆序对个数。不过,这样操作的时间复杂度是O(n^2)。有没有更高效的处理方法呢?
我们用分治算法来试试。对于数组A来说,我们可以将其分成前后两半 A1和A2,分别计算 A1和A2的逆序对个数K1和K2,然后再计算 A1和A2之间逆序对个数K3。那数组A的逆序对个数就等于K1+K2+K3。
我们前面讲过,使用分治算法其中一个要求是,子问合并的代价不能太大,否则就起不了不为瓦全时间复杂度的效果了。回到这个问题,如何快速计算出两个子问题 A1和A2之间的逆序对个数呢?
这里就要借助归并排序算法了。归并排序中有一个非常关键的操作,就是将两个有序的小数组,合并成一个有序的数组。实际上,在这个合并的过程中,我们就可以计算出两个小数组的逆序对个数了。每次合并操作,我们都计算逆序对个数,把这些计算的逆序对个数求和,就是这个数组的逆序对个数了。
private int num = 0; // 全局变量或者成员变量
public int count(int[] a, int n) {
num = 0;
mergeSortCounting(a, 0, n-1);
return num;
}
private void mergeSortCounting(int[] a, int p, int r) {
if (p >= r) return;
int q = (p+r)/2;
mergeSortCounting(a, p, q);
mergeSortCounting(a, q+1, r);
merge(a, p, q, r);
}
private void merge(int[] a, int p, int q, int r) {
int i = p, j = q+1, k = 0;
int[] tmp = new int[r-p+1];
while (i<=q && j<=r) {
if (a[i] <= a[j]) {
tmp[k++] = a[i++];
} else {
num += (q-i+1); // 统计 p-q 之间,比 a[j] 大的元素个数
tmp[k++] = a[j++];
}
}
while (i <= q) { // 处理剩下的
tmp[k++] = a[i++];
}
while (j <= r) { // 处理剩下的
tmp[k++] = a[j++];
}
for (i = 0; i <= r-p; ++i) { // 从 tmp 拷贝回 a
a[p+i] = tmp[i];
}
}
很多同学经常说,某某算法思想如此巧妙,我是怎么也想不到的。实际上,确实是的。有些算法确实非常巧妙,并不是每个人短时间都能想到的。比如这个问题,并不是每个人都能想到可以用归并排序算法来解决,不夸张的说,如果之前没接触过,绝大部分人都想不到。但量,如果我告诉你,可以借助归并排序算法来解决,那你就应该要想到如何改造归并排序,来求解这个问题了。只要能做到这一点,我觉得就很多棒了。
关于分治算法,还有两道比较经典的问题,,你可以自己练习一下。
分治算法思想的应用是非常广泛的,并不仅限于指导编程和算法设计。它还经常应用在海量数据的处理场景中。我们前面讲到的数据结构和算法,大部分都是基于内存存储和单机处理。但是,如果要处理的数据量非常大,没法一次性放到内存中,这个时候,这引数据结构和算法 就无法工作了。
比如,给10GB的订单文件按照金额排序这样一个需要,年似是一个简单的排序问题,但是因为数据量在,有10GB,而我们机器内存可能只有2、3GB这样子,无法一次性加载到内存,也就无法通过单纯使用快排,归并等基础算法来解决了。
要解决这种数据量大到内存装不下的问题,我们就可以用分治思想。我们可以将海量数据集合根据某种方法,划分为几个小的数据集合,每个小数据集合单独加载到内存来解决,然后再将小数据集合合并成大数据集合。实际上,利用这种分治的处理思路,不仅仅能克服内存的限制,还能利用多线程或多机处理,加快处理的速度。
比如刚刚举的例子,给10GB的订单排序,我们就可以先扫描一遍订单,根据订单金额,将10GB的文件划分为几个金额区间。比如订单金额为1到100元放到一个小文件,以些类推。这样每个小文件都可以单独加载到内存排序,最后将这些有序的小文件合并,就是最终有序的10GB订单订单数据。
如果订单数据存储在类似GFS这样的分布工系统上,当10GB订单被划分成多个小文件的时候,每个文件可以并行加载到多台机器上处理,最后再将结果合并在一起,这样并行处理的速度也加快了很多。不过,这里有一个点要注意,就是数据的存储与计算所在的机器是同一个或者在网络中靠的很近(比如一个局域网内,数据存取速度很快),否则就会因为数据文章的速度,导致整个处理过程不但不会变快,反面有可能变慢。
再来看看开篇的问题,为什么说MapReduce的本质就是分治思想?
我们刚刚举的例子,数据有10GB大小,可能你的感受还不强烈。那如果我们要处理的数据是1T、10T、100T这样子的,那一台机器处理的效率肯定是非常低的。而对于谷歌搜索引擎来说,网页爬取、清洗、分析、分词、计算权重、倒排索引等等各个环节,都会面对如此海量的数据。所以,利用集群并行处理显然是大势所趋。
一台机器过于低效,那我们就把任务分析到多台机器上来处理。如果拆分之后的小任务之间互不干扰,独立计算,最后再将结果合并。这不就是分治思想吗?
实际上,MapReduce框架只是一个任务调度器,底层依赖GFS来存储数据,依赖Borg管理机器。它从GFS中拿数据民,交给Borg中的机器执行,并且时刻监控机器执行的进度,一旦出现机器宕机、进度卡壳等,就重新从Borg中调度一台机器执行。
尽管MapReduce的模型非常简单,但是在Google内部应用非常广泛。它除了可以用来处理这种数据与数据之间存在关系的生任务,比如MapReduce的经典例子,统计文件中单词出现的频率。除此之外,还可以用来处理数据与数据之间没有关系的任务,比如对网页的分析、分词等,每个网页可以独立的分析、分词,而网页之间并没有关系。网页几十亿、上百亿,如果单机处理,效率低下,我们就可以用MapReduce提供的高可靠、高性能、高的并行计算框架,并行地处理这几十亿、上百亿的网页。