【big data】MapReduce

MapReduce

MapReduce是一种编程模型,用于大规模数据集(大于1TB)的并行运算。概念"Map(映射)"和"Reduce(化简)",和他们的主要思想,都是从函数式编程语言里借来的,还有从矢量编程语言里借来的特性。他极大地方便了编程人员在不会分布式并行编程的情况下,将自己的程序运行在分布式系统上。 当前的软件实现是指定一个Map(映射)函数,用来把一组键值对映射成一组新的键值对,指定并发的Reduce(化简)函数,用来保证所有映射的键值对中的每一个共享相同的键组。


简单说来,一个映射函数就是对一些独立元素组成的概念上的列表的每一个元素进行指定的操作。事实上,每个元素都是被独立操作的,而原始列表没有被更改,因为这里创建了一个新的列表来保存新的答案。这就是说,Map操作是可以高度并行的,这对高性能要求的应用以及并行计算领域的需求非常有用。

而化简操作指的是对一个列表的元素进行适当的合并。虽然他不如映射函数那么并行,但是因为化简总是有一个简单的答案,大规模的运算相对独立,所以化简函数在高度并行环境下也很有用。


MapReduce通过把对数据集的大规模操作分发给网络上的每个节点实现可靠性;每个节点会周期性的返回它所完成的工作和最新的状态。如果一个节点保持沉默超过一个预设的时间间隔,主节点(类同GoogleFile System中的主服务器)记录下这个节点状态为死亡,并把分配给这个节点的数据发到别的节点。每个操作使用命名文件的原子操作以确保不会发生并行线程间的冲突;当文件被改名的时候,系统可能会把他们复制到任务名以外的另一个名字上去。(避免副作用)。

化简操作工作方式与之类似,但是由于化简操作的可并行性相对较差,主节点会尽量把化简操作只分配在一个节点上,或者离需要操作的数据尽可能近的节点上;这个特性可以满足Google的需求,因为他们有足够的带宽,他们的内部网络没有那么多的机器。


其实,在这里简单来讲,MapReduce里面最主要的两个函数是:Map和Reduce。Map是处理最原始的杂乱无章的数据,得到的是一个键值对(比如是处理数据的最后,得到了很多的Key,每个Key里面是对应了很多的Value。这里Map的数据显然要比最原始的数据规范得到了)。得到了Map获取的众多的键值对之后,我们就需要对这些规范的数据进行提取了,这个提取,一般的就是一个函数方法,去处理每个Key里面的Value,得到自己想要的值。当然Map因为是对大数据的处理,本身就需要它的并行能力更强,而Reduce的并行能力相对来说应该要弱些。感觉这样的一个处理过程,其实就是在对数据的一步一步精简,最后靠近自己所求的。



你可能感兴趣的:(mapreduce,大数据,Data,并行编程,big)