用友华表任少斌:三面突围大数据存储

正在学习大数据相关的知识,发现用友的一篇文章不错,可以当作入门科普。

当然,我不清楚他讲的方案是不是合理的,但确实很易懂,也能学到不少知识。

转自:http://www.enet.com.cn/article/2012/0702/A20120702130582.shtml


大数据时代给传统数据仓库架构带来了一系列的冲击和挑战,仅从源数据采集和存储层面,就让仓储的构建者不得不重新认真地思考:数据在哪里?这个问题的答案改写了企业数据仓库对数据源的既有定义,同时也传递了两方面的焦虑,一是数据规模急速增长,现有的单节点或者共享磁盘架构能否适应海量数据的存储;二是数据结构复杂多样,现有的基于结构化数据为主体的存储方案能否兼容无模式的非结构化数据。

  面对企业大数据的挑战,用友华表作为一家提供商业分析产品的供应商,在技术上我们将如何解决大数据的问题呢?目前面对大数据给现有仓库存储架构带来的量的冲击和数据种类增加的挑战,不同的公司会选择不同的技术路线,我们最初试图通过一个大而全的存储架构来解决海量数据和多种数据类型的问题。但结过一段时间反复研究,我们认为大而全的存储架构不是解决大数据的最佳方案,我们目前决定采用的技术路线是让不同种类的数据存储在最适合他们的存储系统里,然后再将不同的数据类型进行融合,企业在融合的数据基础上做商业分析。

  本文我将从用友华表的技术思路、存储方案、存储之后的数据如何融合三个层次来阐述我们如何应对大数据的挑战。

  分而治之 三面突围

  第一,有“容”乃大。“容”,即有足够的容量来存储数据。对于大规模数据,我们将采用分而治之的思想,构建分布式存储系统,并且做到易扩展。保证系统可以方便的增加节点,当企业的数据快速增加时,可以使数据分布始终保持在平衡状态;

  第二,有“荣”乃大。即兼用多种存储引擎。大数据因结构复杂多样使得数据仓库要采集的源数据种类无比“繁荣”,因此新的仓储架构也要改变目前以结构化为主体的单一存储方案的现状,针对每种数据的存储特点选择最合适的解决方案:对非结构化数据采用分布式文件系统进行存储,对结构松散无模式的半结构化数据采用面向文档的分布式key/value存储引擎,对海量的结构化数据采用shared-nothing的分布式并行数据库系统存储;

  第三,有“融”乃大。如上所述可以兼用多种分布式存储引擎来解决“容”和“荣”的挑战,但企业存储多元化数据的一个重要目标是集成分析,而多种类型数据孤立存储对后续的集成分析会带来极大不便。因此我们还需要构建分布式数据库系统和分布式文件系统之间的连接器,使得非结构化数据在处理成结构化信息后,能方便的和分布式数据库中的关系型数据快速融通,保证大数据分析的敏捷性。

  存储方案各不同

  上面提到针对大数据规模大、种类多的特点,我们可以采用“容”、“荣”的方案,兼用多种分布式存储引擎分而治之。那么我们就拿非结构化、半结构化和结构化这三大类数据的存储方案分别举例说明,以便让大家更清楚的了解到不同类型的海量数据通常都是通过哪些方式来进行存储的。由于谈到的都是业界普遍使用的开源或商业方案,因此不做深入讨论。

  首先,适合存储海量非结构化数据的分布式文件系统。

  HDFS(Hadoop Distributed File System),是鼎鼎大名的开源项目Hadoop的家族成员,是谷歌文件系统GFS(Google File System)的开源实现。HDFS将大规模数据分割为多个64兆字节的数据块,存储在多个数据节点组成的分布式集群中,随着数据规模的不断增长,只需要在集群中增加更多的数据节点即可,因此具有很强的可扩展性;同时每个数据块会在不同的节点中存储3个副本,因此具有高容错性;因为数据是分布式存储的,因此可以提供高吞吐量的数据访问能力,在海量数据批处理方面有很强的性能表现。

  其次,适合存储海量无模式的半结构化数据的分布式Key/Value存储引擎。

  HBase(Hadoop Database),也是开源项目Hadoop的家族成员,是谷歌大表Bigtable的开源实现。HBase是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,它不同于一般的有模式的关系型数据库,HBase存储的数据表是无模式的,特别适合结构复杂多样的半结构化数据存储。此外,HBase利用HDFS作为其文件存储系统,利用MapReduce技术来处理HBase中的海量数据。

  第三,适合存储海量结构化数据的分布式并行数据库系统。

  Greenplum是基于PostgreSQL开发的一款MPP(海量并行处理)架构的、shared-nothing无共享的分布式并行数据库系统。采用Master/Slave架构,Master只存储元数据,真正的用户数据被散列存储在多台Slave服务器上,并且所有的数据都在其它Slave节点上存有副本,从而提高了系统可用性。

  Greenplum最核心的技术就是,大表数据分片存储,可以应对海量数据;基于大表的查询语句在经过Master分析后可以分片发送到Slave节点进行并行运行,所有节点将中间结果返回给Master节点,由Master进行汇总后返回给客户端,大大提高了SQL的运行速度。

  “三融合一”--Xnet数据交换网络

  各种复杂而大量的数据犹如一张立体的大网,三类数据是网里三种不同的结点,前面提到的三类分布式存储引擎可以将不同的结点有序的安排在网上,并且每种相同的结点都可以直接用线相互连接起来。但此时只是三个孤立的面,就如同三类数据间存在的孤岛。若要把这三个面也相互连接起来,形成一张可以从点到面,从点到点,从面到面的大网,则需要构建一个方便、快速的数据交换组件,它是一个连接器,可以实现“三融合一”,满足大数据存储有“融”乃大的特性。

  下面先介绍一下数据交换网络Xnet(Exchange Net)的一些基本构思,它是一个可以完成分布式文件系统和分布式数据库之间海量数据快速交换的组件。

用友华表任少斌:三面突围大数据存储_第1张图片

  上图仅是一个简化的逻辑图,在实际的物理部署中,HDFS集群和并行数据库集群共用一个服务器集群,即在服务器集群的每个节点上既有HDFS数据节点也有并行数据库的数据库单实例。处于中间融通两方数据的蓝色部分就是我们本节要探讨的分布式、可并行运行的高速连接器Xnet。

  Xnet实际就是运行在Hadoop集群上的一系列Mapreduce任务,它要完成从HDFS读取源数据、处理中间结果集、最后写入分布式数据库的若干作业,这些作业对调用者而言是完全透明的,仅需要配置简单的业务信息,调用Xnet就可自动完成:

  ·源数据文件:需要同步至分布式数据库的HDFS文件

  ·文件头:源数据的列分隔符、以及与目标表列名的映射

  ·目标表:要写入的数据库表

  ·过滤条件:选择写入的数据行条件

  ·散列键:根据散列键的值和哈希算法确定数据要写入分布式数据库的节点,对数据进行分片保证数据均衡分布

  Xnet组件的主要功能设计如下:

  第一,拆分列表。将源数据文件符合过滤条件的面向行的记录拆分为多个列表,并存入如下的目录结构中:

用友华表任少斌:三面突围大数据存储_第2张图片

  一级目录为表名,二级目录为列名,这样方便后续的基于列的数据传输、装载以及基于列的统计信息采集,其Mapreduce过程可以模拟如下:

  Map阶段:

  a、源数据文件被splitable接口分割为多个数据段,对每个段Jobtracker会启动一个Mapper检索每一行记录,根据Xnet的配置信息得到符合过滤条件的记录

  b、根据Xnet配置信息得到每条记录的散列键,结合哈希算法计算出该记录的散列值HK

  c、根据Mapper处理的数据段号和当前处理的行号产生一个行标识RID

  d、Mapper结合Xnet的配置信息对当前记录的每一列都产生输出,数据格式为HK:(Cn;RID;Cv),其中HK为散列值,Cn为列名,RID为行标识,Cv为列值

  Reduce阶段:

  a、Reducer远程读取Mapper产生的中间数据集,通过实现定制化的MultipleOutputFormat接口并根据记录中Cn即列名,将记录写入如上的树结构目录中,数据格式为HK:(RID;Cv)。

  第二,散列列表。将拆分得到的列表数据文件根据每条记录的散列值HK汇聚到相应的数据库实例节点,进行排序等操作,并行加载入分布式数据库中,其Mapreduce过程模拟如下:

  Map阶段:

  a、Mapper从对应的二级目录结构中读取每个列表的数据文件

  Reduce阶段:

  a、Mapper产生的中间数据集根据散列值HK进行Partition汇聚到不同的Reducer进程

  b、Reducer对数据集按照列值即Cv进行排序操作,并通过实现定制化的MultipleOutputFormat接口将数据通过分布式数据库的装载接口写入相应的数据库实例中

  第三,统计信息。该功能主要是以单位列表为对象进行全量或者抽样计算,产生列级统计信息,利用Xnet的数据交换过程进行统计信息采集,减轻分布式数据库后续分析表的相关运算。这些统计信息有助于分布式数据库的查询引擎做出最合理的执行计划,提高用户的数据分析效率。

  我们将统计信息采集的操作实现为独立的算子,嵌入到Xnet的数据交换过程中,保证代码的独立性,可以方便的控制何时进行统计信息的采集。主要算子描述如下:

  ·StatisticsGather

  简单的聚集统计采集,如空值数、记录数,最大最小值等

  ·HistogramGather

  等高直方图、常用值统计等

  ·SampleGather

  数据采样算子,在采样统计情景下,将命中的记录传给其它两个算子进行统计

  下面通过举例看看统计信息采集的处理过程。

  首先,准备阶段。Mapreduce过程要对输入的数据进行分割split操作,在统计信息的采集过程中不用对所有的splits都进行统计分析,每次采集任务只选择指定数量的split进行。这些数量值需要在统计信息任务里进行配置,如采样的splits数量num_sample_splits,采样的记录数num_sample_records。

  采样的选择方法:

  ·如果num_sample_splits大于splits总数,那么所有splits都需要进行采样,每个split采样的记录数为num_sample_records / total_splits

  ·如果num_sample_splits小于splits总数,计算splits挑选的间隔sample_step = total_splits / num_sample_splits,按照sample_step的间隔从splits列表中选出num_sample_splits个split,每个split需要采样的任务数为num_sample_records / num_sample_splits

  其次,采样算子。在海量数据中,对每个字段统计一个精确的直方图信息的代价太大,而且也没有意义。因此采用采样的手段来统计每个字段的直方图信息比较可取,下面描述两种采样方式,如果能清楚知道每个分割文件的记录数目那么直接采用采样算法Algorithm S或者Algorithm R是最好的,具体采样算法这里不做讨论。

  ·顺序读取:SampleGather接收需要处理的记录,如果达到配置的采样数目则跳过不做任何操作;如果没有达到则传递给HistogramGather进行统计分析

  ·估值读取:SampleGather统计前n条记录的平均长度,根据平均长度和当前分割文件的总长度,估算当前包含的总记录数。有了总记录数N就可进行采样算法如Algorithm S或者Algorithm R,将采样命中的记录传递给HistogramGather进行统计分析

  第三,MR流程。在此模拟统计信息采集的Mapreduce过程,包括字段记录总数、空值记录比例、常用值统计和等高直方图统计。

  Map阶段:

  a、Mapper从文本文件中解析得到的一行记录,并传递给StatisticsGather和SampleGather

  b、StatisticsGather的处理:统计记录数num_all加1,如果该字段同时为空则num_null加1

  c、SampleGather进行采样后,将采样的记录传递给HistogramGather进行直方图统计(在Map阶段直方图统计包括常用值统计和等高直方图统计)

  d、常用值统计:将该字段放入HashTable进行去重操作,统计该字段的重复类;HashTable中按照值出现的次数排序,并且保证HashTable的大小在指定的范围内,比如250个Key

  e、等高直方图统计:直接将所有采样到的所有记录输出到Reduce阶段,因为等高直方图需要一个全局的采样统计

  Map阶段输出:

  a、StatisticsGather输出:该split中包含的总记录数num_all,该字段的空值数量num_null

  b、HistogramGather输出:常用值(MCV)统计输出,HashTable中key的数目,key的列表,以及每个key在split中占有的数量;等高直方图统计输出,采样得到的所有记录

  Reduce阶段:

  a、StatisticsGather输出:累加每个Map输出的num_all,得到总记录数;累加每个Map输出的字段的空值数量,并与总记录数相除,得到空值比例

  b、HistogramGather的常用值统计输出:利用Mapper和Reducer的Sort机制,对常用值出现次数进行累加统计。基于常用值统计可以进一步产生更多的统计信息,如遍历常用值的HashTable,统计出现次数大于1的键值,如果该值为0,则说明该字段具有唯一性。还可以利用常用值输出计算该列的离散度等,这里不再赘述。

  c、HistogramGather的等高直方图统计输出:利用Mapper和Reducer的Sort机制,将每个Mapper输出的采样记录进行排序。根据配置的直方图箱个数,将这些值分到不同的bin中,记录每个bin的起始值和结束值。输出等高的直方图。(如下图所示,得到等高直方图的例子)

用友华表任少斌:三面突围大数据存储_第3张图片

你可能感兴趣的:(用友华表任少斌:三面突围大数据存储)