大数据处理过程之核心技术ETL学习过程记录

大数据技术之数据采集ETL:

这里不过多的说数据采集的过程,可以简单的理解:有数据库就会有数据。

这里我们更关注数据的ETL过程,而ETL前期的过程,只需要了解其基本范畴就OK。

在数据挖掘的范畴了,数据清洗的前期过程,可简单的认为就是ETL的过程。ETL的发展过程伴随着数据挖掘至今,其相关技术也已非常成熟。这里我们也不过多的探讨ETL过程,日后如有涉及,在细分。

概念:

ETL(extract提取、transform转换、load加载)。ETL负责将分散的、异构数据源中的数据如关系数据、平面数据文件等抽取到临时中间层后,进行清洗、转换、集成,最后加载到数据仓库或数据集市中,成为联机分析处理、数据挖掘提供决策支持的数据。

ETL是构建数据仓库的重要的一环,用户从数据源抽取所需的数据,经过数据清洗,最终按照预先定义好的数据仓库模型,将数据加载到数据仓库中。其定义域来源也不下于十几年,技术发展也应相当成熟。可乍眼一看,似乎并没有什么技术可言,也没有什么深奥之处,但在实际的项目中,却常常在这个环节上耗费太多的人力,而在后期的维护上,往往更费脑筋。导致上面的原因,往往是在项目初期没有正确的估计ETL的工作,没有认真的考虑其与工具支撑有很大的关系。

在做ETL产品选型的时候,任然必不可少的要面临四点(成本、人员经验、案例和技术支持)来考量。在做ETL的过程中,也随之产生于一些ETL工具,如Datastage、Powercenter、ETLAutomation。而在实际ETL工具应用的对比上,对元数据的支持、对数据质量的支持、维护的方便性、定制开发功能的支持等方面是我们选择的切入点。一个项目,从数据源到最终目标表,多则达上百个ETL过程,少则也十几个。这些过程之间的依赖关系、出错控制以及恢复的流程处理,都是工具需要重点考虑。这里不再多讨论,具体应用再具体说明。

过程:

在整个数据仓库的构建中,ETL工作占整个工作的50%-70%。下面有人给出团队之间的ETL过程是如何实现的。在面临耗费绝大时间的分析过程中,要求第一点就是:团队协作性要好。ETL包含E,T,L还有日志的控制,数据模型,原数据验证,数据质量等等方面。

例如我们要整合一个企业亚太区的数据,但是每个国家都有自己的数据源,有的是ERP,有的是Access,而且数据库都不一样,好要考虑网络的性能问题, 如果直接用ODBC去连接两地的数据源,这样的做法很显然是不合理的,因为网络不好,经常连接,很容易数据库链接不能释放导致死机。如果我们在各地区的服 务器放置一个数据导出为access或者flat file的程序,这样文件就比较方便的通过FTP的方式进行传输。

下面我们指出上述案例需要的几项工作:

1、有人写一个通用的数据导出工具,可以用java,可以用脚本,或其他的工具,总之要通用,可以通过不同的脚本文件来控制,使各地区的不同数据库导出的文件格式是一样的。而且还可以实现并行操作。

2、有人写FTP的程序,可以用bat,可以用ETL工具,可以用其他的方式,总之要准确,而且方便调用和控制。

3、有人设计数据模型,包括在1之后导出的结构,还有ODS和DWH中的表结构。

4、有人写SP,包括ETL中需要用到的SP还有日常维护系统的SP,比如检查数据质量之类的。

5、有人分析原数据,包括表结构,数据质量,空值还有业务逻辑。

6、有人负责开发流程,包括实现各种功能,还有日志的记录等等。

7、有人测试真正好的ETL,都是团队来完成的,一个人的力量是有限的。

其实上述的7步,再给我们强调的是什么:一个人,很难成事。团队至上。

这里我们简述ETL的过程:主要从E、T、L和异常处理简单的说明,这里不再细说明。如果用到,我想大家一定会有更深的调研。

1、 数据清洗:

·数据补缺:对空数据、缺失数据进行数据补缺操作,无法处理的做标记。

·数据替换:对无效数据进行数据的替换。

·格式规范化:将源数据抽取的数据格式转换成为便于进入仓库处理的目标数据格式。

·主外键约束:通过建立主外键约束,对非法数据进行数据替换或导出到错误文件重新处理。

2、 数据转换

·数据合并:多用表关联实现,大小表关联用lookup,大大表相交用join(每个字段家索引,保证关联查询的效率)

·数据拆分:按一定规则进行数据拆分

·行列互换、排序/修改序号、去除重复记录

·数据验证:loolup、sum、count

实现方式:

·在ETL引擎中进行(SQL无法实现的)

·在数据库中进行(SQL可以实现的)

3、 数据加载

方式:

·时间戳方式:在业务表中统一添加字段作为时间戳,当OLAP系统更新修改业务数据时,同时修改时间戳字段值。

·日志表方式:在OLAP系统中添加日志表,业务数据发生变化时,更新维护日志表内容。

· 全表对比方式:抽取所有源数据,在更新目标表之前先根据主键和字段进行数据比对,有更新的进行update或insert。

·全表删除插入方式:删除目标表数据,将源数据全部插入。

异常处理

在ETL的过程中,必不可少的要面临数据异常的问题,处理办法:

1、将错误信息单独输出,继续执行ETL,错误数据修改后再单独加载。中断ETL,修改后重新执行ETL。原则:最大限度接收数据。

2、对于网络中断等外部原因造成的异常,设定尝试次数或尝试时间,超数或超时后,由外部人员手工干预。

3、 例如源数据结构改变、接口改变等异常状况,应进行同步后,在装载数据。

在这里涉及到ETL中,我们只要有一个清晰的认识,它不是想象中的简单一蹴而就,在实际的过程,你可以会遇到各种各样的问题,甚至是部门之间沟通的问题。在给它定义到占据整个数据挖掘或分析的过程中50%-70%是不足为过的。

后期项目如有涉及ETL过程,会细细讨论。

对大数据与分析有兴趣的朋友,也可以参考一下慧都大数据,里面有一些案例、教程、不同行业的解决方案之类的,可以学习学习!


你可能感兴趣的:(大数据处理过程之核心技术ETL学习过程记录)