Spark基础:使用维基百科数据集来用Spark进行原型实验


Spark基础:使用维基百科数据集来用Spark进行原型实验_第1张图片



Apache Spark的真正价大能力在于用它可以构建一个一一致的分析景,囊括了从ETL(数据抽取、转换入)、批理分析、实时流分析、机器学图类型数据分析,到可化的多种功能。在历时2天的程里,布莱恩·克莱坡通过对多种基百科数据集的手操作来展示了理想中Spark可以完成的多化的程模式。在培训结,参加者将具运用Spark来行概念验证和原型搭建的能力。

程包括50%的座和50%的践。所有的参与者在束后可以得Databricks内容一个月的接入,方便参与者继续进践和完成作

 


阅读原文 ( read more ) 浏览更多培训信息

你可能感兴趣的:(Spark基础:使用维基百科数据集来用Spark进行原型实验)