Spark API编程动手实战-01-以本地模式进行Spark API实战map、filter和collect

首先以spark的本地模式测试spark API,以local的方式运行spark-shell:

Spark API编程动手实战-01-以本地模式进行Spark API实战map、filter和collect_第1张图片

Spark API编程动手实战-01-以本地模式进行Spark API实战map、filter和collect_第2张图片

先从parallelize入手吧:

Spark API编程动手实战-01-以本地模式进行Spark API实战map、filter和collect_第3张图片

Spark API编程动手实战-01-以本地模式进行Spark API实战map、filter和collect_第4张图片

map操作后结果:

 

下面看下 filter操作:

Spark API编程动手实战-01-以本地模式进行Spark API实战map、filter和collect_第5张图片

filter执行结果:

我们用最正宗的scala函数式编程的风格:

Spark API编程动手实战-01-以本地模式进行Spark API实战map、filter和collect_第6张图片

执行结果:

从结果 可以看出来,与之前那种分步奏方式结果是一样的

但采用这种方式,即是复合scala风格的写法,也是符合spark的应用程序风格的写法,在spark的编程中,大多数功能的实现都是只要一行代码即可完成。

 

你可能感兴趣的:(map,filter,sc,spark-shell,parallelize)