map
, filter
, flatMap
, sample
, groupByKey
, reduceByKey
, union
, join
, cogroup
, mapValues
,sort
,partionBy
等多种操作类型,Spark把这些操作称为Transformations。同时还提供Count
,collect
, reduce
, lookup
, save
等多种actions操作。
RDD的特点:
RDD的好处
RDD的存储与分区
RDD的内部表示
在RDD的内部实现中每个RDD都可以使用5个方面的特性来表示:
RDD的存储级别
RDD根据useDisk、useMemory、deserialized、replication四个参数的组合提供了11种存储级别:
RDD定义了各种操作,不同类型的数据由不同的RDD类抽象表示,不同的操作也由RDD进行抽实现。
下面来看一从Hadoop文件系统生成RDD的方式,如:val file = spark.textFile("hdfs://...")
,file变量就是RDD(实际是HadoopRDD实例),生成的它的核心代码如下:
对RDD进行计算时,RDD从HDFS读取数据时与Hadoop MapReduce几乎一样的:
下面使用一个例子来示例说明Transformations与Actions在Spark的使用。
Spark对于资源管理与作业调度可以使用Standalone(独立模式),Apache Mesos及Hadoop YARN来实现。 Spark on Yarn在Spark0.6时引用,但真正可用是在现在的branch-0.8版本。Spark on Yarn遵循YARN的官方规范实现,得益于Spark天生支持多种Scheduler和Executor的良好设计,对YARN的支持也就非常容易,Spark on Yarn的大致框架图。
让Spark运行于YARN上与Hadoop共用集群资源可以提高资源利用率。
Spark使用Scala开发,默认使用Scala作为编程语言。编写Spark程序比编写Hadoop MapReduce程序要简单的多,SparK提供了Spark-Shell,可以在Spark-Shell测试程序。写SparK程序的一般步骤就是创建或使用(SparkContext)实例,使用SparkContext创建RDD,然后就是对RDD进行操作。如:
Spark支持Java编程,但对于使用Java就没有了Spark-Shell这样方便的工具,其它与Scala编程是一样的,因为都是JVM上的语言,Scala与Java可以互操作,Java编程接口其实就是对Scala的封装。如:
现在Spark也提供了Python编程接口,Spark使用py4j来实现python与java的互操作,从而实现使用python编写Spark程序。Spark也同样提供了pyspark,一个Spark的python shell,可以以交互式的方式使用Python编写Spark程序。 如:
以Standalone模式运行Spark集群
http://spark-project.org/download/spark-0.7.3-prebuilt-cdh4.tgz
)修改配置(conf/*) slaves: 配置工作节点的主机名 spark-env.sh:配置环境变量。
把Hadoop配置copy到conf目录下
在master主机上对其它机器做ssh无密码登录
把配置好的Spark程序使用scp copy到其它机器
在master启动集群
以Yarn模式运行Spark
下载Spark代码.
切换到branch-0.8
使用sbt编译Spark并
把Hadoop yarn配置copy到conf目录下
运行测试
$SPARK_HOME/spark-shell
进入shell即可,在Spark-shell中SparkContext已经创建好了,实例名为sc可以直接使用,还有一个需要注意的是,在Standalone模式下,Spark默认使用的调度器的FIFO调度器而不是公平调度,而Spark-shell作为一个Spark程序一直运行在Spark上,其它的Spark程序就只能排队等待,也就是说同一时间只能有一个Spark-shell在运行。在Spark-shell上写程序非常简单,就像在Scala Shell上写程序一样。
在Spark中Spark程序称为Driver程序,编写Driver程序很简单几乎与在Spark-shell上写程序是一样的,不同的地方就是SparkContext需要自己创建。如WorkCount程序如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
|
import
spark
.
SparkContext
import
SparkContext
.
_
object
WordCount
{
def
main
(
args
:
Array
[
String
]
)
{
if
(
args
.
length
==
0
)
{
println
(
"usage is org.test.WordCount
}
println
(
"the args: "
)
args
.
foreach
(
println
)
val
hdfsPath
=
"hdfs://hadoop1:8020"
// create the SparkContext, args(0)由yarn传入appMaster地址
val
sc
=
new
SparkContext
(
args
(
0
)
,
"WrodCount"
,
System
.
getenv
(
"SPARK_HOME"
)
,
Seq
(
System
.
getenv
(
"SPARK_TEST_JAR"
)
)
)
val
textFile
=
sc
.
textFile
(
hdfsPath
+
args
(
1
)
)
val
result
=
textFile
.
flatMap
(
line
=
>
line
.
split
(
"\\s+"
)
)
.
map
(
word
=
>
(
word
,
1
)
)
.
reduceByKey
(
_
+
_
)
result
.
saveAsTextFile
(
hdfsPath
+
args
(
2
)
)
}
}
|