Spark大师之路:使用maven编译Spark


系统环境:

windows 7

apache maven 3.1.0

scala 2.10

jdk 1.7.0_40

spark 0.9.0-incubating

 

引言

如今JVM系的开源项目均引入了使用maven进行版本管理,Spark也不例外,今天就使用maven来对Spark进行构建。

Spark建议使用Maven3系列进行编译,并且要求Java版本最低为1.6。

 

编译

Maven内存配置

Spark编译可能比其他项目更耗内存,建议为maven配置较大内存,推荐的内存为2g,最大永久区内存为512m,可以使用一下命令来配置:

export MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m"



如果你使用的是windows系统,也可以在mvn.bat中找到:

@REM set MAVEN_OPTS=-Xdebug -Xrunjdwp:transport=dt_socket,server=y,suspend=y,address=8000

在其后添加 :

-Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m


如果内存配置不够大,可能在构建时报如下错误:

[INFO] Compiling 203 Scala sources and 9 Java sources to /Users/me/Development/spark/core/target/scala-2.10/classes...
[ERROR] PermGen space -> [Help 1]

[INFO] Compiling 203 Scala sources and 9 Java sources to /Users/me/Development/spark/core/target/scala-2.10/classes...
[ERROR] Java heap space -> [Help 1]


 

指定Hadoop版本


Spark依赖于HDFS存储数据,而HDFS使用的protobuf版本又不一致,所以应该为我们所构建的Spark指定对应的HDFS版本,这个版本需要和你集群中所使用的HDFS版本一致。Spark默认对应的Hadoop版本为1.0.4,你可以在maven命令中使用-Dhadoop.version=${your.version}来指定你的版本号。

如果你使用的是Hadoop2.x,0.23.x版本或者Cloudera的CDH MRv2,那么需要在编译命令中使用-Pyarn-alpha或者-Pyarn来指定。另外,还需要指定yarn的版本,同样使用-Dyarn.version=${your.version}完成。

注意:以上配置也可以通过修改pom.xml文件实现,方法是在pom.xml文件里找到-P之后对应的profile标签,修改hadoop.version和yarn.version对应的value即可。

命令行配置的一个完整示例如下:

mvn -Pyarn -Dhadoop.version=2.2.0 -Dyarn.version=2.2.0 -DskipTests clean package


 

指定SCALA_HOME


Spark编译需要调用scalac,你需要在命令行中引入SCALA_HOME变量,或者将其添加系统变量中(添加方法再次不赘述)。

 

如果编译完毕,前台输出如下字样,说明编译成功。

[INFO] ------------------------------------------------------------------------
[INFO] Reactor Summary:
[INFO] 
[INFO] Spark Project Parent POM .......................... SUCCESS [9.014s]
[INFO] Spark Project Core ................................ SUCCESS [10:12.198s]
[INFO] Spark Project Bagel ............................... SUCCESS [7:22.175s]
[INFO] Spark Project GraphX .............................. SUCCESS [2:20.119s]
[INFO] Spark Project ML Library .......................... SUCCESS [3:22.775s]
[INFO] Spark Project Streaming ........................... SUCCESS [2:35.244s]
[INFO] Spark Project Tools ............................... SUCCESS [23.091s]
[INFO] Spark Project REPL ................................ SUCCESS [1:06.345s]
[INFO] Spark Project YARN Parent POM ..................... SUCCESS [4:01.606s]
[INFO] Spark Project YARN Stable API ..................... SUCCESS [1:01.500s]
[INFO] Spark Project Assembly ............................ SUCCESS [3:24.366s]
[INFO] Spark Project External Twitter .................... SUCCESS [37.682s]
[INFO] Spark Project External Kafka ...................... SUCCESS [44.005s]
[INFO] Spark Project External Flume ...................... SUCCESS [37.477s]
[INFO] Spark Project External ZeroMQ ..................... SUCCESS [41.711s]
[INFO] Spark Project External MQTT ....................... SUCCESS [34.665s]
[INFO] Spark Project Examples ............................ SUCCESS [2:48.186s]
[INFO] ------------------------------------------------------------------------
[INFO] BUILD SUCCESS
[INFO] ------------------------------------------------------------------------
[INFO] Total time: 42:03.562s
[INFO] Finished at: Tue Apr 08 23:57:31 CST 2014
[INFO] Final Memory: 60M/247M
[INFO] ------------------------------------------------------------------------


 

纯净版编译


使用-Pyarn或者-Pyarn-alpha编译出来的是一个完整的包,存放在./assembly/target/scala-2.10下,这个包包含了Spark编译得到的jar包,以及编译过程中所依赖的包。

如果你只想得到Spark的包,而不需要其依赖的Hadoop等,那么可以使用-Pbigtop-dist这个选项指定纯净版的profile(在./assembly/pom.xml中标识)。

 

编译得到Spark的jar包之后,你就可以调用其API进行二次开发啦!

 

参考

http://spark.apache.org/docs/latest/building-with-maven.html

http://hi.baidu.com/startgo123/item/9b95dc0af3ae8c3ca3332aa4

 

声明:本文为原创,禁止用于任何商业目的,转载请注明出处:http://blog.csdn.net/asongoficeandfire/article/details/23223561

你可能感兴趣的:(Spark,大数据畅谈)