SBT打包编译流程

scala文件写好为前提。

在项目目录创建一个sbt文件

$ vim simple.sbt

编写simple.sbt文件,以下为该文件的内容:

name := "Simple Project"
version := "1.0"
scalaVersion := "2.11.8"
libraryDependencies += "org.apache.spark" %% "spark-core" %% "2.1.0"
libraryDependencies += "org.apache.hbase" % "hbase-client" %% "1.1.5"
libraryDependencies += "org.apache.hbase" % "hbase-common" %% "1.1.5"
libraryDependencies += "org.apache.hbase" % "hbase-server" %% "1.1.5"

前三行按照实际填写,libraryDependencies项,第一行的spark-core在编写spark程序时是必须要有的,这里写的是一个用spark读取HBase数据的程序,所以下面是几个HBase的依赖包。

在创建sbt文件的目录执行下面代码进行sbt打包:

$ /usr/sbt/sbt package

使用spark-submit命令执行打包完成的程序:

$ /usr/lib/spark/bin/spark-submit \
>--driver-class-path /usr/lib/spark/jars/hbase/*:/usr/lib/hbase/conf \
>--class "SparkOperateHBase" \
>/usr/lib/spark/mycode/hbase/target/scala-2.11/simple-project_2.11-1.0.jar

 

你可能感兴趣的:(Spark,HBase)