Spark MLlib 入门学习笔记 - 编程环境配置

配置windows下Spark MLlib的编程环境,实现在windows下用scala开发程序,用小数据集测试验证程序的正确性。少做修改,或者不做修改,然后打包成jar文件,用spark-submit提交到spark集群进行测试。假设已 安装好jdk、scala、IntelliJ IDEA和scala插件。

1. 安装hadoop、spark和hadoop2.6_Win_x64-master

下载 hadoop-2.6.0.tar.gz和spark-1.6.0-bin-hadoop2.6,从github下载hadoop2.6_Win_x64-master.zip(https://github.com/sdravida/hadoop2.6_Win_x64)。创建目录e:\spark,1)将三个文件解压缩到e:\spark目录下,2)将E:\spark\hadoop2.6_Win_x64-master\bin的文件拷贝到E:\spark\hadoop260\bin下面,3)将spark-assembly-1.6.0-hadoop2.6.0.jar文件拷贝到C:\Program Files (x86)\JetBrains\IntelliJ IDEA 2016.2.5\lib目录下。

2. 配置spark编译环境

启动idea创建scala工程

Spark MLlib 入门学习笔记 - 编程环境配置_第1张图片

Spark MLlib 入门学习笔记 - 编程环境配置_第2张图片

2. 添加spark-assembly-1.6.0-hadoop2.6.0.jar依赖包

 点击File主菜单的Project Structure子菜单,弹出配置界面后选择Libraries,再点"+"号弹出Select Library Files界面,完成选择后,点OK就可以了。

Spark MLlib 入门学习笔记 - 编程环境配置_第3张图片

在SparkDiscover目录下创建data目录,并在这个目录下建一个wordcount.txt文件,用作测试。在src目录下创建两级子目录main/scala作为源代码存放目录,然后创建一个名称为basic的package目录和WordCount源文件。

Spark MLlib 入门学习笔记 - 编程环境配置_第4张图片

package basic

/**
  * Created by Oliver on 2017/5/13.
  */
import org.apache.spark.{SparkConf, SparkContext}

// "local"
// "E:/MyProject/SparkDiscover/data/wordcount.txt"

object WordCount {
  def main(args: Array[String]){
    val conf = new SparkConf().setMaster(args(0)).setAppName("WordCount")
    val sc = new SparkContext(conf)
    val data = sc.textFile(args(1))
    data.flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect().foreach(println)

  }
}

程序中用了两个参数,参数1:提交到本地还是集群,参数2:文件名(本地或者是hdfs),在本地windows 下的运行配置。程序很简单,创建定义、创建上下文、读数据文件、调用flatMap进行处理(空格分割、map计数、reduce将计数相加,最后逐行打印输出)。

Spark MLlib 入门学习笔记 - 编程环境配置_第5张图片

运行结果

Spark MLlib 入门学习笔记 - 编程环境配置_第6张图片

打包输出,选择菜单File/Project Structure弹出界面后选择Artificts,点击"+" 如下图进行选择,再依次点apply和ok。

Spark MLlib 入门学习笔记 - 编程环境配置_第7张图片

点完以后发现,它把所有的包多添加进去了,时间上不需要这么多。把不需要的包删除,结果如下图所示。

Spark MLlib 入门学习笔记 - 编程环境配置_第8张图片

build jar包

Spark MLlib 入门学习笔记 - 编程环境配置_第9张图片

3. 在spark集群下运行

从out/artifacts/SparkDiscover_jar目录下拷贝SparkDiscover.jar文件到spark集群上,运行一下脚本进行测试。

spark-submit --master spark://d-hdp-01:7077 \
--class basic.WordCount \
--executor-memory 1g \
/home/hadoop/_testing/SparkDiscover.jar \
spark://d-hdp-01:7077 \
hdfs://d-hdp-01:9000/user/hadoop.txt  > result.log

打印输出被重定向到result.log文件中。运行结果如下。

Spark MLlib 入门学习笔记 - 编程环境配置_第10张图片

从界面上可以看到提交的任务,提交两次,界面上也显示了两次。

Spark MLlib 入门学习笔记 - 编程环境配置_第11张图片


你可能感兴趣的:(Spark)