用java写的一个简单的spark程序,通过本地运行和集群运行例子。
1 在eclipse下建一个maven工程
配置pom.xml
配置文件参考下面:
4.0.0
cn.spark
SparkTest
0.0.1-SNAPSHOT
jar
SparkTest
http://maven.apache.org
UTF-8
junit
junit
3.8.1
test
org.apache.spark
spark-core_2.10
1.3.0
org.apache.spark
spark-sql_2.10
1.3.0
org.apache.spark
spark-hive_2.10
1.3.0
org.apache.spark
spark-streaming_2.10
1.3.0
org.apache.hadoop
hadoop-client
2.4.1
org.apache.spark
spark-streaming-kafka_2.10
1.3.0
src/main/java
src/main/test
maven-assembly-plugin
jar-with-dependencies
make-assembly
package
single
org.codehaus.mojo
exec-maven-plugin
1.2.1
exec
java
true
false
compile
cn.spark.sparktest.App
org.apache.maven.plugins
maven-compiler-plugin
1.6
配置好后eclipse会自动从远端资源库中进行下载
2 编写spark程序
程序详细如下:
package org.spark.study.core;
import java.util.Arrays;
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaPairRDD;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.api.java.function.FlatMapFunction;
import org.apache.spark.api.java.function.Function;
import org.apache.spark.api.java.function.Function2;
import org.apache.spark.api.java.function.PairFunction;
import org.apache.spark.api.java.function.VoidFunction;
import scala.Tuple2;
/**
* 用java语言开发spark程序
* 第一个学习程序 wordcount
* @author 18521
*
*/
public class wordCountLocal {
public static void main(String[] args) {
// TODO Auto-generated method stub
// 1 创建一个sparkconf 对象并配置
// 使用setMaster 可以设置spark集群可以链接集群的URL,如果设置local 代表在本地运行而不是在集群运行
SparkConf conf = new SparkConf()
.setAppName("wordCountLocal")
.setMaster("local");
// 2 创建javasparkContext对象
// sparkcontext 是一个入口,主要作用就是初始化spark应用程序所需的一些核心组件,例如调度器,task,
// 还会注册spark,sparkMaster结点上注册。反正就是spake应用中最重要的对象
JavaSparkContext sc = new JavaSparkContext(conf);
// 3 对输入源创建一个出事RDD
// 元素就是输入源文件中的一行
JavaRDD lines = sc.textFile("D://worksoft//testdata//spark.txt");
// 4 把输入源拆分成一个一个的单词
// 引用一个RDD 都会创建一个function 类(比较简单的话就是一个匿名内部类)
// FlatMapFunction 有连个参数输入和输出
JavaRDD words = lines.flatMap(new FlatMapFunction() {
private static final long serialVersionUID = 1L;
public Iterable call(String arg0) throws Exception {
// TODO Auto-generated method stub
return Arrays.asList(arg0.split(" "));
}
});
// 5 需要将每一个单词映射为(单词,1) 后面才可以更具单词key 对后面value 1 进行累加从而达到计数的功能
JavaPairRDD parirs = words.mapToPair(new PairFunction() {
/**
* 每一个单词都映射成(单词,1)
*/
private static final long serialVersionUID = 1L;
public Tuple2 call(String arg0) throws Exception {
// TODO Auto-generated method stub
return new Tuple2(arg0, 1);
}
});
// 6 以单词做为key 统计单词出现的次数,用reducebykey 算子,对每一个key对于的value进行操作
JavaPairRDD wordcount = parirs.reduceByKey(new Function2() {
public Integer call(Integer arg0, Integer arg1) throws Exception {
// TODO Auto-generated method stub
return arg0+arg1;
}
});
// 7 已经通过spark 的几个算子 flatMap,mapToPair,reduceByKey 已经统计出每一个结点中的单词出现的次数
// 这中操作叫做transformation,但是在一开始的RDD是把文件拆分打散到不同的结点中的,所以后面还需要操作action 进行集合
// 9 action 操作通过foreach 来遍历所有最后一个RDD生成的元素
wordcount.foreach(new VoidFunction>() {
@Override
public void call(Tuple2 arg0) throws Exception {
// TODO Auto-generated method stub
System.out.println(arg0._1+" 出现了:"+arg0._2+"次");
}
});
sc.close();
}
}
3 本地测试
4 集群运行
4.1 spark程序修改
4.2 测试文件上传到hdfs
[root@spark1 opt]# hadoop fs -put spark.txt /spark.txt
[root@spark1 opt]# hadoop fs -ls /
17/05/27 11:51:29 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Found 2 items
-rw-r--r-- 3 root supergroup 171073915 2017-05-27 10:32 /spark.txt
drwxr-xr-x - root supergroup 0 2017-05-23 15:40 /user
4.3 程序打包
4.4 上传打包程序并写启动脚本
编写启动脚本
[root@spark1 java]# cat wordcount.sh
/opt/spark/bin/spark-submit \ # 用这个命令启动
--class org.spark.study.core.wordCountSpark \ # 配置类名
--num-executors 3 \ # 配置在三个结点上运行
--driver-memory 100m \ # drive内存
--executor-memory 100m \ # 配置execute内存
--executor-cores 3 \ # 内核运行单元数
/opt/spark-study/java/study-0.0.1-SNAPSHOT-jar-with-dependencies.jar \ # 运行的jar包
4.5 运行启动脚本进行测试
[root@spark1 java]# ./wordcount.sh >> spark.log
[root@spark1 java]# cat spark.log
integration 出现了:89100次
Hadoop��s 出现了:89100次
general 出现了:89100次
have 出现了:267300次
Million 出现了:89100次
here 出现了:89100次
big 出现了:89100次
stack. 出现了:89100次
modification 出现了:89100次
meili 出现了:267300次
conference. 出现了:89100次
we 出现了:178200次
requiring 出现了:89100次
conv 出现了:297次
simple 出现了:89100次
This 出现了:89100次
Joel 出现了:89118次
send 出现了:89118次
(HDFS) 出现了:89100次
without 出现了:178200次
……