编写java程序访问spark环境

Spark本身是使用scala语言编写的,但是Spark提供了访问Spark环境的Java API,使得可以从Java程序中访问Spark环境。


准备环境


在互联的5台机器上同时部署Spark环境和Hadoop环境,之所以部署Hadoop环境,是为了让Spark可以从HDFS加载数据。Spark的版本是为CDH4预编译的0.8.0,Hadoop的版本为CDH4(好像是CDH4.3)。


创建Maven项目


创建Maven项目,在POM文件中添加如下库和依赖:


    
        Akka repository
        http://repo.akka.io/releases
    


    
        org.apache.spark
        spark-core_2.9.3
        0.8.0-incubating
    
    
        org.apache.hadoop
        hadoop-client
        2.0.0-mr1-cdh4.2.0
    


编写Java程序


直接贴Demo程序的代码和注释。

package xxx;
 
import java.util.HashMap;
import java.util.Map;
 
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
 
public class Demo {
 
    static final String USER = "wyc";
 
    public static void main(String[] args) throws Exception {
        System.setProperty("user.name", USER); // 设置访问Spark使用的用户名
        System.setProperty("HADOOP_USER_NAME", USER); // 设置访问Hadoop使用的用户名
        Map envs = new HashMap();
        envs.put("HADOOP_USER_NAME", USER); // 为Spark环境中服务于本App的各个Executor程序设置访问Hadoop使用的用户名
 
        System.setProperty("spark.executor.memory", "512m"); // 为Spark环境中服务于本App的各个Executor程序设置使用内存量的上限
 
        // 以下构造sc对象的构造方法各参数意义依次为:
        //   Spark Master的地址;
        //   App的名称;
        //   Spark Worker的部署位置;
        //   需要提供给本App的各个Executor程序下载的jar包的路径列表,这些jar包将出现在Executor程序的类路径中;
        //   传递给本App的各个Executor程序的环境信息。
 
        JavaSparkContext sc = new JavaSparkContext("spark://node01:7077", "Spark App 0", "/home/wyc/spark", new String[0], envs);
 
        String file = "hdfs://node01:8020/user/wyc/a.txt";
        JavaRDD data = sc.textFile(file, 4).cache();
        System.out.println(data.count());
    }
 
}



你可能感兴趣的:(java,spark)