Spark 集群搭建从零开始之3 Spark Standalone集群安装、配置与测试

1、进入pc1的Spark的conf目录,创建或者修改spark-env.sh

export JAVA_HOME=/usr/lib/jvm/java-8-oracle
export SCALA_HOME=/chenjie/scala-2.10.4
export HADOOP_HOME=/chenjie/hadoop-2.6.5
export HADOOP_CONF_DIR=/chenjie/hadoop-2.6.5/etc/hadoop
export SPARK_MASTER_IP=pc1
export SPARK_WORKER_MEMORY=2g
export SPARK_EXECUTOR_MEMORY=2g
export SPARK_DRIVER_MEMORY=2g
export SPARK_WORKER_CORES=2


2、配置spark-defaults.conf

spark.eventLog.enabled           true
spark.eventLog.dir               hdfs://pc1:9000/historyserverforSpark
spark.yarn.historyServer.address pc1:18080
spark.history.fs.logDirectory hdfs://pc1:9000/historyserverforSpark
spark.serializer                 org.apache.spark.serializer.KryoSerializer
spark.executor.extraJavaOptions  -XX:+PrintGCDetails -Dkey=value -Dnumbers="one two three"


3、使用scp -r /chenjie/spark-1.6.0-bin-hadoop2.6 root@pc2:/chenjie命令将spark文件夹拷贝给pc2  pc3同理


4、pc1上进入/chenjie/spark-1.6.0-bin-hadoop2.6/sbin目录使用./start-all.sh命令启动集群


5、pc1上使用jps看到Master进程,pc2上看到Worker进程,pc3上看到Worker进程


6、使用http://192.168.153.131:8080/访问spark看到两个Worker结点

Spark 集群搭建从零开始之3 Spark Standalone集群安装、配置与测试_第1张图片


7、在pc1上进入【Hadoop】的/sbin目录下使用start-dfs.sh启动hdfs

Spark 集群搭建从零开始之3 Spark Standalone集群安装、配置与测试_第2张图片

8、http://192.168.153.131:50070访问hadoop DataNode

Spark 集群搭建从零开始之3 Spark Standalone集群安装、配置与测试_第3张图片

9、启动【Spark】的start-history-server.sh

Spark 集群搭建从零开始之3 Spark Standalone集群安装、配置与测试_第4张图片

我出现问题:

Spark 集群搭建从零开始之3 Spark Standalone集群安装、配置与测试_第5张图片

说明HDFS上没有historyserverforSpark

在pc1上使用hadoop fs -mkdir /historyserverforSpark创建之

再重启start-history-server.sh


Spark 集群搭建从零开始之3 Spark Standalone集群安装、配置与测试_第6张图片

使用18080端口访问,能访问则证明成功

Spark 集群搭建从零开始之3 Spark Standalone集群安装、配置与测试_第7张图片


10、以集群方式启动spark-shell

进入spark的bin目录

./spark-shell

Spark 集群搭建从零开始之3 Spark Standalone集群安装、配置与测试_第8张图片Spark 集群搭建从零开始之3 Spark Standalone集群安装、配置与测试_第9张图片Spark 集群搭建从零开始之3 Spark Standalone集群安装、配置与测试_第10张图片Spark 集群搭建从零开始之3 Spark Standalone集群安装、配置与测试_第11张图片

能够计算wordcount说明集群搭建成功。


在此过程中,我的spark-shell总是启动不了,推测跟虚拟机内存有关,于是将两个worker改为1个,并将所有的配置文件涉及worker内存分配的配置改为一致,然后成功

你可能感兴趣的:(大数据)