spark 安装详细步骤

1、spark安装包相关连接:

链接:百度网盘 请输入提取码

提取码:wanh

2、上传到虚拟机上

3、在目录/home/hadoop/software下解压:tar -zxvf spark-1.6.2-bin-hadoop2.6.tgz

4、进入conf目录,复制文件cp spark-env.sh.template spark-env.sh

5、vim spark-env.sh 进入文件编辑 点击 i ;

添加对应的安装路径和自己的配置:

export SCALA_HOME=/home/hadoop/software/scala-2.10.4

export JAVA_HOME=/home/hadoop/software/jdk1.8.0_171

export SPARK_HOME=/home/hadoop/software/spark-1.6.2-bin-hadoop2.6

export SPARK_HadoopMaster_IP=192.168.34.50

export SPARK_EXECUTOR-MEMORY=512M

export SPARK_WORKER_MEMORY=1G

spark 安装详细步骤_第1张图片

6、cd 切换到sbin目录下使用 ./start-all.sh 命令

spark 安装详细步骤_第2张图片

jps后看到worker和Master节点

7、cd 到bin目录  使用./saprk-shell 

spark 安装详细步骤_第3张图片

看到spark界面,安装成功!

你可能感兴趣的:(spark,大数据,scala)