spark安装教程

spark安装

IP

192.168.42.121

192.168.42.122

192.168.42.123

映射名

master

slave1

slave2

  1. 1.用xftp上传spark压缩包到/usr/local/src/中,解压到此目录中,

tar -zxvf spark-2.3.1-bin-hadoop2.7.tgz

spark安装教程_第1张图片

 

2.改名为spark

mv spark-2.3.1-bin-hadoop2.7 spark

3.将spark-env.sh.template配置模板文件复制一份并命名为spark-env.sh

cp spark-env.sh.template spark-env.sh

spark安装教程_第2张图片

 

4.修改spark-env.sh文件,在该文件最后位置添加以下内容:(其中的master是主机映射的IP)

#配置java环境变量

你可能感兴趣的:(大数据,spark,hadoop)