Ubuntu18.04安装spark2.4.5

Ubuntu18.04安装spark

      • 下载压缩包
      • 配置spark
      • 运行并测试spark

系统:Ubuntu18.04
java-verison:1.8
hadoop-version:2.x.x
spark-version:2.4.5

安装spark前必须安装hadoop并配置环境变量,若没进行按照或相关配置请查看:https://blog.csdn.net/LeeGe666/article/details/106050962

下载压缩包

网址输入:
http://spark.apache.org/downloads.html
选择2.4.5版本的
再选择第四个(hadoop和配置有scala)
Ubuntu18.04安装spark2.4.5_第1张图片
点击第3步下载即可,下载的文件在用户Downloads文件夹下。

配置spark

解压spark压缩包

sudo tar -zxf ~/Downloads/spark-2.4.5-bin-without-hadoop-scala-2.12.tgz -C /usr/local/

到local目录下:

cd /usr/local

hadoop也是安装在这个目录下的
更换文件夹名称

sudo mv ./spark-2.4.5-bin-without-hadoop-scala-2.12/ ./spark

将hadoop文件夹权限赋予hadoop用户:

sudo chown -R hadoop:hadoop ./spark

下面修改spark的classpath:
先进入spark目录:

cd spark

拷贝配置文件:

cp ./conf/spark-env.sh.template ./conf/spark-env.sh

vim编辑此文件spark-env.sh

vi conf/spark-env.sh

在文件第一行加入:

export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)

Ubuntu18.04安装spark2.4.5_第2张图片

保存并退出。

运行并测试spark

在/usr/local/spark目录下进行
运行实例(计算Pi近似数):

./bin/run-example SparkPi 2>&1 |grep "Pi is"

在这里插入图片描述
运行spark-shell:

./bin/spark-shell

Ubuntu18.04安装spark2.4.5_第3张图片
在scala中输入某一计算式测试:``

2+5*3

在这里插入图片描述

在浏览器输入(改成自己的ip即可)进入前端面板:
Ubuntu18.04安装spark2.4.5_第4张图片
http://192.168.230.136:4040/
Ubuntu18.04安装spark2.4.5_第5张图片
spark安装成功

你可能感兴趣的:(hadoop)