在Centos7上安装Spark的完整配置流程

在安装好Hadoop环境后,我们可以再安装Spark并运行集群。这其中有不少需要注意的地方,特别是配置信息比较多,而网上的介绍和书上的说明都有一定的缺失。本文把完整安装的流程步骤进行小结,帮助大家少走弯路。如果还未安装hadoop,请看我另一篇Hadoop完整安装配置流程的文章。

第一步:下载安装包并解压

在Linux系统中,使用浏览器前往Spark官网

http://spark.apache.org/downloads.html。首先,选择比较稳定的版本2.4.8,再选择Pre-built with user-provided Apache Hadoop。然后点击下载spark-2.4.8-bin-without-hadoop.tgz文件。通常,下载文件会存在固定的网页下载文件夹里。


下载完成后,可以通过图形界面或是命令行进入下载文件夹,将

spark-2.4.8-bin-without-hadoop.tgz文件复制到特定的软件包文件夹比如/opt/softwares,如果没有这个文件夹,可以新建一个,以后用来存放软件安装包。另外,在opt文件夹内再建立一个modules文件夹,用来存放解压后的spark文件夹。

接下来,在softwares文件夹内,通过输入命令来解压到/opt/modules中:

tar -zxvf spark-2.4.8-bin-without-hadoop.tgz -C /opt/modules

命令执行后,/opt/modules文件夹内会出现解压的文件夹 spark-2.4.8-bin-without-hadoop,然后使用命令来设置该文件夹的权限:

chmod -R a+w /opt

第二步:配置spark环境

这步非常关键,很多资料都没有完整地介绍如何配置,我在下方列出了配置流程。这里假设我们已经安装了5台centos7系统的虚拟机,分别为centos03,centos04,centos05,centos06,centos07。

配置slaves 文件

首先,进入spark-2.4.8-bin-without-hadoop文件夹内的conf文件夹。然后复制slaves模板slaves.template 为 slaves。命令为:

cp slaves.template slaves

然后,修改slaves文件中的内容,修改为:

这里我们设master为centos03,其他四台为worker。

配置spark-env.sh文件

同样,在conf文件夹中,复制spark-env.sh.template文件来创建我们的spark-env.sh文件。该文件详细配置了Spark的环境参数。首先,执行以下命令进行复制:

cp spark-env.sh.template spark-env.sh

然后使用vim spark-env.sh命令打开该文件,编辑添加下列内容。

配置解释如下:

JAVA_HOME是该虚拟机上JDK的地址

SPARK_MASTER_IP是该虚拟机设置的静态IP地址

SPARK_MASTER_PORT是master的访问端口

HADOOP_CONF_DIR是该虚拟机上Hadoop配置文件的位置

HADOOP_HOME是该虚拟机上HADOOP安装地址

SPARK_DIST_CLASSPATH是spark寻找hadoop class path的地址

LD_LIBRARY_PATH是动态链接库的安装路径

配置/etc/profile文件

然后,我们需要配置/etc/profile文件。这个文件是虚拟机上所有用户共享的配置。如果想要设置单独用户或是bash环境,可以设置bashrc或bash_profile。这里只设置/etc/profile。

使用命令打开该文件:sudo vim /etc/profile

添加SPARK的安装路径,并确认文件中已经添加了动态链接的地址。配置好的文件如下:

用:wq保存退出后,执行命令:source /etc/profile来使该配置生效。然后在其他四台虚拟机上重复配置该文件。

配置yarn-site.xml文件

另外,在之后执行spark集群时可能遇到内存检测相关的报错信息,这里需要提前修改yarn-site.xml文件。

首先,进入Hadoop的配置文件夹,该文件夹在hadoop的安装目录下的.../etc/hadoop里。

vim yarn-site.xml

打开文件后添加配置如下:

yarn.nodemanager.pmem-check-enabled默认是True,用来设定是否启动一个线程检查每个任务所使用的物理内存量;

yarn.nodemanager.vmem-check-enabled默认是True,用来设定是否启动一个线程检查每个任务所使用的虚拟内存量;

这两个参数都设为false。

然后在其他四台虚拟机上重复配置该文件。

本地模式测试

至此,我们在centos03上安装配置Spark的过程已经完成了。我们可以在该虚拟机上运行本地模式的Spark。比如在spark根目录下执行以下命令来计算PI:

bin/run-example SparkPi

注意,此时我们不需要启动Spark,运行结果如下:

此外,我们也可以在本地模式上运行spark-shell,并使用scala进行计算。

在终端中执行命令bin/spark-shell,效果如下:

如果要推出spark shell可以使用:quit命令

接下来,我们需要将Spark复制安装到其他四台虚拟机上来执行Spark的Standalone模式和onyarn集群模式。

第三步,复制spark文件夹到其他虚拟机

因为,spark是免安装包,环境文件也都在文件夹内,所以我们可以直接把配置好的spark安装文件夹复制到其他虚拟机节点上。在本机centos03上执行以下命令:

scp -r /opt/modules/spark-2.4.8-bin-without-hadoop/ hadoop@centos04:/opt/modules/

scp -r /opt/modules/spark-2.4.8-bin-without-hadoop/ hadoop@centos05:/opt/modules/

scp -r /opt/modules/spark-2.4.8-bin-without-hadoop/ hadoop@centos06:/opt/modules/

scp -r /opt/modules/spark-2.4.8-bin-without-hadoop/ hadoop@centos07:/opt/modules/

这里假设每台虚拟机上都建有一个用户名为hadoop,并且都配置好了免密访问。如果还未配置可以看我另一篇Hadoop完全安装配置的文章。

第四步,测试Spark集群

首先,我们启动Hadoop集群,执行以下命令:

start-all.sh

然后使用jps命令,可以看到6行内容,说明启动成功。但注意,如果内存不足的话,其他虚拟机上的NodeManager可能不会启动。

然后在master机即centos03中的Spark安装文件夹里,执行以下命令启动Spark:

./sbin/start-all.sh

启动后,再执行jps命令,可以看到centos03出现Master,其他虚拟机中出现Worker。

然后我们可以用浏览器在网页http://10.0.0.78:8080查看Spark的Web界面,这里10.0.0.78是centos03的ip地址。可以看到一个Master和四个Worker

第五步,Standalone集群测试(独立集群管理)

我们可以用--master来设置Spark的运行模式,如果要使用Standalone模式,即使用Spark自身的集群管理器,那么就使用--masterspark://HOST:PORT来进行设置,默认端口是7077。例一:使用Standalone模式运行应用程序Jar包

在终端中输入以下命令:

bin/spark-submit

--class org.apache.spark.examples.SparkPi --master

spark://centos03:7077 examples/jars/spark-examples_2.11-2.4.8.jar

运行结果如下:

例二:使用Standalone模式运行spark-shell:

在终端中输入以下命令:

bin/spark-shell --master spark://centos03:7077

然后就可以使用spark-shell来运行scale代码。


第六步,Hadoop-Yarn集群测试

如果我们要使用YARN集群管理器,那么需要把--master 设置为yarn-cluster模型。

例一,使用ON YARN模式运行应用程序Jar包

在终端中输入以下命令:

bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn-cluster examples/jars/spark-examples_2.11-2.4.8.jar

或是

bin/spark-submit

--class org.apache.spark.examples.SparkPi --master yarn deploy-mode

cluster examples/jars/spark-examples_2.11-2.4.8.jar

运行结果如下:


用浏览器打开网址

http://centos03:8088/proxy/application_1624426417523_0001/,再点击Logs,再点击stdout,可以看到结果如下:

例二:使用ON YARN模式运行spark-shell:

在终端中输入以下命令:

bin/spark-shell --master yarn

然后就可以使用spark-shell来运行scale代码。

到此,Spark的安装和初始配置都完成了,也进行了三种模式的测试。大家熟悉后可以自己探索更多的配置和使用方法!

你可能感兴趣的:(在Centos7上安装Spark的完整配置流程)