Spark 集群搭建

前提条件:

1.虚拟机3台【master, node1, node2 】

2.安装好JDK

3.安装好Hadoop

spark 集群搭建步骤

1.安装Scala

==============================================

到官网下载Hadoop 对应版本的Scala 我的是Hadoop2.2.0的版本 对应的Scala 如图


Spark 集群搭建_第1张图片
Scala

解压 tar  -zxvf ***************

在、/etc/profile 文件添加路径 然后source /etc/profile


添加的类容

2。安装spark

下载Hadoop 所对应的版本

我的是Hadoop 2.2.0 所以安装的是spark2.0.0的


Spark 集群搭建_第2张图片
spark

解压 tar  -zxvf ***************

在、/etc/profile 文件添加路径 然后source /etc/profile


添加的类容

修改spark/conf的文件


Spark 集群搭建_第3张图片
这是经过修改好的 第一次安装不是这样的

在slaves 文件添加你的数据节点 node1 node2

在spark-env.sh 添加以下


Spark 集群搭建_第4张图片
够详细了吧

分发到每个数据节点上

scp -r /home/app/spark/ slave1:/home/app/spark

修改每个节点的/etc/profile文件 在后source  /etc/profile

之后在每个节点执行 spark-shell 测试一下是否安装成功

然后用web 访问spark集群 在地址栏输入 http://master:4040 [master 是主节点的主机名,也可以是你主节点的ip 只要你修改hostname 为master 也是可以的

看图吧 骚年们

ps 要想查看集群spark 先在主节点执行spark-shell 知道吗 先执行spark-shell

Spark 集群搭建_第5张图片
spark 搞起啊


Spark 集群搭建_第6张图片
executors

你可能感兴趣的:(Spark 集群搭建)