Spark环境搭建与安装

1.在私有云上创建三个虚拟机

Spark环境搭建与安装_第1张图片

2. 在Secure CRT上登录并且连接三个虚拟机

Spark环境搭建与安装_第2张图片

3.连接并且登录master虚拟机,在master上通过yum -y install vim命令安装vim编辑器

Spark环境搭建与安装_第3张图片

4.通过命令vi/etc/resolv.conf修改/etc/resolv.conf文件进入,添加2个域名服务器 地址,并添加虚拟机ip和主机命映射,在存盘退出,slave1丶2同理

Spark环境搭建与安装_第4张图片

Spark环境搭建与安装_第5张图片

 5.关闭和禁用防火墙,slave1和slave2一样

Spark环境搭建与安装_第6张图片

 6.在master上关闭Selinux安全机制

Spark环境搭建与安装_第7张图片

 7.在master,slave1  slave2上安装lrzsz传输工具,命令 yum -y install lrzsz

Spark环境搭建与安装_第8张图片

8.在master和其他2台虚拟机上面安装JDK

Spark环境搭建与安装_第9张图片

 9.输入命令tar -zxvf jdk-8u231-linux-x64.tar.gz -C /usr/local,解压JDK 

Spark环境搭建与安装_第10张图片

 执行ls /usr/local,查看解压完成后的JDK

Spark环境搭建与安装_第11张图片

 10.输入vim /etc/profile进入文件配置环境变量,然后存盘退出输入source/etc/profile让配置文件生效

Spark环境搭建与安装_第12张图片

 JAVA_HOME=/usr/local/jdk1.8.0_231
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
PATH=$JAVA_HOME/bin:$PATH
export JAVA_HOME PATH CLASSPATH

11.查看JDK的版本

Spark环境搭建与安装_第13张图片

 12.配置完全Hadoop,vim core-site.xml,vim hdfs-site.xml ,vim mared-site.xml ,vim yarn-site.xml完成后存盘并且退出

Spark环境搭建与安装_第14张图片

Spark环境搭建与安装_第15张图片

Spark环境搭建与安装_第16张图片

Spark环境搭建与安装_第17张图片

 

13.编辑slave文件 执行vim slaves,存盘并退出

 Spark环境搭建与安装_第18张图片

14.启动hdfs服务,执行jps命令查看进程

Spark环境搭建与安装_第19张图片

 Spark环境搭建与安装_第20张图片

查看slave1和2的进程只有namemanger,datanode 

Spark环境搭建与安装_第21张图片

 Spark环境搭建与安装_第22张图片

15.查看Hadoop的web ui界面

不能通过master加端口50070端口的方法,因为没有在hosts文件里IP和主机名映射,需要在hosts中添加后即可

Spark环境搭建与安装_第23张图片

 

Spark环境搭建与安装_第24张图片

Spark环境搭建与安装_第25张图片

你可能感兴趣的:(linux)