基于Hadoop集群的Spark集群搭建

基于Hadoop集群的Spark集群搭建

一. 单机版Spark搭建

(1)将下载下来的软件包拉至集群中(主节点上)
基于Hadoop集群的Spark集群搭建_第1张图片
(2)解压至指定目录
基于Hadoop集群的Spark集群搭建_第2张图片
(3)将解压下的文件移至某个特定目录下并查看
基于Hadoop集群的Spark集群搭建_第3张图片
(4)修改环境变量
在这里插入图片描述
(5)使环境变量生效并进入scala命令行测试;
基于Hadoop集群的Spark集群搭建_第4张图片
(6)解压scala压缩包并放置指定目录;
基于Hadoop集群的Spark集群搭建_第5张图片
(7)添加环境变量
在这里插入图片描述
(8)生效环境变量并测试spark(source .bash_profile)
基于Hadoop集群的Spark集群搭建_第6张图片
(9)单机版网页spark测试(主机地址为你当前虚拟机地址,在启动spark的时候你可以看到)
基于Hadoop集群的Spark集群搭建_第7张图片
二. 集群版Spark搭建

(1)修改spark配置文件(注意目录)
基于Hadoop集群的Spark集群搭建_第8张图片
(2)修改配置文件(加入你集群的主机名)
基于Hadoop集群的Spark集群搭建_第9张图片
(3)生成配置文件并修改配置文件(jdk为你本机安装位置)
在这里插入图片描述
基于Hadoop集群的Spark集群搭建_第10张图片
(4)向集群中其他主机发送
基于Hadoop集群的Spark集群搭建_第11张图片
(5)启动Hadoop集群(start-all.sh),启动spark集群(在spark目录下的sbin目录下启动)(主节点启动有Master,从节点为Worker)
基于Hadoop集群的Spark集群搭建_第12张图片基于Hadoop集群的Spark集群搭建_第13张图片
(6)查看端口
基于Hadoop集群的Spark集群搭建_第14张图片
三. 访问方式
(1)添加本地映射端口localhost+8080的方式访问
基于Hadoop集群的Spark集群搭建_第15张图片
基于Hadoop集群的Spark集群搭建_第16张图片
基于Hadoop集群的Spark集群搭建_第17张图片
基于Hadoop集群的Spark集群搭建_第18张图片
(2)通过主节点IP地址+端口号进入Web端页面查看
基于Hadoop集群的Spark集群搭建_第19张图片
至此,Spark集群搭建完毕。

四. 运行wordcounut程序
(1)在Hadoop集群中放置所需要的.txt文件
基于Hadoop集群的Spark集群搭建_第20张图片
(2)执行命令spark-shell进入命令端后执行命令如下
在这里插入图片描述
至此,wordcount程序执行成功。

  • 参考资源:https://www.cnblogs.com/zyrblog/p/8527048.html https://www.cnblogs.com/swordfall/p/7903678.html

你可能感兴趣的:(Linux)