Spark集群安装-基于hadoop集群

文章目录

  • hadoop集群
  • 下载
  • 环境配置
  • 集群配置
  • 测试

Spark集群安装-基于hadoop集群_第1张图片

hadoop集群


参考使用docker部署hadoop集群-手把手复现

下载


  1. 首先查看hadoop版本
    hadoop version
    Spark集群安装-基于hadoop集群_第2张图片
  2. 下载spark
    Spark集群安装-基于hadoop集群_第3张图片
    Spark集群安装-基于hadoop集群_第4张图片
cd /usr/local
#yum -y install wget
wget https://mirrors.bfsu.edu.cn/apache/spark/spark-3.1.1/spark-3.1.1-bin-hadoop3.2.tgz
tar -zxvf spark-3.1.1-bin-hadoop3.2.tgz
mv spark-3.1.1-bin-hadoop3.2 spark

Spark集群安装-基于hadoop集群_第5张图片

环境配置


vi /etc/profile
export SPARK_HOME=/usr/local/spark
export PATH=...:$SPARK_HOME/bin:$SPARK_HOME/sbin
source /etc/profile

在这里插入图片描述
spark-env.sh

cd /usr/local/spark/conf
cp spark-env.sh.template spark-env.sh
vi spark-env.sh
export JAVA_HOME=/usr/local/jdk1.8
export SPARK_MASTER_IP=172.18.0.2
export SPARK_WORKER_MEMORY=8g
export SPARK_WORKER_CORES=4
export SPARK_EXECUTOR_MEMORY=4g
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/jdk1.8/jre/lib/aarch64

插播反爬信息 )博主CSDN地址:https://wzlodq.blog.csdn.net/

Spark集群安装-基于hadoop集群_第6张图片
Spark集群安装-基于hadoop集群_第7张图片

集群配置


cd /usr/local/spark/conf
cp workers.template workers
vi workers
#添加从节点:
hadoop2
hadoop3

在这里插入图片描述
Spark集群安装-基于hadoop集群_第8张图片
将主节点配置同步给从节点

scp -r /usr/local/spark/ hadoop2:/usr/local/
scp -r /usr/local/spark/ hadoop3:/usr/local/

测试


#记得先启动hadoop集群
#/usr/local/hadoop/sbin/./start-all.sh
cd /usr/local/spark/sbin #切到spark目录/sbin下
./start-all.sh
cd /usr/local/spark/bin #如果内存不够可以关闭一个从节点再试试
./run-example SparkPi 2>&1 | grep "Pi is"

Spark集群安装-基于hadoop集群_第9张图片

cd /usr/local/spark/bin
./spark-shell

Spark集群安装-基于hadoop集群_第10张图片

开启防火墙端口8088并映射转发到docker容器

#exit #退出docker容器
systemctl start firewalld
firewall-cmd --add-port=8080/tcp --permanent #开启8080端口
firewall-cmd --add-forward-port=port=8080:proto=tcp:toaddr=172.18.0.2:toport=8080 --permanent
firewall-cmd --add-masquerade --permanent #端口映射
firewall-cmd --reload #重新加载
firewall-cmd --list-ports
# firewall-cmd --zone=public --remove-port=80/tcp --permanent 关闭8080端口

公网ip:8080
Spark集群安装-基于hadoop集群_第11张图片

原创不易,请勿转载本不富裕的访问量雪上加霜
博主首页:https://wzlodq.blog.csdn.net/
来都来了,不评论两句吗
如果文章对你有帮助,记得一键三连❤

你可能感兴趣的:(大数据,安装配置教程,spark,hadoop,docker,大数据,zookeeper)