大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署

前言:七八九用于Spark的编程实验

大数据开源框架之基于Spark的气象数据处理与分析_木子一个Lee的博客-CSDN博客_spark舆情分析

目录

实验环境:

实验步骤:

一、解压

二、配置环境变量: 

三、修改配置文件 

1.修改spark-env.sh配置文件:

2.修改配置文件slaves:

3.分发配置文件:

四、测试:

五、网页测试:

 六、解决能启动Spark Shell但是报错:

七、安装python3.6

八、Jupyter Notebook

1.安装pip

2.安装jupyter

3.配置环境变量

4.创建Jupyter默认配置文件 

5.启动和测试

九、Pip安装matplotlib


实验环境:

操作系统:Ubuntu 18.04

Python:3.6.9

Spark版本:2.4.0

实验步骤:

一、解压

tar -zxf ./spark-2.4.0-bin-without-hadoop.tgz -C /usr/local

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第1张图片

修改文件名字

mv spark-2.4.0-bin-without-hadoop spark

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第2张图片

二、配置环境变量: 

vim /etc/profile

 添加:

export SPARK_HOME=/usr/local/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第3张图片

三、修改配置文件 

1.修改spark-env.sh配置文件:

cd /usr/local/spark/conf
cp spark-env.sh.template spark-env.sh:

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第4张图片

添加(最后一项不添加也行):

export JAVA_HOME=/usr/local/jdk

export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)

export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop

export SPARK_MASTER_HOST=master

export SPARK_MAETER_PORT=7070

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第5张图片

#spark默认web访问端口为8080,为了防止冲突,可以修改(不改也行)

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第6张图片

2.修改配置文件slaves:

cp slaves.template slaves

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第7张图片

添加slave1和slave2: 

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第8张图片

3.分发配置文件:

scp -r /usr/local/spark root@slave1:/usr/local/
scp -r /usr/local/spark root@slave2:/usr/local/

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第9张图片

四、测试:

先启动hadoop

start-dfs.sh
start-yarn.sh

 再启动spark:

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第10张图片

启动spark master节点:

start-master.sh

启动spark所有slave节点:

start-slaves.sh

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第11张图片

Jps:

master节点:

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第12张图片

slaves:

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第13张图片

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第14张图片

五、网页测试:

在master浏览器打开

​http://master:8080​

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第15张图片

Spark的关闭:

关闭Master节点

stop-master.sh

关闭Worker节点

sbin/stop-slaves.sh

关闭Hadoop集群

stop-dfs.sh
stop-yarn.sh

 测试自带样例:

./run-example sparkPi 2>&1|grep "Pi is"

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第16张图片

六、解决能启动Spark Shell但是报错:

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第17张图片

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第18张图片

解决:

vim /etc/profile

添加:

export TERM=xterm-color

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第19张图片

刷新环境变量: 

source /etc/profile

重新启动即可

shark-shell

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第20张图片

七、安装python3.6

apt-get install python3.6-tk

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第21张图片

查看版本:

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第22张图片

八、Jupyter Notebook

1.安装pip

apt-get install -y python3-pip

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第23张图片

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第24张图片

更新pip:

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第25张图片

2.安装jupyter

python3 - pip install jupyter

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第26张图片

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第27张图片

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第28张图片

3.配置环境变量

vim /etc/profile

添加如下代码 

export PATH=$PATH:~/.local/bin

退出编辑并执行

source /etc/profile

4.创建Jupyter默认配置文件 

jupyter notebook --generate-config

生成SHA1加密的密钥,保存密钥,如''argon2:$argon2idXXX''

ipython
from notebook.auth import passwd

下面命令需要自己自定义一个密码: 

passwd()
exit()

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第29张图片

 把这个argon2字符串复制粘贴到一个文件中保存起来,后面用于配置密码。(每个人都不一样!!!)

'argon2:$argon2id$v=19$m=10240,t=10,p=8$0o4PUoInp4ez5ieMPdBn4Q$PzBU/k+PjTRNXnDnZYXXvE9MB/AR5dTLwwZfdZCo1io'(每个人都不一样!!!)

设置密钥,修改配置文件

执行 

vim /root/.jupyter/jupyter_notebook_config.py

添加:

c.NotebookApp.ip='*'                     # 就是设置所有ip皆可访问
c.NotebookApp.password = 'argon2:$argon2id$v=19$m=10240,t=10,p=8$0o4PUoInp4ez5ieMPdBn4Q$PzBU/k+PjTRNXnDnZYXXvE9MB/AR5dTLwwZfdZCo1io'
     # 上面复制的那个argon2密文'
c.NotebookApp.open_browser = False       # 禁止自动打开浏览器
c.NotebookApp.port =8888              # 端口

需要注意的是,在配置文件中,c.NotebookApp.password的值,就是刚才前面生成以后保存到文件中的sha1密文。另外,c.NotebookApp.notebook_dir = '/home/hadoop/jupyternotebook' 这行用于设置Notebook启动进入的目录,由于该目录还不存在,所以需要在终端中执行如下命令创建:

mkdir -p /home/hadoop/jupyternotebook

5.启动和测试

jupyter notebook

报错:

绕过root用户运行:

jupyter notebook --allow-root

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第30张图片

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第31张图片

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第32张图片

测试:

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第33张图片

以上步骤参考:Ubuntu 安装jupyter notebook - Leon_梁远 - 博客园 (cnblogs.com)

可以首先安装Anaconda,然后再配置Jupyter Notebook

使用Jupyter Notebook调试PySpark程序_厦大数据库实验室博客 (xmu.edu.cn)

九、Pip安装matplotlib

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第34张图片

这个会报错:

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第35张图片

可以用

​​​​​​​apt-get install python3-matplotlib

大数据开源框架环境搭建(七)——Spark完全分布式集群的安装部署_第36张图片

配置完成 

你可能感兴趣的:(大数据开源,教程分享,大数据,spark,分布式)