搭建单机伪分布式Hadoop+spark+scala

目录

一、准备环境包:

二、创建centos7虚拟机并配置ip

三、链接Xshell并上环境包

四、安装 JDK

1.解压jdk

2.设置 JAVA 环境变量

3.执行 source 使设置生效:

4.检查 JAVA 是否可用。

五、免密登陆

1.创建ssh秘钥,输入如下命令,生成公私密钥

2.将master公钥id_dsa复制到master进行公钥认证,实现本机免密登陆,测试完exit退出

六、安装 Hadoop 软件

1.解压hadoop

2.配置 Hadoop 环境变量

3.执行 source 使用设置生效并验证:

七、配置伪分布hadoop

1.修改/usr/local/src/hadoop/etc/hadoop/hadoop-env.sh

2.修改/usr/local/src/hadoop/etc/hadoop/core-site.xml

3.修改/usr/local/src/hadoop/etc/hadoop/hdfs-site.xml

4.重命名mapred-site.xml.template为mapred-site.xml并配置

5.修改/usr/local/src/hadoop/etc/hadoop/yarn-site.xml

6.修改/usr/local/src/hadoop/etc/hadoop/slaves

7.格式化hdfs

8.启动集群 jps查看,登录网页

9.在浏览器的地址栏输入http://master:50070,进入页面可以查看NameNode和DataNode 信息 

八、 安装伪分布式spark

1.解压spark

2.重命名spark-env.sh.template为spark-env.sh并配置

3.进入spark目录的/sbin下启动spark集群,jps查看

4.启动spark-ahell 

5.查看网页http://master:8080

八、安装伪分布式scala

1.解压Scala包

2.配置scala环境变量,重新加载配置文件,运行scala


一、准备环境包:

scala-2.11.8.tgz、spark-3.2.1-bin-hadoop2.7.tgz、hadoop-2.7.1.tar、jdk-8u152-linux-x64.tar

二、创建centos7虚拟机并配置ip

三、链接Xshell并上环境包

搭建单机伪分布式Hadoop+spark+scala_第1张图片

四、安装 JDK

1.解压jdk

[root@master ~]# tar -zxvf /opt/software/jdk-8u152-linux-x64.tar.gz -C /usr/local/src/

[root@master ~]# ls /usr/local/src/

jdk1.8.0_152

2.设置 JAVA 环境变量

[root@master ~]# vi /etc/profile

#在文档最后添加下面两行

export JAVA_HOME=/usr/local/src/jdk1.8.0_152 #注意自己的文件路径

export PATH=$PATH:$JAVA_HOME/bin

3.执行 source 使设置生效:

[root@master ~]# source /etc/profile

4.检查 JAVA 是否可用。

[root@master ~]# echo $JAVA_HOME /usr/local/src/jdk1.8.0_152

[root@master ~]# java -version

java version "1.8.0_152"

Java(TM) SE Runtime Environment (build 1.8.0_152-b16)

Java HotSpot(TM) 64-Bit Server VM (build 25.152-b16, mixed mode)

能够正常显示 Java 版本则说明 JDK 安装并配置成功。

五、免密登陆


1.创建ssh秘钥,输入如下命令,生成公私密钥

[root@master ~]# ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

2.将master公钥id_dsa复制到master进行公钥认证,实现本机免密登陆,测试完exit退出

[root@master ~]# ssh-copy-id -i /root/.ssh/id_dsa.pub master

[root@master ~]# ssh master

[root@master ~]# exit

六、安装 Hadoop 软件

1.解压hadoop

[root@master ~]# tar -zxvf /opt/software/hadoop-2.7.1.tar.gz -C /usr/local/src/

[root@master src]# ls
hadoop  jdk1.8.0_152
[root@master src]# cd
[root@master ~]# ll /usr/local/src/
total 0
drwxr-xr-x 11 hadoop hadoop 172 Apr 26 16:00 hadoop  #将hadoop-2.7.1重命名为hadoop
drwxr-xr-x  8 hadoop hadoop 255 Sep 14  2017 jdk1.8.0_152

2.配置 Hadoop 环境变量

[root@master ~]# vi /etc/profile

#在文档最后添加下面两行

export HADOOP_HOME=/usr/local/src/hadoop-2.7.1 #注意自己的文件路径

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

3.执行 source 使用设置生效并验证:

[root@master ~]# source /etc/profile

[root@master ~]# hadoop
Usage: hadoop [--config confdir] [COMMAND | CLASSNAME]
  CLASSNAME            run the class named CLASSNAME
 or
  where COMMAND is

你可能感兴趣的:(分布式,hadoop,spark)