安装Linux以及搭建Hadoop3.1.2集群(4)——安装JDK1.8以及hadoop3.1.2

第五章:安装JDK1.8以及hadoop3.1.2

5.1在/opt目录下创建文件夹

(1)在/opt目录下创建module、software文件夹

sudo mkdir module
sudo mkdir software

(2)修改module、software文件夹的所有者cd

sudo chown zpark:zpark module/ software/

在这里插入图片描述

5.2 安装JDK

  1. 卸载现有JDK
  2. (1)查询是否安装Java软件:
 [zpark@hadoop104 opt]$ rpm -qa | grep java 

(2)如果安装的版本低于1.7,卸载该JDK:

 [zpark@hadoop104 opt]$ sudo rpm -e 软件包

(3)查看JDK安装路径:

  [zpark@hadoop104 ~]$ which java
  1. 安装mobaxterm,用mobaxterm工具将JDK导入到opt目录下面的software文件夹下面,安装全部下一步即可
https://.mobatek.net/download.html
  1. 选择jdk1.8和hadoop3.1.2拖入: 安装Linux以及搭建Hadoop3.1.2集群(4)——安装JDK1.8以及hadoop3.1.2_第1张图片
  2. 在Linux系统下的opt目录中查看软件包是否导入成功
[zpark@hadoop104 opt]$ cd software/
[zpark@hadoop104 software]$ ls 

`在这里插入图片描述
6. 解压JDK到/opt/module目录下

[zpark@hadoop104 software]$ tar -zxvf jdk-8u181-linux-x64.tar.gz -C /opt/module
  1. 配置JDK环境变量
    (1)先获取JDK路径
 [zpark@hadoop104 jdk1.8.0_181]$ pwd /opt/module/jdk1.8.0_181 	

(2)打开/etc/profile文件

[zpark@hadoop104 software]$ sudo vi /etc/profile

在profile文件末尾添加JDK路径

#JAVA_HOME 
export JAVA_HOME=/opt/module/jdk1.8.0_181 
export PATH=$PATH:$JAVA_HOME/bin   	

(3)保存后退出 :wq
(4)让修改后的文件生效

[zpark@hadoop104 jdk1.8.0_181]$ source /etc/profile
  1. 测试JDK是否安装成功
[zpark@hadoop104 jdk1.8.0_181]# java -version 
java version "1.8.0_181"

注意:重启(如果java -version可以用就不用重启)

[zpark@hadoop104 jdk1.8.0_181]$ sync 
[zpark@hadoop104 jdk1.8.0_181]$ sudo reboot

5.3安装Hadoop

Hadoop下载地址:

https://archive.apache.org/dist/hadoop/common/hadoop-3.1.2/

用mobaxterm工具将hadoop-3.1.2.tar.gz导入到opt目录下面的software文件夹下面,进入到Hadoop安装包路径下

 [zpark@hadoop104 ~]$ cd /opt/software/

解压安装文件到/opt/module下面

[zpark@hadoop104 software]$ tar -zxvf hadoop-3.1.2.tar.gz -C /opt/module/

查看是否解压成功

 [zpark@hadoop104 software]$ ls /opt/module/ hadoop-3.1.2

将Hadoop添加到环境变量
(1)获取Hadoop安装路径

 [zpark@hadoop104 hadoop-3.1.2]$ pwd /opt/module/hadoop-3.1.2 	

(2)打开/etc/profile文件

 [zpark@hadoop104 hadoop-3.1.2]$ sudo vi /etc/profile 

在profile文件末尾添加JDK路径:

##HADOOP_HOME 
export HADOOP_HOME=/opt/module/hadoop-3.1.2 
export PATH=$PATH:$HADOOP_HOME/bin 
export PATH=$PATH:$HADOOP_HOME/sbin 

(3)保存后退出 :wq
(4)让修改后的文件生效

 [zpark@hadoop104 hadoop-3.1.2]$ source /etc/profile

测试是否安装成功

[zpark@hadoop104 hadoop-3.1.2]$ hadoop version 
Hadoop 3.1.2

重启(如果Hadoop命令不能用再重启)

[zpark@hadoop104 hadoop-3.1.2]$ sync
[zpark@hadoop104 hadoop-3.1.2]$ sudo reboot

Hadoop目录结构
1、查看Hadoop目录结构

[zpark@hadoop104 hadoop-3.1.2]$ ll
总用量 52
drwxr-xr-x. 2 zhangyong zhangyong  4096 522 2017 bin
drwxr-xr-x. 3 zhangyong zhangyong  4096 522 2017 etc
drwxr-xr-x. 2 zhangyong zhangyong  4096 522 2017 include
drwxr-xr-x. 3 zhangyong zhangyong  4096 522 2017 lib
drwxr-xr-x. 2 zhangyong zhangyong  4096 522 2017 libexec
-rw-r--r--. 1 zhangyong zhangyong 15429 522 2017 LICENSE.txt
-rw-r--r--. 1 zhangyong zhangyong   101 522 2017 NOTICE.txt
-rw-r--r--. 1 zhangyong zhangyong  1366 522 2017 README.txt
drwxr-xr-x. 2 zhangyong zhangyong  4096 522 2017 sbin
drwxr-xr-x. 4 zhangyong zhangyong  4096 522 2017 share

2、重要目录
(1)bin目录:存放对Hadoop相关服务(HDFS,YARN)进行操作的脚本
(2)etc目录:Hadoop的配置文件目录,存放Hadoop的配置文件
(3)lib目录:存放Hadoop的本地库(对数据进行压缩解压缩功能)
(4)sbin目录:存放启动或停止Hadoop相关服务的脚本
(5)share目录:存放Hadoop的依赖jar包、文档、和官方案例

你可能感兴趣的:(#,Hadoop,大数据)