Hadoop相关安装包上传到目录并完成安装

1. 指定一个安装的目录 /usr/local/自己的名字(mkdir cdhong、rm -rf *)
[root@cdhong01 ~]# cd /usr/local/
[root@cdhong01 local]# rm -rf *
[root@cdhong01 local]# mkdir cdhong
[root@cdhong01 local]# cd cdhong/
[root@cdhong01 cdhong]# pwd
/usr/local/cdhong

2. 通过模拟终端工具 MobaXterm 把 jdk,hadoop,hive,mysql,sqoop
通过模拟终端左侧菜单把安装包上传到指定目录
[root@cdhong01 cdhong]# ll
总用量 386268
-rw-r--r--. 1 root root 214092195 3月  14 09:14 hadoop-2.7.3.tar.gz
-rw-r--r--. 1 root root 181442359 3月  14 09:14 jdk-8u111-linux-x64.tar.gz

3. 安装JDK和Hadoop(三部曲:解压、重命名、配置环境变量)
# 解压指定压缩文件到当前目录
[root@cdhong01 cdhong]# tar -zxvf jdk-8u111-linux-x64.tar.gz
[root@cdhong01 cdhong]# tar -zxvf hadoop-2.7.3.tar.gz
# 把复杂的名字重命名为一个简单的名,方面后面配置
[root@cdhong01 cdhong]# mv hadoop-2.7.3 hadoop
[root@cdhong01 cdhong]# mv jdk1.8.0_111/ jdk
# 删除源码包,方便后面的远程拷贝,提高速度
[root@cdhong01 cdhong]# rm -rf *.gz
# 配置环境变量-修改文件(/root/.bash_profile  | /etc/profile)
[root@cdhong01 cdhong]# vim /root/.bash_profile
export JAVA_HOME=/usr/local/cdhong/jdk
export HADOOP_HOME=/usr/local/cdhong/hadoop

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

# 手动加载刚才的配置文件,使其生效
[root@cdhong01 cdhong]# source /root/.bash_profile
# 测试Java和Hadoop的配置对不对
[root@cdhong01 cdhong]# java -version
java version "1.8.0_111"

[root@cdhong01 cdhong]# hadoop version
Hadoop 2.7.3

4. 修改Hadoop相关的配置
# 定位到Hadoop的配置文件目录 /usr/local/自己的名字/hadoop/etc/hadoop 
[root@cdhong01 cdhong]# pwd
/usr/local/cdhong
[root@cdhong01 cdhong]# cd hadoop/etc/hadoop/
[root@cdhong01 hadoop]# pwd
/usr/local/cdhong/hadoop/etc/hadoop

# 修改三个xxx-env.sh(yarn,mapred,hadoop)  JAVA_HOME的真实地址
[root@cdhong01 hadoop]# vim hadoop-env.sh
export JAVA_HOME=/usr/local/cdhong/jdk

[root@cdhong01 hadoop]# vim mapred-env.sh
export JAVA_HOME=/usr/local/cdhong/jdk

[root@cdhong01 hadoop]# vim yarn-env.sh
export JAVA_HOME=/usr/local/cdhong/jdk

# 修改 core-site.xml 配置文件
[root@cdhong01 hadoop]# vim core-site.xml

 
 
    fs.defaultFS
    hdfs://cdhong01:8020
 

 
 
    hadoop.tmp.dir
    /usr/local/cdhong/hadoop/data/tmp
 

# 修改 hdfs-site.xml 配置文件 
[root@cdhong01 hadoop]# vim hdfs-site.xml

 
 
    dfs.namenode.secondary.http-address
    cdhong01:50090
 

# 修改 mapred-site.xml 配置文件 由于默认并没有提供该文件,需要拷贝一份,进行改名
[root@cdhong01 hadoop]# cp mapred-site.xml.template mapred-site.xml
[root@cdhong01 hadoop]# vim mapred-site.xml

 
 
    mapreduce.framework.name
    yarn
 

 
 
    mapreduce.jobhistory.address
    cdhong01:10020
 

 
 
    mapreduce.jobhistory.webapp.address
    cdhong01:19888
 

# 修改 yarn-site.xml 配置文件 
[root@cdhong01 hadoop]# vim yarn-site.xml

 
 
    yarn.nodemanager.aux-services
    mapreduce_shuffle
 

 
    yarn.resourcemanager.hostname
   
    cdhong01
 

     
 
    yarn.log-aggregation-enable
    true
 

 
 
    yarn.log-aggregation.retain-seconds
    604800
 

# 修改 slaves 配置文件 
[root@cdhong01 hadoop]# vim slaves
cdhong01
cdhong02
cdhong03

5. 远程分发把当前搭建好的节点信息发送个另外两台机器(映射、SSH免密登陆、scp)
# 配置映射 (3台机器都要做) 
[root@cdhong01 hadoop]# vim /etc/hosts
192.168.197.131 cdhong01
192.168.197.132 cdhong02
192.168.197.133 cdhong03

# 免密登陆 (3台机器都要做)
[root@cdhong01 hadoop]# ssh-keygen    (后面直接4次回车)

[root@cdhong01 hadoop]# ssh-copy-id cdhong01   (第一次写yes 回车 ,第二次输入密码 root)
[root@cdhong01 hadoop]# ssh-copy-id cdhong02
[root@cdhong01 hadoop]# ssh-copy-id cdhong03

# 远程分发  (jdk、hadoop、/root/.bash_profile)
### 回退到安装目录 /usr/local 
[root@cdhong01 hadoop]# cd /usr/local/
[root@cdhong01 local]# scp -r cdhong/  cdhong02:/usr/local/
[root@cdhong01 local]# scp -r cdhong/  cdhong03:/usr/local/

[root@cdhong01 local]# scp /root/.bash_profile cdhong02:/root
[root@cdhong01 local]# scp /root/.bash_profile cdhong03:/root

# 检查第二台机器是否同步了
[root@cdhong02 cdhong]# cat /root/.bash_profile

6. 格式化操作(任意选择一台机器,不过建议使用第一台)
[root@cdhong01 local]# hdfs namenode -format
22/03/14 11:31:47 INFO common.Storage: Storage directory /usr/local/cdhong/hadoop/data/tmp/dfs/name has been successfully formatted.

7. 启动
[root@cdhong01 local]# start-all.sh
[root@cdhong01 bin]# jps
18112 NodeManager
18147 Jps
17686 DataNode
17594 NameNode
17852 SecondaryNameNode
18015 ResourceManager

8. 完成测试(关闭防火墙,设置为开机禁用)
# 关闭防火墙
[root@cdhong01 bin]# systemctl stop firewalld
# 设置为开机禁用
[root@cdhong01 bin]# systemctl disable firewalld

测试HDFS:   192.168.197.131:50070
测试YARN:   192.168.197.131:8088Hadoop相关安装包上传到目录并完成安装_第1张图片

Hadoop相关安装包上传到目录并完成安装_第2张图片 

Hadoop相关安装包上传到目录并完成安装_第3张图片 

Hadoop相关安装包上传到目录并完成安装_第4张图片 

Hadoop相关安装包上传到目录并完成安装_第5张图片 

Hadoop相关安装包上传到目录并完成安装_第6张图片 

Hadoop相关安装包上传到目录并完成安装_第7张图片 

Hadoop相关安装包上传到目录并完成安装_第8张图片 

Hadoop相关安装包上传到目录并完成安装_第9张图片 

 

你可能感兴趣的:(数据仓库)