1. 指定一个安装的目录 /usr/local/自己的名字(mkdir cdhong、rm -rf *)
[root@cdhong01 ~]# cd /usr/local/
[root@cdhong01 local]# rm -rf *
[root@cdhong01 local]# mkdir cdhong
[root@cdhong01 local]# cd cdhong/
[root@cdhong01 cdhong]# pwd
/usr/local/cdhong
2. 通过模拟终端工具 MobaXterm 把 jdk,hadoop,hive,mysql,sqoop
通过模拟终端左侧菜单把安装包上传到指定目录
[root@cdhong01 cdhong]# ll
总用量 386268
-rw-r--r--. 1 root root 214092195 3月 14 09:14 hadoop-2.7.3.tar.gz
-rw-r--r--. 1 root root 181442359 3月 14 09:14 jdk-8u111-linux-x64.tar.gz
3. 安装JDK和Hadoop(三部曲:解压、重命名、配置环境变量)
# 解压指定压缩文件到当前目录
[root@cdhong01 cdhong]# tar -zxvf jdk-8u111-linux-x64.tar.gz
[root@cdhong01 cdhong]# tar -zxvf hadoop-2.7.3.tar.gz
# 把复杂的名字重命名为一个简单的名,方面后面配置
[root@cdhong01 cdhong]# mv hadoop-2.7.3 hadoop
[root@cdhong01 cdhong]# mv jdk1.8.0_111/ jdk
# 删除源码包,方便后面的远程拷贝,提高速度
[root@cdhong01 cdhong]# rm -rf *.gz
# 配置环境变量-修改文件(/root/.bash_profile | /etc/profile)
[root@cdhong01 cdhong]# vim /root/.bash_profile
export JAVA_HOME=/usr/local/cdhong/jdk
export HADOOP_HOME=/usr/local/cdhong/hadoop
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
# 手动加载刚才的配置文件,使其生效
[root@cdhong01 cdhong]# source /root/.bash_profile
# 测试Java和Hadoop的配置对不对
[root@cdhong01 cdhong]# java -version
java version "1.8.0_111"
[root@cdhong01 cdhong]# hadoop version
Hadoop 2.7.3
4. 修改Hadoop相关的配置
# 定位到Hadoop的配置文件目录 /usr/local/自己的名字/hadoop/etc/hadoop
[root@cdhong01 cdhong]# pwd
/usr/local/cdhong
[root@cdhong01 cdhong]# cd hadoop/etc/hadoop/
[root@cdhong01 hadoop]# pwd
/usr/local/cdhong/hadoop/etc/hadoop
# 修改三个xxx-env.sh(yarn,mapred,hadoop) JAVA_HOME的真实地址
[root@cdhong01 hadoop]# vim hadoop-env.sh
export JAVA_HOME=/usr/local/cdhong/jdk
[root@cdhong01 hadoop]# vim mapred-env.sh
export JAVA_HOME=/usr/local/cdhong/jdk
[root@cdhong01 hadoop]# vim yarn-env.sh
export JAVA_HOME=/usr/local/cdhong/jdk
# 修改 core-site.xml 配置文件
[root@cdhong01 hadoop]# vim core-site.xml
# 修改 hdfs-site.xml 配置文件
[root@cdhong01 hadoop]# vim hdfs-site.xml
# 修改 mapred-site.xml 配置文件 由于默认并没有提供该文件,需要拷贝一份,进行改名
[root@cdhong01 hadoop]# cp mapred-site.xml.template mapred-site.xml
[root@cdhong01 hadoop]# vim mapred-site.xml
# 修改 yarn-site.xml 配置文件
[root@cdhong01 hadoop]# vim yarn-site.xml
# 修改 slaves 配置文件
[root@cdhong01 hadoop]# vim slaves
cdhong01
cdhong02
cdhong03
5. 远程分发把当前搭建好的节点信息发送个另外两台机器(映射、SSH免密登陆、scp)
# 配置映射 (3台机器都要做)
[root@cdhong01 hadoop]# vim /etc/hosts
192.168.197.131 cdhong01
192.168.197.132 cdhong02
192.168.197.133 cdhong03
# 免密登陆 (3台机器都要做)
[root@cdhong01 hadoop]# ssh-keygen (后面直接4次回车)
[root@cdhong01 hadoop]# ssh-copy-id cdhong01 (第一次写yes 回车 ,第二次输入密码 root)
[root@cdhong01 hadoop]# ssh-copy-id cdhong02
[root@cdhong01 hadoop]# ssh-copy-id cdhong03
# 远程分发 (jdk、hadoop、/root/.bash_profile)
### 回退到安装目录 /usr/local
[root@cdhong01 hadoop]# cd /usr/local/
[root@cdhong01 local]# scp -r cdhong/ cdhong02:/usr/local/
[root@cdhong01 local]# scp -r cdhong/ cdhong03:/usr/local/
[root@cdhong01 local]# scp /root/.bash_profile cdhong02:/root
[root@cdhong01 local]# scp /root/.bash_profile cdhong03:/root
# 检查第二台机器是否同步了
[root@cdhong02 cdhong]# cat /root/.bash_profile
6. 格式化操作(任意选择一台机器,不过建议使用第一台)
[root@cdhong01 local]# hdfs namenode -format
22/03/14 11:31:47 INFO common.Storage: Storage directory /usr/local/cdhong/hadoop/data/tmp/dfs/name has been successfully formatted.
7. 启动
[root@cdhong01 local]# start-all.sh
[root@cdhong01 bin]# jps
18112 NodeManager
18147 Jps
17686 DataNode
17594 NameNode
17852 SecondaryNameNode
18015 ResourceManager
8. 完成测试(关闭防火墙,设置为开机禁用)
# 关闭防火墙
[root@cdhong01 bin]# systemctl stop firewalld
# 设置为开机禁用
[root@cdhong01 bin]# systemctl disable firewalld
测试HDFS: 192.168.197.131:50070
测试YARN: 192.168.197.131:8088