1.下载hadoop zookeeper-3.4.7.tar
上传到 /home底下
2.tar -zxvf zookeeper-3.4.7.tar
3.配置 hadoop环境变量
vim /etc/profile
因为hadoop依赖java环境 必须先配置JAVA_HOME
加入环境变量
export HADOOP_HOME=/home/hadoop-2.7.1/
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
4.添加hadoop 数据存储目录
cd /home/hadoop-2.7.1/
mkdir tmp
cd tmp
mkdir data
mkdir journal
mkdir name
5.配置hadoop集群的配置文件
1> 配置hadoop环境变量
cd /home/hadoop-2.7.1/etc/hadoop
vim hadoop-env.sh
export JAVA_HOME=/home/jdk1.8.0_131
:wq
2>配置hadoop核心的配置 core.site.xml
3>配置hadoop hdfs数据存储方式 hdfs-site.xml
4>配置mapred mapred-site.xml
cp mapred-site.xml.template mapred-site.xml
5>配置yarn yarn-site.xml
6>配置数据解读 salves
vim salves
hadoop3
hadoop4
hadoop5
7.scp 到 其他4台服务器上
scp -r hadoop-2.7.1 root@hadoop2:/home
scp -r hadoop-2.7.1 root@hadoop3:/home
scp -r hadoop-2.7.1 root@hadoop4:/home
scp -r hadoop-2.7.1 root@hadoop5:/home
8.统一在5台机器上启动 zk
cd /home/zookeeper-3.4.7/bin
./zkServer.sh start
9.启动jn journalnode 节点
cd /home/hadoop-2.7.1/sbin
./hadoop-daemons.sh start journalnode [注意是daemons sss]
10.首次启动 格式化干干净净一下 后期启动千万千万不要执行这些命令
hdfs zkfc -formatZK
hadoop namenode -fromat
11.启动namenode 有两台 分别启动
hadoop1: hadoop-daemon.sh start namenode
hadoop2:
hdfs namenode -bootstrapStandby #这个命令把namenode 的数据同步到hadoop2
hadoop-daemon.sh start namenode #启动备份的namenode
12.启动datanode
hadoop-daemons.sh start datanode [注意daemons ssssss]
13.启动 yarn
start-yarn.sh
14.在hadoop1 hadoop2上分别启动 zkfc
hadoop-daemon.sh start zkfc
hadoop-daemon.sh start zkfc
15.所有启动
jps 查看 hadoop 1 2 3 4 5