3-搭建Hadoop HA

3-搭建Hadoop HA

0.更改主机名

 hostnamectl set-hostname master
 hostnamectl set-hostname master2
 hostnamectl set-hostname slave

1.ssh免密登录

(1),生成秘钥(群发)

 ssh-keygen

(2),配置hosts

 # 打开配置文件目录,
 vi /etc/hosts
 # 根据ip信息修改为以下内容
 192.168.204.152 master
 192.168.204.153 master2
 192.168.204.154 slave
 # 在每台服务器中都要配置hosts,所以在每台服务器中都执行

(3),采用追加的方式添加公钥(群发)

 第一台主机:
 ssh-copy-id master
 yes
 000000(输入设置的密码)
 第二台主机:
 ssh-copy-id master2
 yes
 000000(输入设置的密码)
 第三台主机(在此时注意一点的是,这里做输入的时候其他两台主机仍然是第一次连接所以需要先选中yes,在输入密码):
 ssh-copy-id slave
 yes
 000000(输入设置的密码)

2.关闭防火墙

 # 关闭防火墙:
 systemctl stop firewalld
 # 设置开机禁用防火墙:
 systemctl disable firewalld.service
 # 检查防火墙状态:
 systemctl status firewalld

3.jdk的安装与配置

(1).解压jdk组件

 # 使用xftp将组件上传到/soft目录下
 mkdir /soft
 # 新建文件目录:/usr/java
 mkdir -p /usr/java/
 # 进入soft目录下解压jdk
 cd /soft
 tar -zxvf jdk-8u77-linux-x64.tar.gz -C /usr/java/

(2).配置环境变量

 # 在相应配置文件中追加以下内容
 vi /etc/profile
 export JAVA_HOME=/usr/java/jdk1.8.0_77
 export PATH=$PATH:$JAVA_HOME/bin
 # 设置当前环境变量立即生效
 source /etc/profile

(3).将jdk与环境变量同步到其他两台服务器

 scp -r /usr/java/ master2:/usr/
 scp /etc/profile master2:/etc/
 ​
 scp -r /usr/java/ slave:/usr/
 scp /etc/profile slave:/etc/
 # 在同步文件之后,需要更新配置文件
 source /etc/profile

4.Zookeeper安装与配置

(1).解压Zookeeper组件

组件使用xftp上传到/soft目录下

在三台机器中都新建目录:/usr/hadoop

mkdir /usr/hadoop

进入soft目录下解压Zookeeper

cd /soft
tar -zxvf zookeeper-3.4.10.tar.gz -C /usr/hadoop/

(2).配置环境变量

在响应配置文件中追加以下内容

vi /etc/profile
export ZOOKEEPER_HOME=/usr/hadoop/zookeeper-3.4.10
export PATH=$PATH:$ZOOKEEPER_HOME/bin

设置当前环境变量立即生效

source /etc/profile

(3).配置Zookeeper

1.进入指定路径修改配置文件

cd /usr/hadoop/zookeeper-3.4.10/conf
cp zoo_sample.cfg zoo.cfg
vi zoo.cfg

2.删除之前的所有内容,添加以下内容

tickTime=2000
initLimit=10
syncLimit=5

数据存放位置

dataDir=/hadoop/zookeeper/zkdata

日志存放位置

dataLogDir=/hadoop/zookeeper/zklog

端口

clientPort=2181

指定部署Zookeeper的三个节点

server.1=master:2888:3888
server.2=master2:2888:3888
server.3=slave:2888:3888

(4).同步Zookeeper与环境变量到其他两台服务器

scp -r /usr/hadoop/zookeeper-3.4.10 master2:/usr/hadoop/
scp /etc/profile master2:/etc/
scp -r /usr/hadoop/zookeeper-3.4.10 slave:/usr/hadoop/
scp /etc/profile slave:/etc/
source /etc/profile

(5).创建文件夹

在每个节点上均要执行

mkdir -p /hadoop/zookeeper/zkdata
mkdir -p /hadoop/zookeeper/zklog

(6).创建myid

在/hadoop/zookeeper/zkdata下创建文件myid

cd /hadoop/zookeeper/zkdata
vi myid

编辑内容为当前server数值(1,2,3),需要与上面zoo.cfg中的配置相对应:

master1节点 -> 1
master2节点 -> 2
worker1节点 -> 3

5.Hadoop安装与配置

(1).解压Hadoop组件

将组件上传至soft目录

cd /soft
tar -zxvf hadoop-2.7.3.tar.gz -C /usr/hadoop/

(2).修改相应配置文件

进入配置文件目录

cd /usr/hadoop/hadoop-2.7.3/etc/hadoop/

1),配置core-site.xml

fs.defaultFS
hdfs://ns1/


fs.trash.interval
1440


hadoop.tmp.dir
/hadoop/hadoop/tmp


ha.zookeeper.quorum
master:2181,master2:2181,slave:2181

2),配置hdfs-site.xml

说明: 启用 NameNode HA的话,不再需要开启Secondary NameNode

dfs.nameservices
ns1


dfs.ha.namenodes.ns1
nn1,nn2


dfs.namenode.rpc-address.ns1.nn1
master:8020


dfs.namenode.http-address.ns1.nn1
master:50070


dfs.namenode.rpc-address.ns1.nn2
master2:8020


dfs.namenode.http-address.ns1.nn2
master2:50070


dfs.namenode.shared.edits.dir
qjournal://master:8485;master2:8485;slave:8485/ns1


dfs.journalnode.edits.dir
/hadoop/hadoop/edits


dfs.ha.automatic-failover.enabled
true


dfs.client.failover.proxy.provider.ns1
org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider


dfs.ha.fencing.methods

sshfence  
shell(/bin/true)  


dfs.ha.fencing.ssh.private-key-files
/root/.ssh/id_rsa


dfs.ha.fencing.ssh.connect-timeout
30000


dfs.replication
3

3),配置yarn-site.xml

yarn.resourcemanager.ha.enabled
true


yarn.resourcemanager.cluster-id
yrc


yarn.resourcemanager.ha.rm-ids
rm1,rm2


yarn.resourcemanager.hostname.rm1
master


yarn.resourcemanager.hostname.rm2
master2


yarn.resourcemanager.webapp.address.rm1
master:8088


yarn.resourcemanager.webapp.address.rm2
master2:8088


yarn.resourcemanager.zk-address
master:2181,master2:2181,slave:2181


yarn.nodemanager.aux-services
mapreduce_shuffle

4),配置marped-site.xml

[root@localhost hadoop]# cp mapred-site.xml.template mapred-site.xml

打开配置文件s

vi mapred-site.xml


mapreduce.framework.name
yarn

5),配置hadoop-env.sh

export JAVA_HOME=/usr/java/jdk1.8.0_77

6),配置slaves

指定DataNode节点(hostname)

[root@master ~]# vim /usr/hadoop/hadoop-2.7.3/etc/hadoop/slaves

删除原本的localhost,添加以下内容

master
master2
slave

7),配置环境变量

修改配置文件

vi /etc/profile

追加以下内容

export HADOOP_HOME=/usr/hadoop/hadoop-2.7.3
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

更新配置文件

source /etc/profile

8),同步Hadoop与配置文件复制到其他节点

在master节点配置之后,需要同步到其他两台服务器中

[root@master /]# cd /usr/hadoop/
[root@master hadoop]# scp -r /usr/hadoop/hadoop-2.7.3 root@master2:/usr/hadoop/
[root@master hadoop]# scp /etc/profile root@master2:/etc/
[root@master hadoop]# scp -r /usr/hadoop/hadoop-2.7.3 root@slave:/usr/hadoop/
[root@master hadoop]# scp /etc/profile root@slave:/etc/

同步完配置文件之后需要更新配置文件

source /etc/profile

6.集群启动

(1).启动Zookeeper

在三个节点上都执行以下命令

zkServer.sh start

查看状态:一个leader,两个flower

zkServer.sh status

(2).启动JournalNode

在三个节点上都执行以下命令

hadoop-daemon.sh start journalnode

(3).格式化HDFS

1.在master上格式化namenode:

hdfs namenode -format

在master1上启动namenode:

hadoop-daemon.sh start namenode

在master2上格式化namenode:

hdfs namenode -bootstrapStandby

(4).格式化zkfc

在master1上执行:

hdfs zkfc -formatZK

(5).启动hdfs

在master1上执行:

start-dfs.sh

(6).启动Yarn

 # 1.在master1上执行:
 start-yarn.sh
 # 2.在master2上执行:
 yarn-daemon.sh start resourcemanager

(7).启动JobHistoryServer

 # 在每台主机上都执行以下命令
 mr-jobhistory-daemon.sh start historyserver

7.验证NameNode高可用

 # 首先分别访问:master:50070和master2:50070网页,查看这两个节点的状态:
 master处于active状态;master2处于standby状态
 # 我们再手动启动master的namenode服务:
 hadoop-daemon.sh start namenode
 # 去master:50070网页查看,master处于standby状态;master2处于active状态

8.进程验证

 # master节点
 [root@master hadoop]# jps
 10417 ResourceManager
 2226 QuorumPeerMain
 10994 Jps
 10519 NodeManager
 10312 DFSZKFailoverController
 10953 NameNode
 10044 DataNode
 9614 JournalNode
 # master2节点
 [root@master2 hadoop]# jps
 9586 DataNode
 9811 NodeManager
 10181 NameNode
 9882 ResourceManager
 9708 DFSZKFailoverController
 10285 Jps
 9406 JournalNode
 2063 QuorumPeerMain
 # slave节点
 [root@slave zkdata]# jps
 9504 DataNode
 2085 QuorumPeerMain
 9783 Jps
 9626 NodeManager
 9422 JournalNode

你可能感兴趣的:(3-搭建Hadoop HA)