部署Hadoop High Avalability

  • 部署规划
    zookeeper集群需要奇数台机器,至少需要三台机器。hadoop集群至少需要2台机器。因此至少准备三台虚拟机。
    规划每台机器的主机名,IP,和扮演的角色,如下图。
    Hadoop HA 规划.png
  • 修改Linux主机名和IP
    根据规划
    1)将网卡IP获取方式修改为Manuel,并配置每台机器的IP。
    2)修改/etc/hosts内容将三台机器的主机名和IP填写进去。
  • 配置ssh免密登录并关闭防火墙
    根据规划,master需要免密登录到slave0、slave1,以启动hadoop集群;同时slave1上启动resourcemanager,所以需要slave1免密登录到master和slave0;master和slave0同为namenode,一个宕机就启动另一个,所以要互相能免密登录。
    综上,将master公钥发送到slave0、slave1;将slave1公钥发送到master、slave0;将salve0公钥发送到master。其中主要使用到的Linux命令有:
ssh-keygen -t rsa  
cat ./id_rsa.pub >> ./authorized_keys
scp ~/.ssh/id_rsa.pub user@hostname:/home/hadoop/
chmod 700 ./authorized_keys  //权限不够会导致配置失败
service iptables close
chkconfig iptables off ```

- **配置环境变量并部署集群**
在master节点上安装JDK,Hadoop,Zookeeper并配置环境变量,然后scp到其他节点上(JDK就不写了)。
1)安装zookeeper集群
主要修改配置文件conf/zoo.cfg

dataDir=/weekend/zookeeper-3.4.5/tmp
server.1=master:2888:3888server.2=slave0:2888:3888
server.3=slave1:2888:3888

2)安装hadoop集群
主要修改5个配置文件:
**core.xml**




fs.defaultFS
hdfs://ns



hadoop.tmp.dir
/home/hadoop/workspace/hdfs/temp


io.file.buffer.size
4096



ha.zookeeper.quorum
master:2181,slave0:2181,slave1:2181

**hdfs-site.xml**




dfs.nameservices
ns



dfs.ha.namenodes.ns
nn1,nn2



dfs.namenode.rpc-address.ns.nn1
master:9000



dfs.namenode.http-address.ns.nn1
master:50070



dfs.namenode.rpc-address.ns.nn2
slave0:9000



dfs.namenode.http-address.ns.nn2
slave0:50070



dfs.namenode.shared.edits.dir
qjournal://master:8485;slave0:8485;slave1:8485/ns



dfs.journalnode.edits.dir
/home/hadoop/workspace/journal



dfs.ha.automatic-failover.enabled
true



dfs.client.failover.proxy.provider.ns
org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider



dfs.ha.fencing.methods
sshfence



dfs.ha.fencing.ssh.private-key-files
/home/hadoop/.ssh/id_rsa

    
    dfs.namenode.name.dir    
    file:///home/hadoop/workspace/hdfs/name    
    

    
    dfs.datanode.data.dir    
    file:///home/hadoop/workspace/hdfs/data    
    

    
   dfs.replication    
   2    
   
                                                                    
    
   dfs.webhdfs.enabled    
   true    
    

**mapred-site.xml**



mapreduce.framework.name
yarn

**yarn-site.xml**




yarn.nodemanager.aux-services
mapreduce_shuffle



yarn.resourcemanager.hostname
slave1

**slaves**

master
slave0
slave1

- **启动zookeeper集群**
一、首次启动:
**01**
启动zookeeper集群:分别在三个节点上启动zookeeper

zkServer.sh start```
启动后用如下命令验证,集群启动成功,有两个follower节点跟一个leader节点;

[hadoop@master bin]$ zkServer.sh status
JMX enabled by default
Using config: /home/hadoop/zookeeper/zookeeper-3.4.9/bin/../conf/zoo.cfg
Mode: follower

02
启动journalnode集群(在master的hadoop目录下执行以下命令):

sbin/hadoop-daemons.sh start journalnode

03
格式化hdfs(在master上执行以下命令):

hadoop namenode –format

04
格式化zkfc,让在zookeeper中生成ha节点(在master上执行以下命令):

hdfs zkfc –formatZK

05
启动HDFS(在master上执行以下命令):

sbin/start-dfs.sh

06
启动YARN(在slave1上执行以下命令):

sbin/start-yarn.sh

二、再次启动
01
启动zookeeper(分别启动):

zkServer.sh start

02
启动hdfs(master的hadoop目录下):

sbin/start-dfs.sh

03
启动yarn(在slave1的hadoop目录下):

sbin/start-yarn.sh

三、启动成功后的进程

#master上的java PID进程
[hadoop@master hadoop-2.7.3]$ jps
2837 NodeManager
3054 DFSZKFailoverController
4309 Jps
2692 DataNode
2173 QuorumPeerMain
2551 NameNode
2288 JournalNode
#slave0上的java PID进程
[hadoop@salve0 ~]$ jps
2869 DFSZKFailoverController
2353 DataNode
2235 JournalNode
4522 Jps
2713 NodeManager
2591 NameNode
2168 QuorumPeerMain
#slave1上的java PID进程
[hadoop@slave1 ~]$ jps
2167 QuorumPeerMain
2337 JournalNode
3506 Jps
2457 DataNode
2694 NodeManager
2590 ResourceManager
  • 可能遇到的错误
    01
    运行zookeeperd的启动脚本显示启动成功,但用zkServer.sh status查看,反馈如下:
JMX enabled by default  
Using config: /data/programfiles/zookeeper-3.4.9/bin/../conf/zoo.cfg  
Error contacting service. It is probably not running.  

原因:在/data里面查找zookeeper_server.pid这个文件,里面保存的是zookeeper的启动id,当服务器重启时zookeeper非正常退出,这个zookeeper_server.pid的值没有被清除,当执行zookeeper启动脚本时发现这个文件的值,就以为zookeeper已经启动。
解决方案:把zookeeper_server.pid里面的内容清空,zookeeper就能正常启动。
02
节点启动失败
原因:hadoop集群所有的用户名要一样,因为虽然可以用ssh hadoop@hadoop1代替ssh hadoop1,这让我们觉得没有必要让hadoop每台自己的用户名一样。这样想是不对的。因为ssh远程无密码登入可以用ssh hadoop@hadoop1。但是hadoop内部是不会这样智能处理的。
解决方案:在配置hadoop集群时,要把所有机子的用户名设置一样。

你可能感兴趣的:(部署Hadoop High Avalability)