Hadoop2.X HA搭建

三台机器:node01,node02,node03

Hadoop2.X HA搭建_第1张图片
1.安装hadoop2.x 进行配置修改

此处为hadoop2.6.5
在这里插入图片描述
配置 hadoop-env.sh ,配置jdk环境
2.配置core-site.xml





  fs.defaultFS

  hdfs://cheam





   ha.zookeeper.quorum

   node01:2181,node02:2181,node03:2181





  hadoop.tmp.dir

  /opt/hadoop


3.配置hdfs-site.xml





  dfs.nameservices

  cheam





  dfs.ha.namenodes.cheam

  nn1,nn2





   dfs.namenode.rpc-address.cheam.nn1

   node01:8020





   dfs.namenode.rpc-address.cheam.nn2

   node02:8020





   dfs.namenode.http-address.cheam.nn1

   node01:50070





   dfs.namenode.http-address.cheam.nn2

   node02:50070





   

   dfs.namenode.shared.edits.dir

   qjournal://node01:8485;node02:8485;node03:8485/cheam







    dfs.client.failover.proxy.provider.cheam
 
    org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider





   

   dfs.ha.fencing.methods

   sshfence





  

  dfs.ha.fencing.ssh.private-key-files

  /root/.ssh/id_rsa





  

  dfs.journalnode.edits.dir

  /opt/hadoop/data





   

   dfs.ha.automatic-failover.enabled

   true


4.配置hadoop中的slaves

node01

node02

node03

5.准备zookeeper

a) 三台zookeeper:node01,node02,node03

b) 编辑zoo.cfg配置文件

i.

修改dataDir=/opt/zookeeper

ii.

server.1=node01:2888:3888

server.2=node02:2888:3888

server.3=node03:2888:3888

c) 在/opt/zookeeper目录中创建一个myid的文件,文件内容分别为1,2,3

  1. 发送其他节点服务器 环境变量配置 /root/.bash_profile
    配置完后source一下

  2. 启动三个zookeeper:zkServer.sh start

  3. 启动三个JournalNode:hadoop-daemon.sh start journalnode

  4. 在其中一个namenode上格式化:hdfs namenode -format

  5. 把刚刚格式化之后的元数据拷贝到另外一个namenode上

a) 启动刚刚格式化的namenode :  hadoop-daemon.sh start namenode

b) 在没有格式化的namenode上执行:hdfs namenode -bootstrapStandby

c) 启动第二个namenode    hadoop-daemon.sh start namenode
  1. 在其中一个namenode上初始化zkfc:hdfs zkfc -formatZK

  2. 停止上面任意一个namenode节点:stop-dfs.sh

  3. 启动(任意一个namenode节点):start-dfs.sh

  4. yarn-daemon.sh start resourcemanager (yarn resourcemanager yarn-daemon.sh start resourcemanager (yarn resourcemanager )

你可能感兴趣的:(hadoop)