Hadoop双namenode配置搭建(HA)

配置双namenode的目的就是为了防错,防止一个namenode挂掉数据丢失,具体原理本文不详细讲解,这里只说明具体的安装过程。

Hadoop HA的搭建是基于Zookeeper的,关于Zookeeper的搭建可以查看这里 hadoop、zookeeper、hbase、spark集群环境搭建 ,本文可以看做是这篇文章的补充。这里讲一下Hadoop配置安装。

配置Hadoop文件

需要修改的配置文件在$HADOOP_HOME/etc/hadoop目录下面,具体修改内容如下:

core-site.xml

 
 <property>
      <name>fs.defaultFSname>
      <value>hdfs://nsvalue>
 property>
 
 <property>
      <name>hadoop.tmp.dirname>
      <value>/data/install/hadoop-2.7.3/tempvalue>
 property>

 <property>
      <name>io.file.buffer.sizename>
      <value>4096value>
 property>
 
 <property>
      <name>ha.zookeeper.quorumname>
      <value>master1:2181,master2:2181,slave1:2181,slave2:2181,slave3:2181value>
 property>

hdfs-site.xml

    
    <property>
        <name>dfs.nameservicesname>
        <value>nsvalue>
    property>
    
    <property>
       <name>dfs.ha.namenodes.nsname>
       <value>nn1,nn2value>
    property>
    
    <property>
       <name>dfs.namenode.rpc-address.ns.nn1name>
       <value>master1:9000value>
    property>
    
    <property>
        <name>dfs.namenode.http-address.ns.nn1name>
        <value>master1:50070value>
    property>
    
    <property>
        <name>dfs.namenode.rpc-address.ns.nn2name>
        <value>master2:9000value>
    property>
    
    <property>
        <name>dfs.namenode.http-address.ns.nn2name>
        <value>master2:50070value>
    property>
    
    <property>
         <name>dfs.namenode.shared.edits.dirname>
         <value>qjournal://slave1:8485;slave2:8485;slave3:8485/nsvalue>
    property>
    
    <property>
          <name>dfs.journalnode.edits.dirname>
          <value>/data/install/hadoop-2.7.3/journalvalue>
    property>
    
    <property>
          <name>dfs.ha.automatic-failover.enabledname>
          <value>truevalue>
    property>
    
    <property>
            <name>dfs.client.failover.proxy.provider.nsname>
            <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvidervalue>
    property>
    
    <property>
             <name>dfs.ha.fencing.methodsname>
             <value>sshfence(hadoop:22022)value>
    property>
    
    <property>
            <name>dfs.ha.fencing.ssh.private-key-filesname>
            <value>/home/hadoop/.ssh/id_rsavalue>
    property>

    <property>
        <name>dfs.namenode.name.dirname>
        <value>file:/data/install/hadoop-2.7.3/hdfs/namevalue>
    property>

    <property>
        <name>dfs.datanode.data.dirname>
        <value>file:/data/install/hadoop-2.7.3/hdfs/datavalue>
    property>

    <property>
       <name>dfs.replicationname>
       <value>2value>
    property>
    
    <property>
       <name>dfs.webhdfs.enabledname>
       <value>truevalue>
    property>

mapred-site.xml

 <property>
        <name>mapreduce.framework.namename>
        <value>yarnvalue>
 property>

yarn-site.xml

    
    <property>
            <name>yarn.nodemanager.aux-servicesname>
            <value>mapreduce_shufflevalue>
     property>
     <property>
            <name>yarn.nodemanager.aux-services.mapreduce_shuffle.classname>
            <value>org.apache.hadoop.mapred.ShuffleHandlervalue>
     property>
     
     <property>
            <name>yarn.resourcemanager.hostnamename>
            <value>master1value>
      property>

hadoop-env.sh添加如下内容

export JAVA_HOME=/data/install/jdk
# ssh端口非默认22端口
export HADOOP_SSH_OPTS="-p 22022"

yarn-env.sh添加如下内容

export JAVA_HOME=/data/install/jdk

启动命令

注意首次初始化启动命令和之后启动的命令是不同的,首次启动比较复杂,步骤不对的话就会报错,不过之后就好了

首次启动命令

1、首先启动各个节点的Zookeeper,在各个节点上执行以下命令:

bin/zkServer.sh start

2、在某一个namenode节点执行如下命令,创建命名空间

hdfs zkfc -formatZK

3、在每个journalnode节点用如下命令启动journalnode

sbin/hadoop-daemon.sh start journalnode

4、在主namenode节点格式化namenode和journalnode目录

hdfs namenode -format ns

5、在主namenode节点启动namenode进程

sbin/hadoop-daemon.sh start namenode

6、在备namenode节点执行第一行命令,这个是把备namenode节点的目录格式化并把元数据从主namenode节点copy过来,并且这个命令不会把journalnode目录再格式化了!然后用第二个命令启动备namenode进程!

hdfs namenode -bootstrapStandby
sbin/hadoop-daemon.sh start namenode

7、在两个namenode节点都执行以下命令

sbin/hadoop-daemon.sh start zkfc

8、在所有datanode节点都执行以下命令启动datanode

sbin/hadoop-daemon.sh start datanode

日常启停命令

sbin/start-dfs.sh
sbin/stop-dfs.sh

测试验证

首先在浏览器分别打开两个节点的namenode状态,其中一个显示active,另一个显示standby

Hadoop双namenode配置搭建(HA)_第1张图片

Hadoop双namenode配置搭建(HA)_第2张图片

然后在active所在的namenode节点执行jps,杀掉相应的namenode进程

Hadoop双namenode配置搭建(HA)_第3张图片

前面standby所对应的namenode变成active

Hadoop双namenode配置搭建(HA)_第4张图片

2017-03-05更新
Hadoop配置了HA,Spark也需要更改一些配置,否则会报java.net.UnknownHostException的错误,就是在$SPARK_HOME/conf/spark-defaults.conf内添加如下内容:

spark.files file:///data/install/hadoop-2.7.3/etc/hadoop/hdfs-site.xml,file:///data/install/hadoop-2.7.3/etc/hadoop/core-site.xml

Men were born to be suffering, the pain of struggle, or the pain of regret?

你可能感兴趣的:(大数据,从零学习数据挖掘)