(十一)大数据实战——hadoop高可用之HDFS手动模式高可用

前言

本节内容我们介绍一下hadoop在手动模式下如何实现HDFS的高可用,HDFS的高可用功能是通过配置多个 NameNodes(Active/Standby)实现在集群中对 NameNode 的热备来解决上述问题。如果出现故障,如机器崩溃或机器需要升级维护,这时可通过此种方式将 NameNode很快的切换到另外一台机器,并通过JournalNode实现主备节点的数据同步。

正文

  • 集群规划

HDFS高可用集群规划

hadoop101 hadoop02 hadoop03 NameNode NameNode NameNode JournalNode JournalNode JournalNode DataNode DataNode DataNode

NameNode:控制节点

JournalNode:控制节点数据同步

DataNode:数据节点

  • 清除hadoop集群下的data和logs目录

-清除hadoop101的data和logs目录,hadoop102和hadoop103同上步骤

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用_第1张图片

  •  在/opt/module/hadoop-3.1.3/etc/hadoop目录下修改core-site.xml配置文件

- core-site.xml配置文件


 
 
     fs.defaultFS
     hdfs://mycluster
 
 
 
     hadoop.tmp.dir
     /opt/module/hadoop-3.1.3/data
 

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用_第2张图片

  •   在/opt/module/hadoop-3.1.3/etc/hadoop目录下修改hdfs-site.xml配置文件

- 修改hdfs-site.xml配置文件


    
    
        dfs.namenode.name.dir
        file://${hadoop.tmp.dir}/nn
    
    
    
        dfs.datanode.data.dir
        file://${hadoop.tmp.dir}/dn
    
    
    
        dfs.journalnode.edits.dir
        ${hadoop.tmp.dir}/jn
    
    
    
        dfs.nameservices
        mycluster
    
    
    
        dfs.ha.namenodes.mycluster
        nn1,nn2,nn3
    
    
    
        dfs.namenode.rpc-address.mycluster.nn1
        hadoop101:8020
    
    
        dfs.namenode.rpc-address.mycluster.nn2
        hadoop102:8020
    
    
        dfs.namenode.rpc-address.mycluster.nn3
        hadoop103:8020
    
    
    
        dfs.namenode.http-address.mycluster.nn1
        hadoop101:9870
    
    
        dfs.namenode.http-address.mycluster.nn2
        hadoop102:9870
    
    
        dfs.namenode.http-address.mycluster.nn3
        hadoop103:9870
    
    
    
        dfs.namenode.shared.edits.dir
        qjournal://hadoop101:8485;hadoop102:8485;hadoop103:8485/mycluster
    
    
    
        dfs.client.failover.proxy.provider.mycluster
        org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider
    
    
    
        dfs.ha.fencing.methods
        sshfence
    
    
    
        dfs.ha.fencing.ssh.private-key-files
        /home/hadoop/.ssh/id_rsa
    

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用_第3张图片

  •  分发配置文件到其它hadoop集群服务器

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用_第4张图片

  • 启动hadoop集群的journalnode服务,用于同步namenode数据

- 命令:hdfs --daemon start journalnode

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用_第5张图片(十一)大数据实战——hadoop高可用之HDFS手动模式高可用_第6张图片

  • 对hadoop101节点数据格式化并启动namenode服务 

- 数据格式化命令:hdfs namenode -format

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用_第7张图片

- 启动namenode服务命令:hdfs --daemon start namenode

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用_第8张图片

  • 在hadoop102与hadoop103上面执行以下命令同步hadoop101的元数据信息

命令:hdfs namenode -bootstrapStandby

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用_第9张图片

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用_第10张图片

  • 启动hadoop102与hadoop103的namenode服务

 命令:hdfs --daemon start namenode

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用_第11张图片

  • 在所有节点开启datanode服务

 命令:hdfs --daemon start datanode

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用_第12张图片

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用_第13张图片

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用_第14张图片

  • 将hadoop101激活为主节点

命令:hdfs haadmin -transitionToActive nn1

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用_第15张图片

  • 查看节点状态 

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用_第16张图片

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用_第17张图片(十一)大数据实战——hadoop高可用之HDFS手动模式高可用_第18张图片

  • 自动模式存在的问题 

- 如果namenode挂机之后,想直接故障转移,把其它节点升级为namenode主节点是不行的,必须先将挂机的namenode重新启动才行,手动模式必须保证所有namenode节点必须是存活状态

- 在有active状态下的namenode节点,是无法切换其它节点为active节点

- 集群中只有一个节点是active

结语

hadoop高可用之HDFS手动模式高可用内容到这里就结束了,我们下期见。。。。。。

你可能感兴趣的:(大数据,#,hadoop,大数据,hadoop,hdfs)