笔记-hadoop-HDFS-NameNode和SecondaryNameNode

——尚硅谷课程笔记整理


NameNode和SecondaryNameNode工作机制

思考:NameNode中的元数据是存储在哪里的?

首先,我们做个假设,如果存储在NameNode节点的磁盘中,因为经常需要进行随机访问,还有响应客户请求,必然是效率过低。因此,元数据需要存放在内存中。但如果只存在内存中,一旦断电,元数据丢失,整个集群就无法工作了。因此产生在磁盘中备份元数据的FsImage

这样又会带来新的问题,当在内存中的元数据更新时,如果同时更新FsImage,就会导致效率过低,但如果不更新,就会发生一致性问题,一旦NameNode节点断电,就会产生数据丢失。因此,引入Edits文件(只进行追加操作,效率很高)。每当元数据有更新或者添加元数据时,修改内存中的元数据并追加到Edits中。这样,一旦NameNode节点断电,可以通过FsImageEdits的合并,合成元数据。

但是,如果长时间添加数据到Edits中,会导致该文件数据过大,效率降低,而且一旦断电,恢复元数据需要的时间过长。因此,需要定期进行FsImageEdits的合并,如果这个操作由NameNode节点完成,又会效率过低。因此,引入一个新的节点SecondaryNamenode,专门用于FsImageEdits的合并。

NameNode和SecondaryNameNode工作机制如图:

笔记-hadoop-HDFS-NameNode和SecondaryNameNode_第1张图片

第一阶段:NameNode启动

  1. 第一次启动NameNode格式化后,创建Fsimage和Edits文件。如果不是第一次启动,直接加载编辑日志和镜像文件到内存。
  2. 客户端对元数据进行增删改的请求。
  3. NameNode记录操作日志,更新滚动日志。
  4. NameNode在内存中对数据进行增删改。

第二阶段:Secondary NameNode工作

  1. Secondary NameNode询问NameNode是否需要CheckPoint。直接带回NameNode是否检查结果。
  2. Secondary NameNode请求执行CheckPoint。
  3. NameNode滚动正在写的Edits日志。
  4. 将滚动前的编辑日志和镜像文件拷贝到Secondary NameNode。
  5. Secondary NameNode加载编辑日志和镜像文件到内存,并合并。
  6. 生成新的镜像文件fsimage.chkpoint。
  7. 拷贝fsimage.chkpoint到NameNode。
  8. NameNode将fsimage.chkpoint重新命名成fsimage。

CheckPoint时间设置

查看hdfs-default.xml文档,一下为默认值

通常情况下,SecondaryNameNode每隔一小时执行一次


  dfs.namenode.checkpoint.period
  3600

 一分钟检查一次操作次数,3当操作次数达到1百万时,SecondaryNameNode执行一次。


  dfs.namenode.checkpoint.txns
  1000000
操作动作次数



  dfs.namenode.checkpoint.check.period
  60
 1分钟检查一次操作次数

NameNode故障处理

NameNode故障后,可以采用如下两种方法恢复数据。

方法一:将SecondaryNameNode中数据拷贝到NameNode存储数据的目录

  1. kill -9 NameNode进程
  2. 删除NameNode存储的数据(/opt/module/hadoop-2.7.2/data/tmp/dfs/name)
    rm -rf /opt/module/hadoop-2.7.2/data/tmp/dfs/name/*
  3. 拷贝SecondaryNameNode中数据到原NameNode存储数据目录
    cd /opt/module/hadoop-2.7.2/data/tmp/dfs/
    scp -r liun@hadoop103:/opt/module/hadoop-2.7.2/data/tmp/dfs/namesecondary/* ./name/

方法二:使用-importCheckpoint选项启动NameNode守护进程,从而将SecondaryNameNode中数据拷贝到NameNode目录中。

  1. 修改hdfs-site.xml
    
      dfs.namenode.checkpoint.period
      120
    
    
    
      dfs.namenode.name.dir
      /opt/module/hadoop-2.7.2/data/tmp/dfs/name
    
    
  2. kill -9 NameNode进程
  3. 删除NameNode存储的数据(/opt/module/hadoop-2.7.2/data/tmp/dfs/name)
    cd /opt/module/hadoop-2.7.2/data/tmp/dfs/
    scp -r liun@hadoop103:/opt/module/hadoop-2.7.2/data/tmp/dfs/namesecondary/* ./name/
  4. 如果SecondaryNameNode不和NameNode在一个主机节点上,需要将SecondaryNameNode存储数据的目录拷贝到NameNode存储数据的平级目录,并删除in_use.lock文件
    cd /opt/module/hadoop-2.7.2/data/tmp/dfs/
    scp -r liun@hadoop103:/opt/module/hadoop-2.7.2/data/tmp/dfs/namesecondary ./
    cd namesecondary
    rm -rf in_use.lock
  5. 导入检查点数据(等待一会ctrl+c结束掉)
    hdfs namenode -importCheckpoint

NameNode多目录配置

NameNode的本地目录可以配置成多个,且每个目录存放内容相同,增加了可靠性

具体配置如下

1.修改hdfs-site.xml文件


    dfs.namenode.name.dir
file:///${hadoop.tmp.dir}/dfs/name1,file:///${hadoop.tmp.dir}/dfs/name2

2.停止集群,删除data和logs中所有数据

3.格式化集群并启动。

NameNode多目录完毕

集群安全模式

概述

1、NameNode启动
NameNode启动时,首先将镜像文件(Fsimage)载入内存,并执行编辑日志(Edits)中的各项操作。一旦在内存中成功建立文件系统元数据的映像,则创建一个新的Fsimage文件和一个空的编辑日志。此时,NameNode开始监听DataNode请求。这个过程期间,NameNode一直运行在安全模式,即NameNode的文件系统对于客户端来说是只读的。
2、DataNode启动
系统中的数据块的位置并不是由NameNode维护的,而是以块列表的形式存储在DataNode中。在系统的正常操作期间,NameNode会在内存中保留所有块位置的映射信息。在安全模式下,各个DataNode会向NameNode发送最新的块列表信息,NameNode了解到足够多的块位置信息之后,即可高效运行文件系统。
3、安全模式退出判断
如果满足“最小副本条件”,NameNode会在30秒钟之后就退出安全模式。所谓的最小副本条件指的是在整个文件系统中99.9%的块满足最小副本级别(默认值:dfs.replication.min=1)。在启动一个刚刚格式化的HDFS集群时,因为系统中还没有任何块,所以NameNode不会进入安全模式。

基本语法

集群处于安全模式,不能执行重要操作(写操作)。集群启动完成后,自动退出安全模式。

bin/hdfs dfsadmin -safemode get         (功能描述:查看安全模式状态)
bin/hdfs dfsadmin -safemode enter      (功能描述:进入安全模式状态)
bin/hdfs dfsadmin -safemode leave      (功能描述:离开安全模式状态)
bin/hdfs dfsadmin -safemode wait        (功能描述:等待安全模式状态)

 

 

 

 

你可能感兴趣的:(笔记-hadoop)