NameNode 和 SecondaryNameNode

1.NN 和 2NN 工作机制

        首先,我们做个假设,如果存储在NameNode节点的磁盘中,因为经常需要进行随机访问,还有响应客户请求,必然是效率过低。因此元数据需要存放在内存中。但如果存在内存中,一旦断电,元数据丢失,整个集群就无法工作了。因此产生在磁盘中备份元数据的FsImage。

        这样又会带来新的问题,当在内存中的元数据更新时,如果同时更新FsImage,就会导致效率过低,但如果不更新,就会发生一致性问题,一旦NameNode节点断电,就会产生数据丢失。因此,引入Edits文件(只进行追加操作,效率很高)。每当元数据有更新或者添加元数据时,修内存中的元数据并追加到Edits中。这样,一旦NameNode节点断电,可以通过FsImage和Edits的合并,合成元数据。

        但是,如果长时间添加数据到Edits中,会导致该文件数据过大,效率降低,而且一旦断电,恢复元数据需要的时间过长。因此,需要定期进行FsImage和Edits的合并。如果这个操作由NameNode节点完成,又会效率过低。因此,引入一个新的节点SecondaryNameNode,专门用于FsImage和Edits的合并。NameNode 和 SecondaryNameNode_第1张图片

1)第一阶段:NameNode 启动

        (1)第一次启动 NameNode 格式化后,创建 FsImage 和 Edits 文件。如果不是第一次启动,直接加载编辑日志和镜像文件到内存。

        (2)客户端对元数据进行增删改的请求。

        (3)NameNode 记录操作日志,更新滚动日志。

        (4)NameNode 在内存中对元数据进行增删改。

2)第二阶段:Secondary NameNode  工作

        (1)Secondary NameNode 询问 NameNode 是否需要 CheckPoint。直接带回 NameNode是否检查结果。

        (2)Secondary NameNode 请求执行 CheckPoint。

        (3)NameNode 滚动正在写的 Edits 日志。

        (4)将滚动前的编辑日志和镜像文件拷贝到 SecondaryNameNode。

        (5)SecondaryNameNode 加载编辑日志和镜像文件到内存,并合并。

        (6)生成新的镜像文件 fsimage.chkpoint。 

        (7)拷贝 fsimage.chkpoint 到 NameNode。

        (8)NameNode 将 fsimage.chkpoint 重新命名成 fsimage。

2.Fsimage和Edits 解析

        NameNode 被格式化之后,将在 /opt/module/hadoop/data/tmp/dfs/name/current 目录中产生如下文件

fsimage_0000000000000000000

fsimage_0000000000000000000.md5

seen_txid

VERSION

         (1)Fsimage 文件:HDFS 文件系统元数据的一个永久性的检查点,其中包含 HDFS 文件系统的所有目录文件和 inode 的序列化信息。

        (2)Edits 文件:存放 HDFS 文件系统的所有更新操作的路径,文件系统客户端执行的所有写操作首先会被记录到 Edits 文件中。

        (3)seen_txid 文件保存的是一个数字,就是最后一个 edits_数字

        (4)每次 NameNode 启动的时候都会将 Fsimage 文件读入内存,加载 Edits 里面的更新操作,保证内存中的元数据信息是最新的、同步的,可以看成NameNode启动的时候就将 Fsimage 和 Edits 文件进行了合并。

1)oiv 查看 Fsimage 文件

        (1)查看 oiv 和 oev 命令

[xiaowu@hadoop102 current]$ hdfs

oiv            apply the offline fsimage viewer to an fsimage

oev            apply the offline edits viewer to an edits file

        (2)基本语法

        hdfs oiv -p 文件类型 -i 镜像文件 -o 转换后文件输出路径

        (3)案例实操

    [xiaowu@hadoop102 current]$ pwd

/opt/module/hadoop/data/dfs/name/current

[xiaowu@hadoop102 current]$ hdfs oiv -p XML -i fsimage_0000000000000000025 -o /opt/module/hadoop/fsimage.xml

[xiaowu@hadoop102 current]$ cat /opt/module/hadoop/fsimage.xml

        将显示的 xml 文件内容拷贝到 Idea 中创建的 xml 文件中,并格式化。部分显示结果如下。

        

   16386

   DIRECTORY

   user

   1512722284477

   atguigu:supergroup:rwxr-xr-x

   -1

   -1

   16387

   DIRECTORY

   atguigu

   1512790549080

   atguigu:supergroup:rwxr-xr-x

   -1

   -1

   16389

   FILE

   wc.input

   3

   1512722322219

   1512722321610

   134217728

   atguigu:supergroup:rw-r--r--

  

     

          1073741825

          1001

          59

     

  

2) oev 查看 Edits 文件

        (1)基本语法

hdfs oev -p 文件类型 -i 编辑日志 -o 转换后文件输出路径

        (2)案例实操

     [xiaowu@hadoop102 current]$ hdfs oev -p XML -i edits_0000000000000000012-0000000000000000013 -o /opt/module/hadoop/edits.xml

[xiaowu@hadoop102 current]$ cat /opt/module/hadoop/edits.xml

        将显示的 xml 文件内容拷贝到 Idea 中创建的 xml文件中,并格式化。显示结果如下。

 

   -63

  

      OP_START_LOG_SEGMENT

     

          129

     

  

  

      OP_ADD

     

          130

          0

          16407

          /hello7.txt

          2

          1512943607866

          1512943607866

          134217728

          DFSClient_NONMAPREDUCE_-1544295051_1

          192.168.10.102

          true

         

             atguigu

             supergroup

             420

         

          908eafd4-9aec-4288-96f1-e8011d181561

          0

     

  

  

      OP_ALLOCATE_BLOCK_ID

     

          131

          1073741839

     

  

  

      OP_SET_GENSTAMP_V2

     

          132

          1016

     

  

  

      OP_ADD_BLOCK

     

          133

          /hello7.txt

         

             1073741839

             0

             1016

         

         

          -2

     

  

  

      OP_CLOSE

     

          134

          0

          0

          /hello7.txt

          2

          1512943608761

          1512943607866

          134217728

         

        

          false

         

             1073741839

             25

             1016

         

         

             atguigu

             supergroup

             420

         

     

  

3.CheckPoint 时间设置

1)通常情况下,SecondaryNameNode 每隔一小时执行一次。

        [hdfs-default.xml]

 

  dfs.namenode.checkpoint.period

  3600

2)一分钟检查一次操作次数,当操作次数达到1百万时,SecondaryNameNode 执行一次。

       

  dfs.namenode.checkpoint.txns

  1000000

操作动作次数

  dfs.namenode.checkpoint.check.period

  60

1分钟检查一次操作次数

你可能感兴趣的:(NameNode,Secondary,NameNode,hadoop,大数据,分布式)