HDFS中NameNode、Secondary NameNode介绍及工作机制详细教程

HDFS集群包括,NameNode和DataNode以及Secondary Namenode。NameNode负责管理整个文件系统的元数据,以及每一个路径(文件)所对应的数据块信息;DataNode 负责管理用户的文件数据块,每一个数据块都可以在多个datanode上存储多个副本,Secondary NameNode用来监控HDFS状态的辅助后台程序,每隔一段时间获取HDFS元数据的快照。

一、NameNode和Secondary Namenode工作机制图

HDFS中NameNode、Secondary NameNode介绍及工作机制详细教程_第1张图片
下面,针对机制图进行详解。

第一阶段:namenode启动

1、第一次启动namenode格式化后,创建fsimage和edits文件。如果不是第一次启动,直接加载编辑日志和镜像文件到内存;
2、客户端对元数据进行增删改的请求;
3、namenode记录操作日志,更新滚动日志;
4、namenode在内存中对数据进行增删改查(注意:查是不记录到edits中的)。

第二阶段:Secondary NameNode工作

1、Secondary NameNode询问namenode是否需要checkpoint,直接带回namenode是否检查结果;
★ checkpoint的意思是检查点,即向NameNode请求是否需要将edits和fsimage合并;
备注:checkpoint触发的条件:
a、定时时间到(系统默认为1小时)
b、edits中的数据满了(默认为100万的操作次数)

2、Secondary NameNode请求执行checkpoint;
3、namenode滚动正在写的edits日志,即将edits锁定,为了拷贝到Secondary NameNode进行后期的合并;
4、将滚动前的编辑日志和镜像文件拷贝到Secondary NameNode;
5、Secondary NameNode加载编辑日志和镜像文件到内存,并合并;
6、生成新的镜像文件fsimage.chkpoint;
7、拷贝fsimage.chkpoint到namenode;
8、namenode将fsimage.chkpoint重新命名成fsimage。

web端访问SecondaryNameNode

1、启动集群,可以参考 搭建hadoop集群的详细教程 ;
2、浏览器中输入:http://hadoop102:50070/status.html,这里需要注意,需前置在windows中维护好主机名,进而才能通过主机名访问,windows配置见windows设置通过主机名访问网站;
3、查看SecondaryNameNode信息。

chkpoint检查时间参数设置

1、通常情况下,SecondaryNameNode每隔一小时执行一次。
[hdfs-default.xml]

<property>
  <name>dfs.namenode.checkpoint.period</name>
  <value>3600</value>
</property>

2、一分钟检查一次操作次数,当操作次数达到1百万,SecondaryNameNode执行一次。

<property>
  <name>dfs.namenode.checkpoint.txns</name>
  <value>1000000</value>
<description>操作动作次数</description>
</property>

<property>
  <name>dfs.namenode.checkpoint.check.period</name>
  <value>60</value>
<description> 1分钟检查一次操作次数</description>
</property>

二、镜像文件和编辑日志文件

1、概念
namenode被格式化之后,将在/opt/module/hadoop-2.7.2/data/tmp/dfs/name/current目录中产生如下文件

edits_0000000000000000000
fsimage_0000000000000000000.md5
seen_txid
VERSION

(1)Fsimage文件:HDFS文件系统元数据的一个永久性的检查点,其中包含HDFS文件系统的所有目录和文件idnode的序列化信息。
(2)Edits文件:存放HDFS文件系统的所有更新操作的路径,文件系统客户端执行的所有写操作首先会被记录到edits文件中。
(3)seen_txid文件保存的是一个数字,就是最后一个edits_的数字
(4)每次Namenode启动的时候都会将fsimage文件读入内存,并从00001开始到seen_txid中记录的数字依次执行每个edits里面的更新操作,保证内存中的元数据信息是最新的、同步的,可以看成Namenode启动的时候就将fsimage和edits文件进行了合并。

2、oiv查看fsimage文件
(1)查看oiv和oev命令

[root@hadoop102 current]$ hdfs

oiv:apply the offline fsimage viewer to an fsimage
oev:apply the offline edits viewer to an edits file
(2)基本语法
hdfs oiv -p 文件类型 -i镜像文件 -o 转换后文件输出路径
(3)案例实操

[root@hadoop102 current]$ pwd
/opt/module/hadoop-2.7.2/data/tmp/dfs/name/current

[root@hadoop102 current]$ hdfs oiv -p XML -i fsimage_0000000000000000025 -o /opt/module/hadoop-2.7.2/fsimage.xml

[root@hadoop102 current]$ cat /opt/module/hadoop-2.7.2/fsimage.xml

3、oev查看edits文件
(1)基本语法
hdfs oev -p 文件类型 -i编辑日志 -o 转换后文件输出路径
(2)案例实操

[root@hadoop102 current]$ hdfs oev -p XML -i edits_0000000000000000012-0000000000000000013 -o /opt/module/hadoop-2.7.2/edits.xml
[root@hadoop102 current]$ cat /opt/module/hadoop-2.7.2/edits.xml

三、滚动编辑日志

正常情况HDFS文件系统有更新操作时,就会滚动编辑日志。也可以用命令强制滚动编辑日志。滚动编辑日志(前提必须启动集群)

[root@hadoop102 current]$ hdfs dfsadmin -rollEdits

查看编辑日志:
http://hadoop102:50070/dfshealth.html#tab-startup-progress

四、SecondaryNameNode目录结构及好处

1、目录结构路径

[root@hadoop102 /]# /opt/module/hadoop-2.7.2/data/tmp/dfs/namesecondary/current

SecondaryNameNode的namesecondary/current目录和主namenode的current目录的布局相同。
2、好处
在主namenode发生故障时(假设没有及时备份数据),可以从SecondaryNameNode恢复数据。
方法一
将SecondaryNameNode中数据拷贝到namenode存储数据的目录,案例(模拟namenode故障,恢复namenode数据)如下:

(1)杀进程

[root@hadoop102 /]# kill -9 namenode进程

(2)删除namenode存储的数据(/opt/module/hadoop-2.7.2/data/tmp/dfs/name)

[root@hadoop102 /]# rm -rf /opt/module/hadoop-2.7.2/data/tmp/dfs/name/*

(3)拷贝SecondaryNameNode中数据到原namenode存储数据目录

[root@hadoop102 /]# cp -R /opt/module/hadoop-2.7.2/data/tmp/dfs/namesecondary/* /opt/module/hadoop-2.7.2/data/tmp/dfs/name/

(4)重新启动namenode

[root@hadoop102 /]# sbin/hadoop-daemon.sh start namenode

方法二
使用-importCheckpoint选项启动namenode守护进程,从而将SecondaryNameNode用作新的主namenode,案例如下:
(1)修改hdfs-site.xml中的

<property>
  <name>dfs.namenode.checkpoint.period</name>
  <value>120</value>
</property>

<property>
  <name>dfs.namenode.name.dir</name>
  <value>/opt/module/hadoop-2.7.2/data/tmp/dfs/name</value>
</property>

(1)kill -9 namenode进程

[root@hadoop102 /]# kill -9 namenode进程

(2)删除namenode存储的数据(/opt/module/hadoop-2.7.2/data/tmp/dfs/name)

[root@hadoop102 /]# rm -rf /opt/module/hadoop-2.7.2/data/tmp/dfs/name/*

(3)如果SecondaryNameNode不和Namenode在一个主机节点上,需要将SecondaryNameNode存储数据的目录拷贝到Namenode存储数据的平级目录。
★ 需要注意,SecondaryNameNode默认装在哪台主机是在hdfs-site.xml中配置的,如下:

<configuration>
	<property>
		<name>dfs.replication</name>
		<value>3</value>
	</property>

	<property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>hadoop104:50090</value>
    </property>
</configuration>

如上的配置,SecondaryNameNode就装在了hadoop104这台机器,所以需要从hadoop104这台机器将SecondaryNameNode存储数据的目录拷贝到hadoop102这台机器的Namenode存储数据的平级目录。
(4)导入检查点数据

[root@hadoop102 dfs]# bin/hdfs namenode -importCheckpoint

(5)启动namenode

[root@hadoop102 hadoop-2.7.2]# sbin/hadoop-daemon.sh start namenode

如果提示文件锁了,可以删除in_use.lock

[root@hadoop102 /]# rm -rf /opt/module/hadoop-2.7.2/data/tmp/dfs/namesecondary/in_use.lock

五、安全模式

1、概述
Namenode启动时,首先将映像文件(fsimage)载入内存,并执行编辑日志(edits)中的各项操作。一旦在内存中成功建立文件系统元数据的映像,则创建一个新的fsimage文件和一个空的编辑日志。此时,namenode开始监听datanode请求。但是此刻,namenode运行在安全模式,即namenode的文件系统对于客户端来说是只读的。
系统中的数据块的位置并不是由namenode维护的,而是以块列表的形式存储在datanode中。在系统的正常操作期间,namenode会在内存中保留所有块位置的映射信息。在安全模式下,各个datanode会向namenode发送最新的块列表信息,namenode了解到足够多的块位置信息之后,即可高效运行文件系统。
如果满足“最小副本条件”,namenode会在30秒钟之后就退出安全模式。所谓的最小副本条件指的是在整个文件系统中99.9%的块满足最小副本级别(默认值:dfs.replication.min=1)。在启动一个刚刚格式化的HDFS集群时,因为系统中还没有任何块,所以namenode不会进入安全模式。
2、基本语法
集群处于安全模式,不能执行重要操作(写操作)。集群启动完成后,自动退出安全模式。
(1)bin/hdfs dfsadmin -safemode get (功能描述:查看安全模式状态)
(2)bin/hdfs dfsadmin -safemode enter (功能描述:进入安全模式状态)
(3)bin/hdfs dfsadmin -safemode leave (功能描述:离开安全模式状态)
(4)bin/hdfs dfsadmin -safemode wait (功能描述:等待安全模式状态)
3、案例:模拟等待安全模式
(1)先进入安全模式

[root@hadoop102 hadoop-2.7.2]# bin/hdfs dfsadmin -safemode enter

(2)执行下面的脚本
编辑一个脚本

#!/bin/bash
bin/hdfs dfsadmin -safemode wait
bin/hdfs dfs -put ~/hello.txt /root/hello.txt

(3)再打开一个窗口,执行

[root@hadoop102 hadoop-2.7.2]# bin/hdfs dfsadmin -safemode leave

你可能感兴趣的:(hadoop)