云计算分布式大数据Hadoop实战高手之路第七讲Hadoop图文训练课程:通过HDFS的心跳来测试replication具体的工作机制和流程

这一讲主要深入使用HDFS命令行工具操作Hadoop分布式集群,主要是通过实验的配置hdfs-site.xml文件的心跳来测试replication具体的工作和流程。

通过HDFS的心跳来测试replication具体的工作机制和流程的PDF版本请猛击这里

 

王家林的“云计算分布式大数据Hadoop实战高手之路”之完整发布目录

 

云计算分布式大数据实战技术Hadoop交流群:312494188,每天都会在群中发布云计算实战性资料,欢迎大家加入!

 

王家林 第六讲Hadoop图文训练课程:使用HDFS命令行工具操作Hadoop分布式集群初体验中,我们配置了hadoop.main这台主机的hdfs-site.xml这个配置文件的“dfs.replication”的值为2:

 

当我们上传文件时候文件会保存2份副本:

下面我们通过实验的方式探究replication属性配置的作用。

首先关闭集群:

然后修改hadoop.main这台机器上的hdfs-site.xml配置文件:

在这个配置文件中加入新的配置信息:

保存退出。

新加入的配置信息:

的具体含义是当DataNode和NameNode的心跳失去连接的时间超过15秒之后,Hadoop系统就会认为这个DataNode已经死亡,此时Hadoop会把这个DataNode标记为不能工作的状态,以后如果客户端去 访问数据的时候,Hadoop就不会尝试到这个DataNode去获取数据。

下面看一下其工作的具体方式:

首先启动HDFS:

进入HDFS的Web监控台的Node页面:

我们发现hadoop.main和hadoop.slave这两个DataNode均在正常的工作中。

我们观察到“Last Contact”选项的数据,该数据是表明DataNode和NameNode最近联系的心跳成功的时间,我们再次刷新页面看一下这个数据:

我们发现这个具体的数据时比较低的。

此时我们通过命令行工作查看datanode进程:

你可能感兴趣的:(Replication)