来源:http://dongyajun.iteye.com/blog/627905
对原作者表示感谢,此文章的hadoop版本可能较低,仅作参考
关于想了解HDFS的源码的朋友, 可以到蔡斌大哥那读读他的javaeye.
很抱歉, 我用了神秘杀手一词, 因为它实在害我太惨, 又花了好大精力才把它给拎出来。
近来在测试Hadoop时, 使用NameNode身上的dfshealth.jsp 管理页面发现,DataNode在运行的过程中, Last Contact 参数时常会超过3。LC(Last Contact)的意思是表明DataNode有多少秒的时间未向NameNode发送心跳包了. 然而默认DataNode是3秒发送一次, 我们都知道,NameNode默认以10分钟作为DN的死亡超时时间,那么究竟有哪些因素会导致JSP管理页面LC参数超过3,甚至会达到200以上,这样的情况对我们的系统的稳定运行究竟有没有影响?
事实上,这现象我观察了好一阵子,影响LC参数增大的原因有下面几种情况:
1. HDFS收到大量删除BLOCK的命令. 请参见:https://issues.apache.org/jira/browse/HDFS-611;
2. HDFS 有大量BLOCK需要report 给NN;
3. 组织心跳包的数据;
4. 网络环境。
前两种情况LC的值一般不会超过100,对性能不会造成很大影响。 Hadoop-0.22.0 以后版本,Hadoop也有所改进。
那么值的一提的是DN在组织心跳包期间,对FSDatasetInterface 接口进行了相关方法的调用,具体可以参考一下FSDatasetMBean接口中的几个方法:
/**
* Returns the total space (in bytes) used by dfs datanode
* @return the total space used by dfs datanode
* @throws IOException
*/
public long getDfsUsed() throws IOException;
/**
* Returns total capacity (in bytes) of storage (used and unused)
* @return total capacity of storage (used and unused)
* @throws IOException
*/
public long getCapacity() throws IOException;
/**
* Returns the amount of free storage space (in bytes)
* @return The amount of free storage space
* @throws IOException
*/
public long getRemaining() throws IOException;