HDFS(4)- 数据流之读取

HDFS文件读取步骤是怎么样的?我们通过下图中的步骤顺序一步步梳理,然后再看这样设计的好处。


HDFS(4)- 数据流之读取_第1张图片
hdfs-read.png

步骤(Java客户端)

1. open

客户端调用FileSystem对象的open()方法来打开希望读取的文件,对于HDFS来说,FileSystem对象是DistributedFileSystem的一个实例。

2. get block locations

DistributedFileSystem通过使用远程过程调用(RPC)来调用namenode,以确定文件起始块的位置。对于每个块,namenode返回存有该块副本的datanode地址。datanode根据距离客户端的距离来排序,会选择在最近的datanode中读取数据。

3. read,read from FSDataInputStream

DistributedFileSystem类返回一个FSDataInputStream对象给客户端用来读取数据,该对象支持文件定位,该对象对datanodenamenode的I/O进行了封装。客户端对这个输入流代用read()方法。

4. read,read from first datanode

存储着文件起始块的datanode地址的DFSInputStream(3 中的FSDataInputStream封装了DFSInputStream )连接距离最近的文件中的第一个块所在的datanode,通过read()方法,将数据从datanode传输到客户端。

5. read,read from next datanode

读取到块的末端时,DFSInputStream关闭与datanode的连接,然后寻找下一个块的最佳(距离最近)的datanode。对于客户端来说,客户端只是在读取一个连续的流。

6. close

客户端读取完成后,调用FSDataInputStream对象的close()方法关闭流。

设计优势

1. 容错

在 4 和 5 步骤中,如果DFSInputStreamdatanode的通信失败,会尝试从这个块的另一个最邻近的datanode读取数据。也会记住这故障的datanode,并校验从datanode读取到的数据是否完整。如有损坏的块也会尝试从其他datanode读取这个块的副本,并将损坏的块的情况告诉namenode

2. 提高客户端并发

客户端可以直接连接到datanode检索数据,并且namenode告知客户端每个块所在的距离客户端最近的datanode。这样数据流就分散在了集群中的所有的datanode上,使HDFS可以接受大量客户端的并发读取请求。

3. 减轻namenode的处理压力

这样设计namenode只需要响应获取块位置的请求,这些信息由datanode汇报并存在内存中,非常高效,数据响应交给datanode,自身不需要响应数据请求。如果不这样做,namenode将成为瓶颈。

你可能感兴趣的:(HDFS(4)- 数据流之读取)