HDFS组成架构、文件块大小

1. HDFS组成架构

HDFS组成架构、文件块大小_第1张图片

(1)NameNode(nn):就是Master,它是一个主管、管理者

                1) 管理HDFS的名称空间

                2) 配置副本策略

                3) 管理数据块(Block)映射信息

                4) 处理客户端读写请求

(2)DateNode:就是Slave。NameNode下达命令,DataNode执行实际的操作   

                1) 存储实际的数据块

                2) 执行数据块的读/写操作

(3)Client:客户端

                1)文件切分。文件上次HDFS的时候,Client将文件切分成一个一个的Block,然后进行上传;

                2)与NameNode交互,获取文件的位置信息

                3)与DataNode交互,读取或者写入数据

                4)Client提供一些命令来管理HDFS,比如NameNode格式化

                5)Client可以通过一些命令来访问HDFS,比如对HDFS增删查改操作

(4)Secondary NameNode :并非NameNode的热备。当NameNode挂掉的时候,它并不能马上替换掉NameNode并提供服务

                1)辅助NameNode,分担其工作量,比如定期合并Fsimage和Edits,并推送给NameNode

                2)在紧急情况下,可辅助回复NameNode

2. HDFS文件块大小

HDFS中的文件在物理上式分开存储(Block),块的大小可以通过配置参数(dfs.blocksize)来规定。默认大小在Hadoop2.x/3.x版本中是128M,1.x版本中式64M

如果寻址时间为10ms,即查找到目标block的时间为10ms

寻址时间为传输时间的1%时,则为最佳状态,因此传输时间=10ms/0.01=1000ms = 1s

目前机械硬盘传输速率普遍为100MB/s

因此,Block大小 = 1s * 100MB/s = 100MB  取整为256MB

为什么块的大小不能设置太小,也不能设置太大?

(1)HDFS块设置太小会增加寻址时间,程序一致在找块的开始位置

(2)如果块设置的太大,从磁盘传输数据的时间会明显大于定位这个块开始位置所需的时间。导致程序在处理这块数据时,会非常慢。

总结:HDFS块的大小设置主要取决于磁盘传输速率

你可能感兴趣的:(Hadoop,hdfs,架构,hadoop)