大数据小白系列——HDFS(1)

大数据小白系列——HDFS(1)_第1张图片

这里是大数据小白系列,介绍大数据生态系统中的主要成员,理解其原理,明白其用途,万一有用呢对不对?

大数据是什么?抛开那些高大上但笼统的说法,我觉得大数据就是说两件事,一、怎么存储大数据,二、怎么计算大数据。

先从存储开始说,如果清晨起床,你的女仆给你呈上一块牛排,牛排太大,一口吃不了,怎么办?拿刀切小。

同样的,如果一份数据太大,一台机器存不了,怎么办?切小了,存到几台机器上。

想要保存海量数据,无限地提高单台机器的存储能力显然是不现实,就好比我们不能把一栋楼盖得无限高一样(通常这不经济),增加机器数量则是相对可持续的方案。

使用多台机器,需要有配套的分布式存储系统把这些它们组织成一个整体,由于Hadoop几乎是目前大数据领域的事实标准,那么这里开始介绍HDFS(Hadoop Distributed Filesystem)。

 

先来介绍几个重要概念。

  • 分片(Shard)

就好比把牛排切成小块,对大的文件进行切分,显然是进行分布式存储的前提,例如,HDFS中通常将数据切分成128MB的块(block)。

大数据小白系列——HDFS(1)_第2张图片

  • 副本(Replica)

三台机器中,如果有一台出现故障,如何保证数据不丢失,那么就是使用冗余的方式,为每一个数据块都产生多个副本。

大数据小白系列——HDFS(1)_第3张图片

下面图示中,任何单独一个节点掉线,都不会造成数据丢失,仍然可以凑齐A、B、C三个数据块。

大数据小白系列——HDFS(1)_第4张图片

当然,如果两个节点同时掉线就不行了。

大数据小白系列——HDFS(1)_第5张图片

不过,如果每个数据块都有两个副本,那么可以承受同时损失两个节点。当然代价是,你的存储成本又上升了。

大数据小白系列——HDFS(1)_第6张图片

  • Master/Slave架构

只有工人而没有包工头的工地肯定是乱糟糟不能很好运作的,所以,除了上面3台负责存储的机器,还需要至少一台机器来领导它们、给它们分配工作,否则谁也没办法知道A、B、C具体应该存在哪个机器上。

DFS中采用Master/Slave架构,其中的NameNode就是Master,负责管理工作;而DataNode就是Slave,负责存储具体的数据。两个角色直接是这么配合工作的:NameNode上管理着元数据,简单的讲就是记录哪个数据块存储在哪台机器上;而DataNode会定时向NameNode汇报自己的工作状态,以便后者监控节点状态、是否故障。

大数据小白系列——HDFS(1)_第7张图片

 

上面说完了几个我觉得需要了解的基础概念,下面我们再把HDFS的读、写流程描述一下。

  • 读取数据

用户询问NameNode,后者提供数据的存储位置,真正的数据读取操作发生在用户和DataNode之间。由于数据有副本,一份数据在多个节点上存在,具体NameNode返回哪个节点,遵循一定的原则(比如,就近原则)。

大数据小白系列——HDFS(1)_第8张图片

 

  • 写入数据

用户询问NameNode,后者提供数据的存储位置,真正的数据写入操作发生在用户和DataNode之间。而副本的制造,是在DataNode之间发生的,例如用户先把数据写入节点1,节点1再把数据复制到节点2等等。

大数据小白系列——HDFS(1)_第9张图片

 

本篇的内容就先到这里。下一篇准备介绍HDFS中的单点问题、HA、Federation等概念。


喜欢本文的朋友们,欢迎长按下图关注订阅号程序员杂书馆,提前获得更多更新内容,更有定期赠书活动

大数据小白系列——HDFS(1)_第10张图片

你可能感兴趣的:(大数据小白系列,大数据,hadoop,hdfs)