Hadoop 1 ~ Hadoop 3 的发展史

Hadoop简介

        Hadoop到目前为止发展已经余年了,版本经过了无数次的更新迭代,目前市面上已经把Hadoop分为Hadoop1、Hadoop2、Hadoop3三个版本。


Hadoop1介绍

        Hadoop1版本刚出来的时候是为了解决两个问题:一个是海量数据如何存储的问题,一个是海量数据如何计算的问题。Hadoop1的核心设计就是HDFS(Hadoop Distributed File System)和MapReduce。HDFS解决了海量数据存储的问题。MapReduce解决了海量数据如何计算的问题

HDFS1的架构:

HDFS1: 是一个主从式的架构,主节点只有一个叫NameNode、从节点多个叫DateNode。

NameNode
1、管理元数据信息(文件的目录树)、文件与Block块,Block块与DataNode主机的关系。
2、NameNode为了快速响应用户的操作请求(列如:上传文件、下载文件、增、删、改、查)所以将元素据信息加载在内存中。

DataNode
1、存储数据,把上传的数据划分成为固定大小的文件块(Hadoop1,默认是64MB)。
2、为了保证数据的安全,每个文件默认都有三个副本 。
Hadoop 1 ~ Hadoop 3 的发展史_第1张图片
HDFS1场景解释: 它会将这个128M的文件按照每块64MB进行切分,然后将它们上传到DataNode中。


HDFS1的架构缺陷:

         单点故障问题
         内存受限问题


由此原因HDFS2便诞生了

单点故障的解决方案:
        方案一:使用两台NameNode,然后做个共享目录,将元素据都放到共享目录中。但是只要共享目录出问题,两台NameNode便都会出问题。

        方案二:使用两台服务器做hadoop的高可用。仅使用JournalNode的话active NameNode宕机后还需要手动重启,不推荐。推荐加上zookeeper。
流程:
1.在两个节点上都安装一个NameNode。
2.每个NameNode所在的节点中都有一个监控器ZKFC。
3.监控器会监控NameNode的状态,并在zk中注册节点。
4.两个NameNode谁先在zk中注册成功则谁就是active状态,剩下的那个则是standby。
5.如果active节点挂掉了,监控器则将zk中注册的节点注销掉。
6.standby中的监控器一旦检测到zk中的节点消失,则立即注册并通知standby状态的NameNode开始工作,standby会先去远程执行kill -9 activeNameNode节点的端口 杀死他后 开始切换到active状态开始工作。
7.activeNameNode和standbyNameNode是使用JN进行做主从复制的。
Hadoop 1 ~ Hadoop 3 的发展史_第2张图片
内存受限的解决方案:
        利用QJM(联邦)方案,做多个高可用的hadoop集群,每个HA集群之间存储的元数据信息都不一样,但集群与集群之间是一个整体,DataNode之间元数据也还是共享的。
Hadoop 1 ~ Hadoop 3 的发展史_第3张图片
总结:hadoop2.0比hadoop1.0多了资源管理器YARN,不仅限于MapReduce一种计算框架了,也可以为其他框架使用,如Tez、Spark、Storm等。hadoop还增加了HA高可靠机制。hadoop2后block块的切分大小默认就是128MB了。

扩展:hadoop2后block块的切分大小默认就是128MB的缘由

HDFS中块(block)的大小为什么设置为128M?
HDFS中平均寻址时间大概为10ms;
经过前人的大量测试发现,寻址时间为传输时间的1%时,为最佳状态;
所以最佳传输时间为10ms/0.01=1000ms=1s
目前磁盘的传输速率普遍为100MB/s;
计算出最佳block大小:100MB/s x 1s = 100MB
所以我们设定block大小为128MB。
实际在工业生产中,磁盘传输速率为200MB/s时,一般设定block大小为256MB
磁盘传输速率为400MB/s时,一般设定block大小为512MB。
思考:为什么块的大小不能设置太小,也不能设置太大?
(1)HDFS的块设置太小,会增加寻址时间,程序一直在找块的开始位置;
(2)如果块设置的太大,从磁盘传输数据的时间会明显大于定位这个块开始位置所需的时间。导致程序在处理这块数据时,会非常慢。
总结:HDFS块的大小设置主要取决于磁盘传输速率,这也是因为128MB刚好是最佳的传输损耗
如果你的磁盘传输速率很高的话,你完全可以加大块的大小。


HDFS3相对于hadoop2的 新特性

主要两点是:

支持多余2个以上的NameNodes
        针对HDFS NameNode的高可用性,最初实现方式是提供一个活跃的(active)NameNode和一个备用的(Standby)NameNode。通过对3个JournalNode的法定数量的复制编辑,使得这种架构能够对系统中任何一个节点的故障进行容错。

        该功能能够通过运行更多备用NameNode来提供更高的容错性,满足一些部署的需求。比如,通过配置3个NameNode和5个JournalNode,集群能够实现两个节点故障的容错。

HDFS支持纠删码(erasure coding)
        纠删码是一种比副本存储更节省存储空间的数据持久化存储方法。比如Reed-Solomon(10,4)标准编码技术只需要1.4倍的空间开销,而标准的HDFS副本技术则需要3倍的空间开销。由于纠删码额外开销主要在于重建和远程读写,它通常用来存储不经常使用的数据(冷数据)。另外,在使用这个新特性时,用户还需要考虑网络和CPU开销。

扩展(HDFS3相对于hadoop2的 新特性):

最低Java版本要求从Java7变为Java8
        所有Hadoop的jar都是基于Java 8运行是版本进行编译执行的,仍在使用Java 7或更低Java版本的用户需要升级到Java 8。

HDFS支持纠删码(erasure coding)
        纠删码是一种比副本存储更节省存储空间的数据持久化存储方法。比如Reed-Solomon(10,4)标准编码技术只需要1.4倍的空间开销,而标准的HDFS副本技术则需要3倍的空间开销。由于纠删码额外开销主要在于重建和远程读写,它通常用来存储不经常使用的数据(冷数据)。另外,在使用这个新特性时,用户还需要考虑网络和CPU开销。

YARN时间线服务 v.2(YARN Timeline Service v.2)
        YARN Timeline Service v.2用来应对两个主要挑战:(1)提高时间线服务的可扩展性、可靠性,(2)通过引入流(flow)和聚合(aggregation)来增强可用性。为了替代Timeline Service v.1.x,YARN Timeline Service v.2 alpha 2被提出来,这样用户和开发者就可以进行测试,并提供反馈和建议,不过YARN Timeline Service v.2还只能用在测试容器中。

重写Shell脚本
        Hadoop的shell脚本被重写,修补了许多长期存在的bug,并增加了一些新的特性。

覆盖客户端的jar(Shaded client jars)
在2.x版本中,hadoop-client Maven artifact配置将会拉取hadoop的传递依赖到hadoop应用程序的环境变量,这回带来传递依赖的版本和应用程序的版本相冲突的问题。

        HADOOP-11804 添加新 hadoop-client-api和hadoop-client-runtime artifcat,将hadoop的依赖隔离在一个单一Jar包中,也就避免hadoop依赖渗透到应用程序的类路径中。

支持Opportunistic Containers和Distributed Scheduling
        ExecutionType概念被引入,这样一来,应用能够通过Opportunistic的一个执行类型来请求容器。即使在调度时,没有可用的资源,这种类型的容器也会分发给NM中执行程序。在这种情况下,容器将被放入NM的队列中,等待可用资源,以便执行。Opportunistic container优先级要比默认Guaranteedcontainer低,在需要的情况下,其资源会被抢占,以便Guaranteed container使用。这样就需要提高集群的使用率。

Opportunistic container默认被中央RM分配,但是,目前已经增加分布式调度器的支持,该分布式调度器做为AMRProtocol解析器来实现。

MapReduce任务级本地优化
        MapReduce添加了映射输出收集器的本地化实现的支持。对于密集型的洗牌操作(shuffle-intensive)jobs,可以带来30%的性能提升。

支持多余2个以上的NameNodes
        针对HDFS NameNode的高可用性,最初实现方式是提供一个活跃的(active)NameNode和一个备用的(Standby)NameNode。通过对3个JournalNode的法定数量的复制编辑,使得这种架构能够对系统中任何一个节点的故障进行容错。

        该功能能够通过运行更多备用NameNode来提供更高的容错性,满足一些部署的需求。比如,通过配置3个NameNode和5个JournalNode,集群能够实现两个节点故障的容错。

修改了多重服务的默认端口
        在之前的Hadoop版本中,多重Hadoop服务的默认端口在Linux临时端口范围内容(32768-61000),这就意味着,在启动过程中,一些服务器由于端口冲突会启动失败。这些冲突端口已经从临时端口范围移除,NameNode、Secondary NameNode、DataNode和KMS会受到影响。我们的文档已经做了相应的修改,可以通过阅读发布说明 HDFS-9427和HADOOP-12811详细了解所有被修改的端口。

提供文件系统连接器(filesystem connnector),支持Microsoft Azure Data Lake和Aliyun对象存储系统
Hadoop支持和Microsoft Azure Data Lake和Aliyun对象存储系统集成,并将其作为Hadoop兼容的文件系统。

数据节点内置平衡器(Intra-datanode balancer)
        在单一DataNode管理多个磁盘情况下,在执行普通的写操作时,每个磁盘用量比较平均。但是,当添加或者更换磁盘时,将会导致一个DataNode磁盘用量的严重不均衡。由于目前HDFS均衡器关注点在于DataNode之间(inter-),而不是intra-,所以不能处理这种不均衡情况。

        在hadoop3 中,通过DataNode内部均衡功能已经可以处理上述情况,可以通过hdfs diskbalancer ClI来调用。

重写了守护进程和任务的堆管理机制
        针对Hadoop守护进程和MapReduce任务的堆管理机制,Hadoop3 做了一系列的修改。

         HADOOP-10950 引入配置守护进程堆大小的新方法。特别地,HADOOP_HEAPSIZE配置方式已经被弃用,可以根据主机的内存大小进行自动调整。

        MAPREDUCE-5785 简化了MAP的配置,减少了任务堆的大小,所以不需要再任务配置和Java可选项中明确指出需要的堆大小。已经明确指出堆大小的现有配置不会受到该改变的影响。

S3Gurad:为S3A文件系统客户端提供一致性和元数据缓存
        HADOOP-13345 为亚马逊S3存储的S3A客户端提供了可选特性:能够使用DynamoDB表作为文件和目录元数据的快速、一致性存储。

HDFS的基于路由器互联(HDFS Router-Based Federation)
        HDFS Router-Based Federation添加了一个RPC路由层,为多个HDFS命名空间提供了一个联合视图。这和现有的ViewFs、HDFS Federation功能类似,区别在于通过服务端管理表加载,而不是原来的客户端管理。从而简化了现存HDFS客户端接入federated cluster的操作。

基于API配置的Capacity Scheduler queue configuration
        OrgQueue扩展了capacity scheduler,提供了一种编程方法,该方法提供了一个REST API来修改配置,用户可以通过远程调用来修改队列配置。这样一来,队列的administer_queue ACL的管理员就可以实现自动化的队列配置管理。

YARN资源类型
         Yarn资源模型已经被一般化,可以支持用户自定义的可计算资源类型,而不仅仅是CPU和内存。比如,集群管理员可以定义像GPU数量,软件序列号、本地连接的存储的资源。然后,Yarn任务能够在这些可用资源上进行调度。

你可能感兴趣的:(hadoop)