Hadoop3.0版本新特性

Hadoop 2.0是基于JDK 1.7开发的,而JDK 1.7在2015年4月已停止更新,这直接迫使Hadoop社区基于JDK 1.8重新发布一个新的Hadoop版本,而这正是hadoop 3.0。

Hadoop 3.0中引入了一些重要的功能和优化,包括HDFS 可擦除编码、多Namenode支持、MR Native Task优化、YARN基于cgroup的内存和磁盘IO隔离、YARN container resizing等。

hadoop3.x将会调整方案架构,将Mapreduce基于内存+io+磁盘,共同处理数据。其实最大改变的是hdfs,hdfs 通过最近black块计算,根据最近计算原则,本地black块,加入到内存,先计算,通过IO,共享内存计算区域,最后快速形成计算结果。

1.Hadoop Common
(1)精简Hadoop内核,包括剔除过期的API和实现,将默认组件实现替换成最高效的实现(比如将FileOutputCommitter缺省实现换为v2版本,废除hftp转由webhdfs替代,移除Hadoop子实现序列化库org.apache.hadoop.Records。
(2)Classpath isolation以防止不同版本jar包冲突
比如google Guava在混合使用Hadoop、HBase和Spark时,很容易产生冲突
(3)Shell脚本重构。 Hadoop 3.0对Hadoop的管理脚本进行了重构
修复了大量bug,增加了新特性,支持动态命令等。

2.Hadoop HDFS
(1)HDFS支持数据的擦除编码,这使得HDFS在不降低可靠性的前提下,节省一半存储空间
(2)多NameNode支持,即支持一个集群中,一个active、多个standby namenode部署方式

3.Hadoop MapReduce
(1)Tasknative优化。为MapReduce增加了C/C++的map output collector实现(包括Spill,Sort和IFile等),通过作业级别参数调整就可切换到该实现上。对于shuffle密集型应用,其性能可提高约30%。
(2)MapReduce内存参数自动推断。在Hadoop 2.0中,为MapReduce作业设置内存参数非常繁琐,涉及到两个参数:mapreduce.{map,reduce}.memory.mb和mapreduce.{map,reduce}.java.opts,一旦设置不合理,则会使得内存资源浪费严重,比如将前者设置为4096MB,但后者却是“-Xmx2g”,则剩余2g实际上无法让java heap使用到。

4.Hadoop YARN
(1)基于cgroup的内存隔离和IO Disk隔离(https://issues.apache.org/jira/browse/YARN-2619)
(2)用curator实现RM leader选举(https://issues.apache.org/jira/browse/YARN-4438)
(3)containerresizing(https://issues.apache.org/jira/browse/YARN-1197)
(4)Timelineserver next generation (https://issues.apache.org/jira/browse/YARN-2928)

Hadoop3.0 总结
1、JDK版本的最低依赖从1.7变成了1.8;
2、HDFS支持Erasure Encoding;
3、Timeline Server v2版本;
4、hadoop-client这个依赖分为hadoop-client-api和hadoop-client-runtime两个依赖;
5、支持随机container和分布式调度;
6、MR进行了task级别的本地优化,性能提升30%;
7、支持多个Standby状态的NameNode;
8、多个端口被改动;
9、 支持微软的Azure分布式文件系统和阿里的aliyun分布式文件系统;
10、datanode内部添加了负载均衡;

你可能感兴趣的:(hadoop)