新一代mapreduce体系架构介绍-YARN

最近研究了下新一代的mapreduce框架YARN,这里先对YARN框架的引入和架构做个介绍,后续针对每一块做深入分析

从Hadoop0.23版本开始对于mapduce计算框架,就完全是新的架构了(YARN)。老的版本MRv1 Jobtracker中存在单点,功能比较多的问题,负责资源管理调度和job的生命周期管理(task调度,跟踪task过程状态,task处理容错),这样当大量的任务需要处理时,单个的jobtracker无论在内存还是其他资源方面总存在瓶颈,在伸缩性、资源利用率、运行除mapreduce的其他任务等方面都会有限制。

MRv2 Yarn框架把资源调度和task管理监控分离开来,由资源管理器NodeManager负责资源调度,每一个application(job)由一个AppMaster负责对task进行调度管理监控,并且可以监控AppMaster的状态,有问题可以在其他节点重启。

MRv1 mapreduce框架使用slot做资源表示单位,并且map slotreduce slot分离的,这样资源不能共享,资源利用率不高,yarn使用节点的cpu、内存等资源作为资源表示单位,大大提高了资源利用率。

MRv1只支持批量的mapreduce计算,MRv2 yarn框架提供ApplicationMaster插件式的框架库,支持除了mapreduce外的其他的计算,如实时近实时的流处理,MPI等等,使得hadoop成为一个资源和数据共享的基础计算框架,减少集群运维成本,提高资源利用率。

MRv2 JobHistory JobTracker中分离出来,减轻JobTracker的压力。

新一代mapreduce体系架构介绍-YARN_第1张图片

上图是yarn的架构,主要包括以下这几种角色

ResourceManager(RM):主要接收客户端任务请求,接收和监控NodeManager(NM)的资源情况汇报,负责资源的分配与调度,启动和监控ApplicationMaster(AM)

NodeManager:主要是节点上的资源管理,启动Container运行task计算,上报资源、container情况给RM和任务处理情况给AM

ApplicationMaster:主要是单个Application(Job)task管理和调度,向RM进行资源的申请,向NM发出launch Container指令,接收NMtask处理状态信息。

下面简单介绍一下提交一个job的处理过程,

1、client submit一个jobRM,进入RM中的Scheduler队列供调度

2、RM根据NM汇报的资源情况(NM会定时汇报资源和container使用情况),请求一个合适的NM launch container,以启动运行AM

3、AM启动后,注册到RM上,以使client可以查到AM的信息,便于client直接和AM通信

4、AM启动后,根据Job 相关的splittask情况,会和RM协商申请container资源

5、RM分配给AM container资源后,根据container的信息,向对应的NM 请求launch container

6、NM启动container运行task,运行过程中向AM汇报进度状态信息,类似于MRv1中 task的汇报;同时NM也会定时的向RM汇报container的使用情况。

7、在application(job)执行过程中,client可以和AM通信,获取application相关的进度和状态信息。

8、在application(job)完成后,AM通知RM clear自己的相关信息,并关闭,释放自己占用的container

 

 

你可能感兴趣的:(架构,yarn)