hadoop读书笔记MapReduce执行流程

1、  提交作业:主要执行函数submitJob();

     通过调用jobTracker对象的getNewJobId()方法从JobTracker处理取当前作业的ID号;

     检查作业相关路径。

     计算作业的出入划分,并将划分信息写入Job.split文件中。如果吸入失败就会返回错误信息。

     将运行作业所需要的资源---包括作业JAR文件,配置文件和计算所得的输入划分等复制到作业对应的HDFS上。

     调用JobTracker对象的submitJob()方法来真正提交作业;

2、  初始化作业---作业提交后JobTracker会把此调用方法内部TaskScheduler变量中,然后进行调度。当作业被调度执行时,JobTracker会创建一个代表这个作业的JobInprogress对象。JobInProgress对象的initTasks函数会对人物进行初始化。

     HDFS中读取作业对应的Job.split

     创建并初始化MapReduce任务

     初始化两个task;

3、  分配任务:

 taskTracker作业为一个单独的JVM执行一个简单的循环。主要实现每隔一段时间向jobTracker发送心跳:告诉JobTrackerTaskTracker是否存活,是否准备执行新的任务。JobTracker接受到心跳信息。如果有待分配任务。它就会为TaskTracker分配一个任务并将分配信息封装在新掉通信的返回值中返回给TaskTracker

4、  执行任务:

TaskTracker申请到新的任务之后,就要在本地运行任务了。运行任务的第一步是

任务本地化将任务运行所需要的数据配置信息、程序代码从HDFS复制到TaskTracker本地;

5、  更新任务执行进度和状态

通过心跳通信机制,所有TaskTracker的统计信息都会汇总到JobTrackerJobClient通过每秒查看JobTracker来接受作业进度的最新状态。

你可能感兴趣的:(hadoop)