Map/Reduce是大数据运算中的一个并行计算框架,用于在集群上并行处理大量数据(TB级数据)。
在HDFS存储数据以Block块的形式储存,而一个Input Spilt块儿约等于一个Block块儿,因为文件存入时是以字节拆分的,所以每个Input Spilt末尾如果信息不全就会到下个Block中将信息取出合并;
之后就进行Map Task操作,将每一行数据处理,并根据需求封装Key与Value值,每一个;
在通过Map Task操作时会将每一条数据打上一个标签,该标签是为了让每条数据知道将会到哪个Reduce中去执行,一般数值 = Key的HashCode 与 Reduce Task的总数 取模,每一个字符串都有一个独一无二的HashCode ,该标签一般称为分区号;
之后会将数据一条一条存入到默认大小为100M(可自定义),位置在内存上的一个buffer块,当写入数据超过总大小的80%时会封锁该buffer,同时会根据分区号将数据进行小聚合(combiner)与排序(sort),目的是将相同分区的数据放在一起并排序,提高效率。而超出的数据将会溢写到磁盘中,每一次溢写都会产生一个小文件;
Map Task计算完成后会将磁盘中的小文件合并成一个大文件,在合并的时候使用归并排序将所有小文件合并为一个有序的大文件,所有Map Task都会进行以上操作并产生一个分区内部有序的大文件;
去Map端读取相应分区的数据,将分区数据写到70%内存中,当写入超过内存的66%时将会封锁并排序,最后将溢写产生的磁盘小文件合并并排序;
注意:所有排序都是为了提高分组的效率
在框架运行中需要先向ResourceManager发送请求,请求启动一个Application用于任务调度,ResourceManager就会从其他服务器中随机选一台创建容器container用于ApplicationMaster;
之后ApplicationMaster从客户端Client拿到生成列表后会向ResourceManager申请资源,ResourceManager就会在存放相应数据的DataNode节点下分配容器container用于Map Task,之后将结果返回给客户端Client;
因为ApplicationMaster挂掉,整个集群就会停止,所以ApplicationMaster将会将自身状态实时汇报给ResourceManager。ApplicationMaster一旦挂掉,ResourceManager就会重新启动ApplicationMaster,所以ResourceManager就会有很大压力,所以我们需要有一个备用ResourceManager和对ResourceManager实时监控的zooKeeper集群,防止单点错误。
1. 在之前HA完全分布式的基础在四台虚拟机上修改mapred-site.xml,将一下代码添加到
标签中:
2. 修改yarn-site.xml,将一下代码添加到
标签中:
3. 在Lucian-02、03、04节点中控制台输入==./zkServer.sh start==开启ZooKeeper集群
4. 在Lucian-01节点中控制台输入start-dfs.sh开启hadoop集群,并在01节点中输入start-yarn.sh开启yarn资源控制器,在02节点中输入yarn-daemon.sh start resourcemanager开启备用ResourceManager;
5. 在浏览器中输入Lucian-01:8088查看是否配置成功。