初探MapReduce切片

MapTask并行度决定机制

数据块:Block是HDFS物理上把数据分成一块一块。
数据切片:数据切片只是在逻辑上对输入进行分片,并不会在磁盘上将其切分成片进行存储。

数据切片与MapTask并行度决定机制

初探MapReduce切片_第1张图片

注意第4小点:切片时是逐个针对每一个文件单独切片

Job提交流程

初探MapReduce切片_第2张图片

FileInputFormat源码分析

初探MapReduce切片_第3张图片

FileInputFormat切片机制

初探MapReduce切片_第4张图片

CombineTextInputFormat

1、应用场景:
CombineTextInputFormat用于小文件过多的场景,它可以将多个小文件从逻辑上规划到一个切片中,这样,多个小文件就可以交给一个MapTask处理。

2、虚拟存储切片最大值设置
CombineTextInputFormat.setMaxInputSplitSize(job, 4194304);// 4m

3、切片机制
生成切片过程包括:虚拟存储过程和切片过程二部分。

CombineTextInputFormat切片机制
初探MapReduce切片_第5张图片
(1)虚拟存储过程:
将输入目录下所有文件大小,依次和设置的setMaxInputSplitSize值比较,如果不大于设置的最大值,逻辑上划分一个块。如果输入文件大于设置的最大值且大于两倍,那么以最大值切割一块;当剩余数据大小超过设置的最大值且不大于最大值2倍,此时将文件均分成2个虚拟存储块(防止出现太小切片)。

例如setMaxInputSplitSize值为4M,输入文件大小为8.02M,则先逻辑上分成一个4M。剩余的大小为4.02M,如果按照4M逻辑划分,就会出现0.02M的小的虚拟存储文件,所以将剩余的4.02M文件切分成(2.01M和2.01M)两个文件。

(2)切片过程:
(a)判断虚拟存储的文件大小是否大于setMaxInputSplitSize值,大于等于则单独形成一个切片。
(b)如果不大于则跟下一个虚拟存储文件进行合并,共同形成一个切片。
(c)测试举例:有4个小文件大小分别为1.7M、5.1M、3.4M以及6.8M这四个小文件,则虚拟存储之后形成6个文件块,大小分别为:
1.7M,(2.55M、2.55M),3.4M以及(3.4M、3.4M)
最终会形成3个切片,大小分别为:
(1.7+2.55)M,(2.55+3.4)M,(3.4+3.4)M

使用CombineTextInputFormat

在自定义Driver类中加入以下代码

// 如果不设置InputFormat,它默认用的是TextInputFormat.class
job.setInputFormatClass(CombineTextInputFormat.class);

//虚拟存储切片最大值设置4m
CombineTextInputFormat.setMaxInputSplitSize(job, 4194304);

FileInputFormat实现类总结

初探MapReduce切片_第6张图片
TextInputFormat默认是每次读取一行

使用KeyValueTextInputFormat

conf.set(KeyValueLineRecordReader.KEY_VALUE_SEPERATOR,"分隔符");
// 如果不设置InputFormat,它默认用的是TextInputFormat.class
job.setInputFormatClass(KeyValueTextInputFormat.class);

使用KeyValueTextInputFormat

NLineInputFormat.setNumLinesPerSplit(job,行数);
// 如果不设置InputFormat,它默认用的是TextInputFormat.class
job.setInputFormatClass(NLineInputFormat.class);

你可能感兴趣的:(Hadoop)