Hadoop: 单词计数(Word Count)的MapReduce实现

首先,Hadoop会把输入数据划分成等长的输入分片(input split) 或分片发送到MapReduce。Hadoop为每个分片创建一个map任务,由它来运行用户自定义的map函数以分析每个分片中的记录。在我们的单词计数例子中,输入是多个文件,一般一个文件对应一个分片,如果文件太大则会划分为多个分片。map函数的输入以

你可能感兴趣的:(Hadoop: 单词计数(Word Count)的MapReduce实现)