Hadoop Streaming 实战: 输出文件分割

我们知道,Hadoop streaming框架默认情况下会以'/t’作为分隔符,将每行第一个'/t’之前的部分作为key,其余内容作为value,如果没有'/t’分隔符,则整行作为key;这个 key/t value对又作为reduce的输入。hadoop 提供配置供用户自主设置分隔符。
      -D stream.map.output.field.separator :设置map输出中key和value的分隔符
      -D stream.num.map.output.key.fields :  设置map程序分隔符的位置,该位置之前的部分作为key,之后的部分作为value
       -D map.output.key.field.separator : 设置map输出中key内部的分割符
      -D num.key.fields.for.partition : 指定分桶时,key按照分隔符切割后,其中用于分桶key所占的列数(配合-partitioner org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner 使用)
      -D stream.reduce.output.field.separator:设置reduce输出中key和value的分隔符
      -D stream.num.reduce.output.key.fields:设置reduce程序分隔符的位置

      实例:
      1. 编写map程序mapper.sh;reduce程序reducer.sh; 测试数据test.txt
[html] view plain copy
  1. mapper.sh:  
  2. #!/bin/sh  
  3. cat  
  4.   
  5. reducer.sh:  
  6. #!/bin/sh  
  7. sort  
  8.   
  9. test.txt内容:  
  10. 1,2,1,1,1  
  11. 1,2,2,1,1  
  12. 1,3,1,1,1  
  13. 1,3,2,1,1  
  14. 1,3,3,1,1  
  15. 1,2,3,1,1  
  16. 1,3,1,1,1  
  17. 1,3,2,1,1  
  18. 1,3,3,1,1  

       2.  test.txt放入hadoop,两种方式运行
           1)无分隔符设置运行

[html] view plain copy
  1. $ hadoop fs -put test.txt /app/test/  
  2. $ hadoop streaming -input /app/test/test.txt /  
  3.     -output /app/test/test_result /  
  4.     -mapper ./mapper.sh -reducer ./reducer.sh   
  5.     -file mapper.sh -file reducer.sh /  
  6.     -jobconf mapred.reduce.tasks=2 /  
  7.     -jobconf mapre.job.name="sep_test"  
  8. $ hadoop fs –cat /app/test/test_result/part-00000  
  9.     1,2,2,1,1  
  10.     1,3,1,1,1  
  11.     1,3,1,1,1  
  12.     1,3,3,1,1  
  13.     1,3,3,1,1  
  14. $ hadoop fs –cat /app/test/test_result/part-00001  
  15.     1,2,1,1,1  
  16.     1,2,3,1,1  
  17.     1,3,2,1,1  
  18.     1,3,2,1,1  

           2)设置分隔符运行

[html] view plain copy
  1. $ hadoop streaming -D stream.reduce.output.field.separator=,   
  2.         -D stream.num.reduce.output.key.fields=2   
  3.          -input /app/test/test.txt  
  4.         -output /app/test/test_result_1   
  5.         -mapper ./mapper.sh -reducer ./reducer.sh       
  6.         -file mapper.sh   -file reducer.sh   
  7.         -jobconf mapred.reduce.tasks=2   
  8.         -jobconf mapre.job.name="sep_test"  
  9. $ hadoop fs -cat /app/test/test_result_1/part-00000  
  10.     1,2     1,1,1  
  11.     1,2     2,1,1  
  12.     1,2     3,1,1  
  13. $ hadoop fs -cat /app/test/test_result_1/part-00001  
  14.     1,3     1,1,1  
  15.     1,3     1,1,1  
  16.     1,3     2,1,1  
  17.     1,3     2,1,1  
  18.     1,3     3,1,1  
  19.     1,3     3,1,1 

你可能感兴趣的:(Hadoop Streaming 实战: 输出文件分割)