job.getConfiguration().set(NLineInputFormat.LINES_PER_MAP,"500");
3、将输出忽略KEY值(即输出时不带有KEY值,直接为每行一个VALUE)
这样的输出其实最简单的就是在输出时KEY值使用NullWritable.get()作类型即可,如:
context.write(NullWritable.get(),new Text("aaa"));
也可以重写格式化输出类。
4、输出时按情况使用不同的文件名输出结果
这种情况也可以重写格式化输出类实现。
这里说一种简单的方法:
1)、先在提交JOB之前,设置多行输出别名,设置其别名,输出类型,Key类型,value类型
MultipleOutputs.addNameOutput(job,"corpInfo",TextOutputFormat.class,Text.class,Text.class);
MultipleOutputs.setCounterEnabled(job,true);//重设别名输出后,其计算器要设置才能显示输出数
注:设置的别名只是标识输出格式,key格式,value格式的一个类变量。即表示,如果你要输出的文件有多种不同的格式标识,则设置多个别名以标示输出格式。
2)、在map中声明输出
private MultipleOutputs outs;
}
5)在map中使用
outs.write("corpInfo",NullWritable.get(),new Text("aaa"),"result");
参数为:输入别名,KEY,VALUE,文件名
当要输出的数据其输出格式都一致时,可以用相同的别名进行输出成不同的文件名,文件名一般会加一些后缀,一般为机器节点标识值,如result0001
注:上面是MAP的输出,reduce也是一样的:声明输出类,实例化,使用
5、关于输入输出编码
hadoop源代码中涉及编码问题时都是写死的utf-8,但是不少情况下,也会遇到输入文件和输出文件需要GBK编码的情况。
输入文件为GBK,则只需在mapper或reducer程序中读取Text时,使用new String(text.getBytes(), 0, text.getLength(), encoding)进行一下转码即可正常读出。
输出文件为GBK,则重写TextOutputFormat类,如public class GBKFileOutputFormat<K, V> extends FileOutputFormat<K,V>,
把TextOutputFormat的源码拷过来,然后把里面写死的utf-8编码改成GBK编码。最后,在run程序中,设置job.setOutputFormatClass(GBKFileOutputFormat.class);