Spark错误异常-stdout日志乱码

       采用Apache版本Spark1.2.1时没有出现乱码,但Spark-1.1.0-cdh5.2.1版本中,在分布处理的map函数里对中文数据进行debug打印输出进行时出现问号乱码

val rs = rdd.filter(e => {val (lable,text) = (e._2(2), e._2(3));  m.filterItem(lable, text) })
           .reduceByKey((x,y) => m.merge(x, y))
           .map{case (x,y) => {println(x + "\t" + y);  (x._1.toLong, x._2, y(1), y(3) )}}

// 打印输出内容
china.cn/, A0, ,???:???,,??:?????????????138?,??:7975209__??:15028078833__??:15176090928,,,,,,,,????:???????????????????????(11)???,,,,, false, 4, 7)
?????????????   17      ,???:???,,??:?????????????138?,??:7975209__??:15028078833__??:15176090928,,,,,,,,????:???????????????????????(11)???,,,,
在/var/run/spark/work/目录中查看应用目录app-20150605171809-0003中的stdout文件文件格式

stderr:                           ASCII C++ program text
stdout:                           UTF-8 Unicode text, with very long lines
stdout是ASCII编码的,对中文肯定显示不了

在使用service启动Java程序时,机器上hadoop中stdout输出的日志也是是中文乱码,怀疑是service启动时载入的环境变量不匹配
修改 /sbin/service  ,在env -i 后面加上 LANG="$LANG",重启spark的各节点

service spark-master restart
service spark-worker restart
最后重新运行程序,日志文件stdout文件中文显示正常.


你可能感兴趣的:(spark,spark,乱码,stdout)