spark 日志分析

spark 运行日志分析

1.问题:一直在运行的spark 运行时,发现数据应该690多万,而只有610多万,控制台日志正常。异常出现异常时,在控制台中日志正常。怎样查找这个错误异常日志

2.处理:由于数据量比较大计算一次需要30多分钟,因此在运行采用二分进行原因分析,最后确定是9.17日的数据,然后在开发环境进行,发现 java.lang.ArrayIndexOutOfBoundsException: 6 最后跟踪是订单号为空导致插入mysql 数据时解析日常。调整后系统正常。这个问题最好在运行环境能够分析。但是不知道日志在哪里?分析了一天也没有找到日志,后台突发奇想,查找Except 异常关键字。spark-1.3.1-bin-hadoop2.6/work 目录下,find . | xargs grep -ri "Exception"  确定日志位置,./app-20150930194859-0035/2/stderr:java.lang.ArrayIndexOutOfBoundsException: 6 ,这样以后出现类似异常就可以采用类似方式查找分析原因。

你可能感兴趣的:(spark 日志分析)