org.apache.spark.sql.catalyst.errors.package$TreeNodeException: execute, tree:

这个报错是生成计划树的时候报的错,由于业务比较复杂,spark 会生成plan 可能再某个地方出错,而直接抛出了这个错误,就好比java 中 try catch  写了个 Exception 抓个大异常。具体错误需要一步一步的排查,从创建数据源开始。

  举个例子:用spark-sql 读取 hive 和hbase 相互映射的表,如果不一步步排查 ,那么就会抱着个错,可以选择什么都不做,直接

select * from tablename  就可以明确的知道报错信息了 。可能缺少 hive-hbase-handler-2.3.2.jar 这个jar包,会爆出找不到这个类,spark 有时候报的错就是很让人摸不到头脑。

 

你可能感兴趣的:(Linux)