return code 3 from org.apache.hadoop.hive.ql.exec.spark.SparkTask. Spark job failed during runtime.
主要是hive-on-spark上的配置当进行insert插入操作时,spark就会报错,运行不起来hive和spark版本适配肯定不必多说我的问题出现在在hive-site.xml配置里面,有个spark延迟响应时间由于我的电脑配置不是很高,之前value写的是10000ms,然后改成300000ms就可以运行了hive.spark.client.connect.timeout300000msh