return code 3 from org.apache.hadoop.hive.ql.exec.spark.SparkTask. Spark job failed during runtime.

主要是 hive-on-spark 上的配置

当进行insert插入操作时,spark就会报错,运行不起来

hive和spark版本适配肯定不必多说

我的问题出现在 在 hive-site.xml配置里面,有个spark延迟响应时间
由于我的电脑配置不是很高,之前value写的是10000ms,
然后改成300000ms就可以运行了

hive.spark.client.connect.timeout 300000ms
    
        hive.execution.engine
        spark
    
    
        hive.spark.client.connect.timeout
        300000ms
    

你可能感兴趣的:(大数据开发,hive,spark,hadoop)