Spark整合hive的时候出错

Spark整合hive的时候
连接Hdfs不从我hive所在的机器上找,而是去连接我的集群里的另外两台机器
但是我的集群没有开
所以下面就一直在retry

猜测:

出现这个错误的原因可能与core-site.xml和hdfs-site.xml有关,因为这里面配置了集群的namenode信息

解决方案:

我新建了一个项目,里面没有core-site.xml和hdfs-site.xml
只放进去一个hive-site.xml

Spark整合hive的时候出错_第1张图片

错误原因:

我的hive-site.xml中没有图片中的三个配置,加上这三个配置就好了

Spark整合hive的时候出错_第2张图片

你可能感兴趣的:(spark,hive,大数据)