Cannot initialize Cluster. Please check your configuration for mapreduce.framework .name and the cor
背景利用ambari搭建的新环境,跑数据出现了不少问题,但如下问题困扰了很长时间,直到今天才得以解决,每次报错。按照网上的各种方式都不行。我知道问题点肯定在spark2.3.1集成hive3.1.0的版本问题上,因为hive3.1.0新增了很多功能,如事务等,发布时间没有长时间的积累,出问题很容易不受控制。环境采用ambari2.7.1+spark2.3.1+hadoop3.1.1+hive3.1