Spark读取Hive时schema版本不匹配的解决方法

当使用Spark进行Hive数据操作时,提示如下:

Hive Schema version 2.3.0 does not match metastore's schema version 1.2.0 Metastore is not upgraded or corrupt

即Spark中采用的Hive metastore版本 和 Hive环境中配置的metastore的版本不一致。

解决:

  1. 将存储hive meta信息的mysql中所配置的schema version 修改为Spark中采用的metastore版本。


    image.png
  1. 在hive环境的hive-site.xml配置文件中增加(或修改)如下配置:

    hive.metastore.schema.verification
    false

修改完hive-site.xml后需重启hive集群。

你可能感兴趣的:(Spark读取Hive时schema版本不匹配的解决方法)