hive元数据异常解决方案

hive元数据异常解决方案

​ 最近在IDEA里使用spark向hive中保存数据。添加依赖时hive-jdbc的版本写错2.3.6的hive写成1.3.6,并且执行成功。导致hive元数据异常。

metastore 服务启动报错(启动命令:hive --service metastore &)

Caused by: MetaException(message:Hive Schema version 2.3.0 does not match metastore’s schema version 1.2.0 Metastore is not upgraded or corrupt)_2FAILED: SemanticException 

进入hive执行命令报错(show databases;)

org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient 

在这里提供两种解决方案:

方案一保留原hive数据(推荐)

1、进入hdfs将hive中的出问题元数据删除

2、登陆mysql。mysql -u root -p (123456)

登陆mysql,修改hive metastore版本:
进行mysql:mysql -uroot -p (123456)
use hive;
select * from version;
update VERSION set SCHEMA_VERSION='2.1.1' where  VER_ID=1;

3重启hive。问题解决。

方案二清空hive数据

1、在hive的配置文件hive-site.xml添加如下配置:


    datanucleus.schema.autoCreateAll
    true
  

2、清空mysql上的元数据

drop database hive_metastore;
Query OK, 57 rows affected (0.42 sec)
 
MariaDB [(none)]> create database hive_metastore;
Query OK, 1 row affected (0.18 sec)

3、初始化元数据

[root@master /data/hive/conf]$ schematool -dbType mysql -initSchema

4、将第一步添加的配置去掉。重启hive。问题解决。

你可能感兴趣的:(大数据相关)