Hbase 映射到Hive

目录

一、环境配置修改

关闭掉hbase,zookeeper和hive服务

进入hive312/conf

修改hive-site.xml配置, 在代码最后添加配置

 将hbase235的jar包全部拷贝到hive312的lib目录,并且所有的是否覆盖信息全部输入n,不覆盖

  查看hive312下面的guava,只保留27的guava

删除除了27以外的所有guava 

​编辑 再将hbase235里面的除了27的guava全部删除

 将hive312的27拷贝到hbase235的lib目录下

 重新启动hadoop,zookeeper,hbase

hbase shell  查看是否成功

二、Hbase数据库连接到Hive

 scan hbase中的表,获得元数据,一一对应到到hive创建表语句中


一、环境配置修改

关闭掉hbase,zookeeper和hive服务

[root@reagan180 conf]# stop-hbase.sh
[root@reagan180 conf]# zkServer.sh stop
[root@reagan180 conf]# stop-all.sh

进入hive312/conf

[root@reagan180 /]# cd /opt/soft/hive312/conf/

修改hive-site.xml配置, 在代码最后添加配置

[root@reagan180 conf]#vim hive-site.xml

    
      hive.zookeeper.quorum
      192.168.91.180
   
    
      hbase.zookeeper.quorum
      192.168.91.180
   

    
      hive.aux.jars.path
      file:///opt/soft/hive312/lib/hive-hbase-handler-3.1.2.jar,file:///opt/soft/hive312/lib/zookeeper-3.4.6.jar,file:///opt/soft/hive312/lib/hbase-client-2.3.5.jar,file:///opt/soft/hive312/lib/hbase-common-2.3.5-tests.jar,file:///opt/soft/hive312/lib/hbase-server-2.3.5.jar,file:///opt/soft/hive312/lib/hbase-common-2.3.5.jar,file:///opt/soft/hive312/lib/hbase-protocol-2.3.5.jar,file:///opt/soft/hive312/lib/htrace-core-3.2.0-incubating.jar

 将hbase235的jar包全部拷贝到hive312的lib目录,并且所有的是否覆盖信息全部输入n,不覆盖

[root@reagan180 conf]#cp /opt/soft/hbase235/lib /opt/soft/hIve312/lib

  查看hive312下面的guava,只保留27的guava

[root@reagan180 lib]#find .../lib/guava*

删除除了27以外的所有guava 

 [root@reagan180 lib]#rm -rf ../lib/guava-11.0.2.jar

Hbase 映射到Hive_第1张图片 再将hbase235里面的除了27的guava全部删除

 将hive312的27拷贝到hbase235的lib目录下

 [root@reagan180 lib]#cp /opt/soft/hive312/lib/guava-27.0-jre.jar ./

Hbase 映射到Hive_第2张图片

 重新启动hadoop,zookeeper,hbase

启动hadoop: start-all.sh
远程后台启动 hive:
nohup hive --service hiveserver2 &
nohup hive  --service metastore &
启动zk:     zkServer.sh start
启hbase:    start-hbase.sh

hbase shell  查看是否成功

二、Hbase数据库连接到Hive

 scan hbase中的表,获得元数据,一一对应到到hive创建表语句中

 Hbase 映射到Hive_第3张图片

 查询结果:select * from student;

 

你可能感兴趣的:(hbase,hive,hadoop,linux,数据库)