使用superset连接Hive

superset连接Hive

在连接前,先要能实现JDBC 方式访问 Hive

启动hadoop集群

myhadoop.sh start

在superset环境下安装依赖

conda activate superset
pip install pyhive
pip install sasl
pip install thrift
pip install thrift-sasl

使用 JDBC 方式访问 Hive

1.配置自己集群的hadoop/etc/hadoop目录下的core-site-xml配置文件

tom是用户名,记得改成自己的用户名

    <property>
        <name>hadoop.proxyuser.tom.hosts</name>
        <value>*</value>
    </property>
    <property>
        <name>hadoop.proxyuser.tom.groups</name>
        <value>*</value>
    </property>

2.向其它机器分发该文件

xsync hadoop/etc/hadoop/
注意写自己该配置文件所在路径,xsync是分发脚本

3.重启hadoop集群

myhadoop stop
myhadoop start

4.在hive/conf/hive-site.xml 文件中添加如下配置信息

bigdata1是主机名,改成自己的主机名

<!-- 指定存储元数据要连接的地址 -->
<property>
<name>hive.metastore.uris</name>
<value>thrift://bigdata1:9083</value>
</property>
<!-- 指定 hiveserver2 连接的 host -->
<property>
<name>hive.server2.thrift.bind.host</name>
<value>bigdata1</value>
</property>
<!-- 指定 hiveserver2 连接的端口号 -->
<property>
<name>hive.server2.thrift.port</name>
<value>10000</value>
</property>

5.启动 metastore

[tom@bigdata1 hive-3.1.2]$ hive --service metastore  

6.在另一个窗口启动hiveserver2

[tom@bigdata1 hive-3.1.2]$ bin/hive --service hiveserver2 

7.在另一个窗口启动 beeline 客户端

bigdata1主机名,tom用户名,注意改成自己的主机名和用户名

[tom@bigdata1 hive-3.1.2]$ bin/beeline -u jdbc:hive2://bigdata1:10000 -n tom

开启superset

superset.sh start

连接hive

使用superset连接Hive_第1张图片

hive://bigdata1:10000/default
bigdata1是主机名,default是hive数据库名

使用superset连接Hive_第2张图片

你可能感兴趣的:(hive,apache,hadoop)