idea 中连接 hive

一、准备工作

1、添加依赖

添加hive-jdbc 和hadoop-common 的依赖。
注意: 此处添加的依赖要和自己服务器上的版本对应上。


<dependency>
     <groupId>org.apache.hivegroupId>
     <artifactId>hive-jdbcartifactId>
     <version>1.2.1version>
dependency>

<dependency>
      <groupId>org.apache.hadoopgroupId>
      <artifactId>hadoop-commonartifactId>
      <version>2.7.2version>
dependency>

2、修改 hadoop 和 hive 的配置文件

  • 修改 hadoop 的配置文件
    修改 $HADOOP_HOME/etc/hadoop/core-site.xml 配置文件,添加如下配置:
 
  
<property>
	<name>hadoop.proxyuser.hadoop.hostsname>
	<value>*value>
property>

<property>
	<name>hadoop.proxyuser.hadoop.groupsname>
	<value>*value>
property>

修改后需重启集群。

  • 修改 hive 的配置文件
    修改 $HIVE_HOME/conf/hive-site.xml 配置文件,添加如下配置:

<property>
	<name>hive.server2.thrift.bind.hostname>
	<value>hadoop102value>
property>


<property>
	<name>hive.server2.thrift.portname>
	<value>10000value>
property>

3、启动hivserver2服务

需要启动hiveserver2的进程。

二、创建 hive 连接

1、打开 Database 窗口

idea 中连接 hive_第1张图片

2、创建 Driver

选中 Driver ,并点击
idea 中连接 hive_第2张图片

3、配置 Driver

  • 改名(非必需)
    idea 中连接 hive_第3张图片
  • 下载 Driver 所需依赖
    去自己的服务器上 $HIVE_HOME/lib 目录下下载 hive-*.jar 开头的 jar 包
    idea 中连接 hive_第4张图片
    然后去 $HADOOP_HOME/share/hadoop/common 文件下下载 hadoop 的 jar 包
    idea 中连接 hive_第5张图片
    **注意:**此处要是不下载hadoop的jar包的话,之后创建 hive 连接的时候会报错,如下图所示:
    idea 中连接 hive_第6张图片
  • 将所有 jar 包添加到 Driver 中
    点击红框内的加号
    idea 中连接 hive_第7张图片
    添加上述下载的 hive 的和 hadoop 的 jar 包,点击 OK 。
    idea 中连接 hive_第8张图片
  • 选择 hive 的 JDBC 的 Driver 类
    将 jar 包添加后,等 jar 包加载完毕,会在 Class 复选框内出现一个 org.apache.hive.jdbc.HiveDriver 类,选中即可,然后点击OK就创建好了hive的Driver。
    idea 中连接 hive_第9张图片

4、创建 hive 的连接

  • 点击Hive2
    idea 中连接 hive_第10张图片
  • 添加hive连接
    idea 中连接 hive_第11张图片
  • 测试连接是否成功
    点击Test Connection,测试是否可以连通,成功则如下图所示:
    idea 中连接 hive_第12张图片

三、未解决错误

以下错误虽然不影响使用但是,看不到hive中的数据库和表,目前没有找到是什么原因导致的。
注明:hive版本1.2.1,hadoop的版本2.7.2。
idea 中连接 hive_第13张图片
错误:enabling autocommit is not supported.

你可能感兴趣的:(#,Hive,hive,intellij-idea,hadoop)