如果 你不想 通过账号密码的方式使用 HiveServer2 服务,那么你可以直接跳过这一步骤。
账号密码鉴权类
在使用 HiveServer2 连接服务时,对设置的 HiveServer2 账号密码,进行鉴权操作。
package org.apache.hadoop.hive.contrib.auth;
/**
* @author Moon_coder
* @version 1.0
* @date 2023/8/20 17:40
*/
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hive.conf.HiveConf;
import org.apache.hive.service.auth.PasswdAuthenticationProvider;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import javax.security.sasl.AuthenticationException;
public class CustomPasswdAuthenticator implements PasswdAuthenticationProvider {
private Logger LOG = LoggerFactory.getLogger(CustomPasswdAuthenticator.class);
private static final String HIVE_JDBC_PASSWD_AUTH_PREFIX = "hive.jdbc_passwd.auth.%s";
private Configuration conf = null;
public CustomPasswdAuthenticator() {}
@Override
public void Authenticate(String userName, String passwd) throws AuthenticationException {
LOG.info("user: " + userName + " try login.");
String passwdConf = this.getConf().get(String.format("hive.jdbc_passwd.auth.%s", userName));
String message;
if (passwdConf == null) {
message = "user's ACL configration is not found. user:" + userName;
LOG.info(message);
throw new AuthenticationException(message);} else if (!passwd.equals(passwdConf)) {
message = "user name and password is mismatch. user:" + userName;throw new AuthenticationException(message);
}
}
public Configuration getConf() {
if (this.conf == null) {
this.conf = new Configuration(new HiveConf());
}
return this.conf;
}
public void setConf(Configuration conf) {
this.conf = conf;
}
}
对应依赖
相关版本自行修改。
<dependencies>
<dependency>
<groupId>org.apache.hadoopgroupId>
<artifactId>hadoop-commonartifactId>
<version>3.1.3version>
dependency>
<dependency>
<groupId>org.apache.hivegroupId>
<artifactId>hive-jdbcartifactId>
<version>3.1.2version>
dependency>
<dependency>
<groupId>org.slf4jgroupId>
<artifactId>slf4j-apiartifactId>
<version>1.7.32version>
dependency>
<dependency>
<groupId>org.slf4jgroupId>
<artifactId>slf4j-simpleartifactId>
<version>1.7.32version>
<scope>runtimescope>
dependency>
dependencies>
编译成 Jar 包
在 IDEA 中编译成 Jar 包,将其上传到 $HIVE_HOME/lib/
目录下,包名无所谓。
这里我将编译好的包进行了上传,不想编译的可以直接下载:
hiveserver2_verify.jar
1.在 Hive 的配置文件 hive-site.xml
中添加如下参数:
如果你未设置账号密码验证,不想使用账号密码,仅用作测试,则不要添加下文中的最后三项配置!!!会导致无法启动 HiveServer2,因为它无法找到对应解析类。
<property>
<name>hive.server2.thrift.portname>
<value>10000value>
property>
<property>
<name>hive.server2.thrift.bind.hostname>
<value>mastervalue>
property>
<property>
<name>hive.users.in.admin.rolename>
<value>rootvalue>
property>
<property>
<name>hive.server2.authenticationname>
<value>CUSTOMvalue>
property>
<property>
<name>hive.server2.custom.authentication.classname>
<value>org.apache.hadoop.hive.contrib.auth.CustomPasswdAuthenticatorvalue>
property>
<property>
<name>hive.jdbc_passwd.auth.rootname>
<value>000000value>
property>
2.在 Hadoop 的核心配置文件 core-site.xml
中添加如下两项参数:
指定集群可以连接的用户,我这里设置为 root 用户。
假如我想指定用户名为 master
,则配置项中的 root
必须改为 master
,如:hadoop.proxyuser.master.hosts
。
<property>
<name>hadoop.proxyuser.root.hostsname>
<value>*value>
property>
<property>
<name>hadoop.proxyuser.root.groupsname>
<value>*value>
property>
添加完成后注意分发该文件到其它机器,然后重启 Hadoop。
Hadoop 重启完成后,启动 hive 元数据服务与 hiveserver2 服务:
nohup hive --service metastore &
nohup hive --service hiveserver2 &
连接测试:
连接你绑定的地址并根据提示输入 Hive 的配置文件 hive-site.xml
中指定的用户与其密码。
beeline
!connect jdbc:hive2://master:10000
根据提示输入账号密码(默认都为空,直接按回车跳过即可)
下列是本人遇到的相关问题以及解决方法。
问题一
连接时出现错误:User: xxx is not allowed to impersonate anonymous (state=08S01,code=0)
,显示该用户不被允许连接,这是因为在 Hadoop 的核心配置文件 core-site.xml
中没有指定该用户(上方有添加用户模板)或者指定后 Hadoop 集群没有重启,导致配置没有生效。
问题二
如果你在通过 hiveserver2 服务远程插入数据时出现如下错误:FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.StatsTask
解决方法:
在插入的目标库中设置属性 set hive.stats.autogather=false;
,关闭配置自动统计列的统计信息。
问题三
使用 HiveServer2 服务时异常停止,JVM 内存溢出:
FAILED: Execution Error, return code -101 from org.apache.hadoop.hive.ql.exec.mr.MapRedTask. Java heap space Exception in thread "HiveServer2-Handler-Pool: Thread-652" java.lang.OutOfMemoryError: GC overhead limit exceeded
解决方法:
修改 Hive 中 conf 目录下的 hive-env.sh
文件,将 export HADOOP_HEAPSIZE=1024
进行调整,可以修改为 4096
,视情况而定;
保存退出,重新启动服务就可以啦。
1. 调出控制面板,创建连接:
选择 Hive 数据源。
2.配置相关连接信息
账号密码如果没有设置则都为空,密码输入框为隐式显示。
点击 Test Connection
测试连接是否成功,然后下载集群 HiveServer2 远程连接 JDBC 对应驱动版本。
驱动下载完成后,弹出对应提示:
此时点击 OK
配置完成,可以发现驱动版本与集群是一致的。
3.使用
不做过多的赘述了,使用起来还是特别简单便捷的,没有啥难度可言。