Windows:10 JDK:1.8 Apache Hadoop:2.7.0
Apache Hive:2.1.1 Apache Hive src:1.2.2 MySQL:5.7
Hadoop搭建
Apache Hive 2.1.1:https://archive.apache.org/dist/hive/hive-2.1.1/apache-hive-2.1.1-bin.tar.gz
Apache Hive 1.2.2 src:https://archive.apache.org/dist/hive/hive-1.2.2/apache-hive-1.2.2-src.tar.gz
MySQL驱动下载:MySQL :: Begin Your Download或使用我下载好的(百度网盘 提取码:1024)
这里是以我安装版本,搭建操作都是一样的。
注意:Hive中对应的Hive版本最好不要比你安装的Hadoop版本高。
可以在解压后的Hive src中的pom.xml文件中查看:
将下载好的MySQL驱动解压,将mysql-connector-java-5.1.46目录下的mysql-connector-java-5.1.46-bin.jar复制到apache-hive-2.1.1-bin\lib目录下。
HIVE_HOME:
PATH:
注意:以自己存放路径为准,E:\hadoop\..只是我自己的存放位置,下面相关路径操作同理。
找到apache-hive-2.1.1-bin\conf目录下的4个文件,重命名:
hive-default.xml.template -----> hive-site.xml
hive-env.sh.template -----> hive-env.sh
hive-exec-log4j.properties.template -----> hive-exec-log4j2.properties
hive-log4j2.properties.template -----> hive-log4j2.properties
\apache-hive-2.1.1-bin\my_hive
\apache-hive-2.1.1-bin\my_hive\operation_logs_dir
\apache-hive-2.1.1-bin\my_hive\querylog_dir
\apache-hive-2.1.1-bin\my_hive\resources_dir
\apache-hive-2.1.1-bin\my_hive\scratch_dir
四个新建文件路径配置:
连接数据库相关配置:
账号是否为root,密码是否为123456,端口是否为3306,如果不一样,就需要更改。
注意:useSSL=false要放最后,不然后面启动hive metastore服务会报错
hdfs dfs -mkdir -p /tmp
hdfs dfs -mkdir -p /user/hive/warehouse
hdfs dfs -chmod 777 /tmp
hdfs dfs -chmod 777 /user/hive/warehouse
到Hadoop的sbin目录下右键管理员身份运行start-all.cmd,或命令运行:start-all.cmd
以管理员身份打开cmd,目录切换到\apache-hive-2.1.1-bin\bin,输入命令:hive --service schematool -dbType mysql -initSchema
。
使用命令hive --service metastore
的启动方式不适合Windows
如果在mysql中hive表中出现下图中许多表的情况,则说明开启成功。
只需要在第一次启动,之后再使用Hive就不需要再启动,可跳过这个阶段。
以管理员身份打开cmd,目录切换到\apache-hive-2.1.1-bin\bin,输入命令:hive.cmd
尝试建一个表:create table stu(id int, name string)
,如果创建成功可以在管理界面看见: